RAID5が崩壊したHDL-GTからデータを救済する方法
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
単語検索
|
最終更新
|
ヘルプ
]
[PR]
[PR]
開始行:
----
&color(red){このページは、(業者に頼らず)自分でデータを...
&color(red){復旧天使などの有料ソフトも使いません。};
----
#contents
*はじめに [#y615458f]
このページでは、IOデータ製NASドライブのHDL-GTシリーズにお...
まず、以下にこのモデル(以下、HDLと記載)の特徴を公式HPか...
「LAN DISK Tera」はRAID 5によるデータ保護機能を備えたNAS...
カートリッジ式のハードディスクを採用し、ホットスワップに...
更に、外付けeSATAハードディスクへのミラーリング機能も搭...
*このページで扱うRAID崩壊のケースについて [#s9d240ab]
こちらの環境でRAID崩壊が発生したケースは、「RAID5運用中に...
#ref(RAID崩壊発生の順序.png,center,wrap,nolink)&br;
上記の製品概要の文章では、「ホットスワップにも対応」とい...
そして、ひとたびRAID崩壊モードに陥れば、通常の方法ではデ...
*HDL−GTシリーズのドライブ構成 [#l133780d]
HDLは、システムとユーザーが保存するデータが共にHDDに保存...
そこで、システムやユーザーデータがどのように保存されてい...
まず、HDDは複数のボリュームにパーティショニングされている...
各HDDのボリュームの構成は以下の表のとおりとなっている。特...
**表 HDDのパーティション構成 [#ma6028af]
|>||ボリューム1|ボリューム2|ボリューム3|ボリューム4|ボリ...
|ドライブ1&br;/dev/sda|デバイス番号|sda1|sda2|sda3|sda4|s...
|~|フォーマット|RAID1(md1)|RAID1(md2)|swap|拡張領域|RAID1...
|>|ドライブ2, 3, 4&br;/dev/sdb, sdc, sdd|>|>|>|>|>|ドライ...
**表 HDLのRAID構成 [#c3fba9b2]
|ボリューム|フォーマット|マウント先|RAID構成|h
|/dev/md1|ext2|/boot|RAID1(sda1,sdb1,sdc1,sdd1)|
|/dev/md2|ext3|/|RAID1(sda2,sdb2,sdc2,sdd2)|
|/dev/md5|ext3|/mnt/hda5|RAID1(sda5,sdb5,sdc5,sdd5)|
|/dev/md10|RAID1アレイ|md13|RAID1(sda6,sdb6,sdc6,sdd6)|
|/dev/md13|xfs|/mnt/sataraid1|RAID1(md10,外付けドライブ)|
*救済に必要なツールの準備 [#a9939327]
すでにHDLをハッキングし、telnetを有効化していれば、telnet...
そこで、ドライブをすべて取り出し、別のPCに接続することでR...
必要なツールは以下の通り&br;
+救済用PC(SATA端子5つ以上あるWindowsPC、ノートPCはSATA端...
+接続用SATAケーブル×4本
+KNOPPIX CD(説明)
+救済用HD(ユーザーデータの容量と同等以上の容量のHDが必要...
*PCへの接続 [#q8994f03]
PCに接続されていたHDDは作業が終了するまで取り外す。&br;
ここでは、RAID5運用していたHDLのドライブ2が故障し、RAID崩...
救済用PCのSATA端子が4個しか無い場合、USB光学ドライブがあ...
#ref(PCへの接続図.png,center,wrap,nolink)&br;
*RAIDアレイのデバイス番号を確認 [#v953644e]
PC本体の構成が完了したら、KNOPPIXを起動する。&br;
以下、GUIは使わないので、ターミナルを起動し、rootユーザー...
$su -
接続したドライブがどのデバイスに割り当てられているか、RAI...
#mdadm --misc --examine /dev/sda1 <--コマンドで指定した...
/dev/sda1:
Magic : xxxxxxxx
Version : 0.90.xx
UUID : 705f919a:8b56e077:93875f94:f8cbfdfd
Creation Time : Mon Jan 1 00:00:00 20xx
Raid Level : raid5
Array Size : 2923628928 (2788.19 GiB 2993.80 GB)
Used Dev Size : 974542976 (929.40 GiB 997.93 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Update Time : Sun Nov 04 00:00:00 2012
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : abcdefgh - correct
Events : 12345678
Layout : left-symmetric
Chunk Size : 256K
Number Major Minor RaidDevice State
this 0 8 145 0 active sync ...
0 0 8 6 0 active sync ...
1 1 0 0 1 removed
2 2 8 38 2 active sync ...
3 3 8 54 3 active sync ...
ここで、コマンドで指定したデバイスとコマンド結果のthisの...
他のデバイスも同様に、mdadmで確認する。&br;
*RAID崩壊モードからの復旧 [#y7a7c555]
デバイス確認が終わったところで、ユーザーデータが入ってい...
RAID崩壊モードからの復旧とは即ち、故障アレイ以外のアレイ...
#mdadm -A --run --force /dev/md10 /dev/sda6 /dev/sdc6 /d...
オプションの-Aは--assembleと同じで、既存のRAIDアレイを構...
また、元のRAIDに対してデバイス数が足りない場合でも強制的...
ここで、もしmd10が見つからないというエラーが出た場合は、...
#mknod /dev/md10 b 9 10
それから、先ほどのコマンドを実行する。&br;
md10のステータスを確認する。以下のコマンドでactiveとなっ...
#cat /proc/mdstat
md10 : active raid5 sdd6[2] sdc6[1] sda6[0]
1234567 blocks level 5, 64k chunk, algorithm 2 [4...
これでRAID5のデバイスは同期がとれてRAID縮退モード(degrad...
ここまでで、RAID5のRAID崩壊は回復している。&br;
もし、同期をとる最中の場合は、recoveryと表示されるので、...
#cat /proc/mdstat
md10 : active raid5 sdd6[2] sdc6[1] sda6[0]
1234567 blocks level 5, 64k chunk, algorithm 2 [4...
[>>>>>>>>>>>..........] recovery = 50% (12345/123...
*RAIDドライブのマウント [#gf6ce027]
次に、md13を作成する。先ほどと同じ要領で、強制的にアクテ...
#mdadm -A --run /dev/md13 /dev/md10
そして、md13をマウントする。
#mount -t xfs /dev/md13 /mnt/sataraid1
&color(red){注意};&br;
メモリのバイトオーダーがxfsファイルシステムで互換性が無い...
#ls -l /mnt/sataraid1
?????????? ? ? ? ? ? ? ? share
sataraid1にアクセスできません。
上記のようにshareという所をみるだけで確認は終了。&br;
*救済用HDのパーティション作成 [#y4beb108]
作成するパーティションのサイズは、md13の全データが入るよ...
もしまだmd13をactiveにしていなかった場合は以下のコマンド...
#mdadm -A --run /dev/md13 /dev/md10
md13の容量を確認する。
#fdisk -l /dev/md13
2993.8GB (2993795883008bytes)
上記以上のサイズのパーティションを作成する。上の容量+1049...
#parted /dev/sdb
(parted) mkpart primary 2048s 299379632008B
(parted) quit
次に、救済用HDにデータをコピーする。
*RAID5ドライブからのデータ救済 [#u1514f0b]
データ救済はユーザーデータ内のファイルやフォルダを1つ1...
#dd if=/dev/md13 of=/dev/sdb1 ibs=1024k obs=1024k conv=...
通常のデータ救済では、読み込みブロックサイズをHDDのセクタ...
つまり、noerrorオプション付きでコピー中にRAIDデバイスが停...
**RAID5ドライブのデータ救済中にRAIDが停止した場合 [#afe04...
もし、救済中にRAIDが停止した場合、事態はいっそう深刻なも...
#cat /proc/mdstat
md10 : active raid5 sdd6(2) sdc6(1) //sda6が消えている...
mdstatで停止したドライブを特定できたら、即座にPCをいった...
**故障したドライブのデータ救済 [#f546d6e1]
まず、ルートになる。
#su -
故障ドライブのデバイス番号を確認する。
#fdisk -l /dev/sda
#fdisk -l /dev/sdb
fdiskの結果でパーティションが見えた方が故障ドライブである...
故障ドライブのデータを新しいHDDに救済する。
#dd if=/dev/sda of=/dev/sdb ibs=512 obs=512 conv=noerror...
ddコマンドでのデータ救済では、obs=1024kとしているホームペ...
救済が完了したら、RAIDデータのコピー作業を続けるため、PC...
*関連リンク [#r8b35729]
[[mdadm(8) ver.1.5 man page [日本語]:http://www.ioss.jp/s...
[[いきあたりばったりのおもいつきめも : NASの情報を見る(...
[[mdadmで壊れたアレイを修復できるか?:ぴろにっき:So-net...
[[チラシの裏にでも書いてろ な!: mdadmでRAID構築(まとめ...
[[matoさんのぶろぐ mdadmでRAID1を試し組み:http://matosus3...
[[Linuxでmdadmを使ったソフトウェアRAIDの構築・管理メモ - ...
----
*コメント欄 [#od016715]
#pcomment_nospam(,10,above)
終了行:
----
&color(red){このページは、(業者に頼らず)自分でデータを...
&color(red){復旧天使などの有料ソフトも使いません。};
----
#contents
*はじめに [#y615458f]
このページでは、IOデータ製NASドライブのHDL-GTシリーズにお...
まず、以下にこのモデル(以下、HDLと記載)の特徴を公式HPか...
「LAN DISK Tera」はRAID 5によるデータ保護機能を備えたNAS...
カートリッジ式のハードディスクを採用し、ホットスワップに...
更に、外付けeSATAハードディスクへのミラーリング機能も搭...
*このページで扱うRAID崩壊のケースについて [#s9d240ab]
こちらの環境でRAID崩壊が発生したケースは、「RAID5運用中に...
#ref(RAID崩壊発生の順序.png,center,wrap,nolink)&br;
上記の製品概要の文章では、「ホットスワップにも対応」とい...
そして、ひとたびRAID崩壊モードに陥れば、通常の方法ではデ...
*HDL−GTシリーズのドライブ構成 [#l133780d]
HDLは、システムとユーザーが保存するデータが共にHDDに保存...
そこで、システムやユーザーデータがどのように保存されてい...
まず、HDDは複数のボリュームにパーティショニングされている...
各HDDのボリュームの構成は以下の表のとおりとなっている。特...
**表 HDDのパーティション構成 [#ma6028af]
|>||ボリューム1|ボリューム2|ボリューム3|ボリューム4|ボリ...
|ドライブ1&br;/dev/sda|デバイス番号|sda1|sda2|sda3|sda4|s...
|~|フォーマット|RAID1(md1)|RAID1(md2)|swap|拡張領域|RAID1...
|>|ドライブ2, 3, 4&br;/dev/sdb, sdc, sdd|>|>|>|>|>|ドライ...
**表 HDLのRAID構成 [#c3fba9b2]
|ボリューム|フォーマット|マウント先|RAID構成|h
|/dev/md1|ext2|/boot|RAID1(sda1,sdb1,sdc1,sdd1)|
|/dev/md2|ext3|/|RAID1(sda2,sdb2,sdc2,sdd2)|
|/dev/md5|ext3|/mnt/hda5|RAID1(sda5,sdb5,sdc5,sdd5)|
|/dev/md10|RAID1アレイ|md13|RAID1(sda6,sdb6,sdc6,sdd6)|
|/dev/md13|xfs|/mnt/sataraid1|RAID1(md10,外付けドライブ)|
*救済に必要なツールの準備 [#a9939327]
すでにHDLをハッキングし、telnetを有効化していれば、telnet...
そこで、ドライブをすべて取り出し、別のPCに接続することでR...
必要なツールは以下の通り&br;
+救済用PC(SATA端子5つ以上あるWindowsPC、ノートPCはSATA端...
+接続用SATAケーブル×4本
+KNOPPIX CD(説明)
+救済用HD(ユーザーデータの容量と同等以上の容量のHDが必要...
*PCへの接続 [#q8994f03]
PCに接続されていたHDDは作業が終了するまで取り外す。&br;
ここでは、RAID5運用していたHDLのドライブ2が故障し、RAID崩...
救済用PCのSATA端子が4個しか無い場合、USB光学ドライブがあ...
#ref(PCへの接続図.png,center,wrap,nolink)&br;
*RAIDアレイのデバイス番号を確認 [#v953644e]
PC本体の構成が完了したら、KNOPPIXを起動する。&br;
以下、GUIは使わないので、ターミナルを起動し、rootユーザー...
$su -
接続したドライブがどのデバイスに割り当てられているか、RAI...
#mdadm --misc --examine /dev/sda1 <--コマンドで指定した...
/dev/sda1:
Magic : xxxxxxxx
Version : 0.90.xx
UUID : 705f919a:8b56e077:93875f94:f8cbfdfd
Creation Time : Mon Jan 1 00:00:00 20xx
Raid Level : raid5
Array Size : 2923628928 (2788.19 GiB 2993.80 GB)
Used Dev Size : 974542976 (929.40 GiB 997.93 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Update Time : Sun Nov 04 00:00:00 2012
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : abcdefgh - correct
Events : 12345678
Layout : left-symmetric
Chunk Size : 256K
Number Major Minor RaidDevice State
this 0 8 145 0 active sync ...
0 0 8 6 0 active sync ...
1 1 0 0 1 removed
2 2 8 38 2 active sync ...
3 3 8 54 3 active sync ...
ここで、コマンドで指定したデバイスとコマンド結果のthisの...
他のデバイスも同様に、mdadmで確認する。&br;
*RAID崩壊モードからの復旧 [#y7a7c555]
デバイス確認が終わったところで、ユーザーデータが入ってい...
RAID崩壊モードからの復旧とは即ち、故障アレイ以外のアレイ...
#mdadm -A --run --force /dev/md10 /dev/sda6 /dev/sdc6 /d...
オプションの-Aは--assembleと同じで、既存のRAIDアレイを構...
また、元のRAIDに対してデバイス数が足りない場合でも強制的...
ここで、もしmd10が見つからないというエラーが出た場合は、...
#mknod /dev/md10 b 9 10
それから、先ほどのコマンドを実行する。&br;
md10のステータスを確認する。以下のコマンドでactiveとなっ...
#cat /proc/mdstat
md10 : active raid5 sdd6[2] sdc6[1] sda6[0]
1234567 blocks level 5, 64k chunk, algorithm 2 [4...
これでRAID5のデバイスは同期がとれてRAID縮退モード(degrad...
ここまでで、RAID5のRAID崩壊は回復している。&br;
もし、同期をとる最中の場合は、recoveryと表示されるので、...
#cat /proc/mdstat
md10 : active raid5 sdd6[2] sdc6[1] sda6[0]
1234567 blocks level 5, 64k chunk, algorithm 2 [4...
[>>>>>>>>>>>..........] recovery = 50% (12345/123...
*RAIDドライブのマウント [#gf6ce027]
次に、md13を作成する。先ほどと同じ要領で、強制的にアクテ...
#mdadm -A --run /dev/md13 /dev/md10
そして、md13をマウントする。
#mount -t xfs /dev/md13 /mnt/sataraid1
&color(red){注意};&br;
メモリのバイトオーダーがxfsファイルシステムで互換性が無い...
#ls -l /mnt/sataraid1
?????????? ? ? ? ? ? ? ? share
sataraid1にアクセスできません。
上記のようにshareという所をみるだけで確認は終了。&br;
*救済用HDのパーティション作成 [#y4beb108]
作成するパーティションのサイズは、md13の全データが入るよ...
もしまだmd13をactiveにしていなかった場合は以下のコマンド...
#mdadm -A --run /dev/md13 /dev/md10
md13の容量を確認する。
#fdisk -l /dev/md13
2993.8GB (2993795883008bytes)
上記以上のサイズのパーティションを作成する。上の容量+1049...
#parted /dev/sdb
(parted) mkpart primary 2048s 299379632008B
(parted) quit
次に、救済用HDにデータをコピーする。
*RAID5ドライブからのデータ救済 [#u1514f0b]
データ救済はユーザーデータ内のファイルやフォルダを1つ1...
#dd if=/dev/md13 of=/dev/sdb1 ibs=1024k obs=1024k conv=...
通常のデータ救済では、読み込みブロックサイズをHDDのセクタ...
つまり、noerrorオプション付きでコピー中にRAIDデバイスが停...
**RAID5ドライブのデータ救済中にRAIDが停止した場合 [#afe04...
もし、救済中にRAIDが停止した場合、事態はいっそう深刻なも...
#cat /proc/mdstat
md10 : active raid5 sdd6(2) sdc6(1) //sda6が消えている...
mdstatで停止したドライブを特定できたら、即座にPCをいった...
**故障したドライブのデータ救済 [#f546d6e1]
まず、ルートになる。
#su -
故障ドライブのデバイス番号を確認する。
#fdisk -l /dev/sda
#fdisk -l /dev/sdb
fdiskの結果でパーティションが見えた方が故障ドライブである...
故障ドライブのデータを新しいHDDに救済する。
#dd if=/dev/sda of=/dev/sdb ibs=512 obs=512 conv=noerror...
ddコマンドでのデータ救済では、obs=1024kとしているホームペ...
救済が完了したら、RAIDデータのコピー作業を続けるため、PC...
*関連リンク [#r8b35729]
[[mdadm(8) ver.1.5 man page [日本語]:http://www.ioss.jp/s...
[[いきあたりばったりのおもいつきめも : NASの情報を見る(...
[[mdadmで壊れたアレイを修復できるか?:ぴろにっき:So-net...
[[チラシの裏にでも書いてろ な!: mdadmでRAID構築(まとめ...
[[matoさんのぶろぐ mdadmでRAID1を試し組み:http://matosus3...
[[Linuxでmdadmを使ったソフトウェアRAIDの構築・管理メモ - ...
----
*コメント欄 [#od016715]
#pcomment_nospam(,10,above)
ページ名: