• 締切済み

CentOS7でRAID1の構築のエラー

quatercaskの回答

回答No.1

raid1を構成する場合パーティションを直接mdに組込む方法とlvm(論理ボリューム)を使用する方法の2つがあります。 最近は/bootパーティションは前者で、残りを後者でそれぞれRaidセットにするのが一般的です。 下記のサイトにとても解りやすく纏まっておりましたので紹介します。 https://www.nslabs.jp/raid1-convert.rhtml https://www.nslabs.jp/raid-logical-volumes.rhtml 他にはZFS on linuxでミラーボリュームを作成する方法もありますがそれならFreeNAS等でストレージサーバーを用意してiscsi/NFSの利用を検討する方が色々と楽になると思います。

axbycz
質問者

お礼

quatercaskさま ご回答をありがとうございました。 お返事が遅くなりまして、大変申し訳ございません。 年度末でバタバタしておりまして、しっかり時間が取れるときに、教えていただきましたサイトを確認させていただきます。 またわからないことが出てくるかと思いますが、その際はまた質問させてください。 よろしくお願いいたします。 ありがとうございました。

axbycz
質問者

補足

quatercaskさま ご連絡が遅くなりまして、申し訳ございません。 年度末、年度始めでバタバタしていまして、やっとしっかり時間を取れるようになりました。 いただいたURLで、 https://www.nslabs.jp/raid1-convert.rhtml /dev/sdb が 読み書き可能な状態にオープンできません。と出て、容量も300MBもない状態なので、新しく追加したHDDではないかなと思っています。 /dev/sdb を指定できない場合はどうしたらよろしいでしょうか。 また、私の知識では教えていただいた内容も難しく、もう少し詳しく教えていただけましたら大変ありがたく思います。 よろしくお願いいたします。

関連するQ&A

  • ≪linux≫RAIDの状態確認

    お世話になります。 Linux(CentOS5.3)でRAID1を組んでおります。 RAIDは問題なく動作している(HDDを抜去しても正常にアクセス可を確認済)のですが、 CUI上で状態確認する方法がよくわからなくて困っています。 「/proc/mdstat」を見ると良との情報があったので確認しましたが、予想とは違う結果が表示されます。 ■cat/proc/mdstat結果 ======================================= Personalities : [raid1] md43 : active raid1 sdb5[1] sdc5[0] 141604800 blocks [2/2] [UU] unused devices: <none> ======================================= ↑こういう感じになる予定が、 ↓こうなります。 ======================================= Personalities : unused devices: <none> ======================================= ユーティリティ無しのRAIDカードを使用しており、状態確認方法が無く辛い状況です。 「この状況下でのRAIDの状態確認方法」もしくは「cat/proc/mdstat表示結果を正常に表示する方法」について どなたかご存知の方がいましたら教えて頂きたく思います。 宜しくお願いいたします。 使用OS:centOS5.3 RAIDカード:SATARAID5-LPPCI

  • 再起動時にRAIDの設定が消える

    linux(opensuse 11.1)にて「HDDを2台追加してRAID 1を構成するには(http://www.atmarkit.co.jp/flinux/rensai/linuxtips/a060raid1.html)」を参考にRAID1を作ろうと思っています。 新規にハードディスクを二枚用意し、上記URLの内容に従って作業を勧めました。 mdadm --create ... の後RAIDの同期が正常に始まりますが、/etc/fstabの設定をした後再起動を行うと、md0の設定が消えており、/proc/mdstatを見ても $cat /proc/mdstat Personalities : unused devices: <none> の様になってしまい、手詰りの状態です。 環境は以下の通りです。よろしくお願いします。 OS:Linux(opensuse 11.1) HDD:新規にHITACHI HDT721010SLA360*2 をSATAで接続 ->/dev/sdb /dev/sdc として正常に認識 M/B:GIGABYTE GA-K8VM800M

  • raid1で不良セクタがあると高負荷になるのを回避したい

    ソフトウェアRAID(md)でRAID1を構築しているのですが、片方のHDDに不良セクタが発生するとそこにアクセスがあった時点で高負荷な状態(load average 10以上)になってしまいコンソールやSSHでアクセスできなくなってしまいます。こうなるといつも電源ボタンを長押ししてシステムを強制終了させ、再度システムを起動させた後で不良セクタがあるHDDを切り離しています。 このように不良セクタがあると高負荷な状態になるのはソフトウェアRAIDではしょうがないことなのでしょうか?それとも私の設定が何か間違っているのでしょうか? 高負荷を回避する方法等ありましたらご教示頂ければ幸いです。 宜しくお願い致します。 以下、RAID構成と、不良セクタが発生した時に採取したmessagesログの一部です。 <RAID構成> # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb1[1] sda1[0] 104320 blocks [2/2] [UU] md2 : active raid1 sdb3[1] sda3[0] 4192896 blocks [2/2] [UU] md3 : active raid1 sdb5[1] sda5[0] 432887360 blocks [2/2] [UU] md1 : active raid1 sdb2[1] sda2[0] 51199040 blocks [2/2] [UU] unused devices: <none> <messagesログ> ※高負荷な状態が発生した後、/var/log/messagesを確認すると以下のようなログが記録されていますので問題があるHDD(以下の場合sdb)を交換しています。 Jan 13 14:08:12 MYHOST kernel: res 51/40:80:ac:f9:ff/40:00:27:00:00/e7 Emask 0x9 (media error) Jan 13 14:08:12 MYHOST kernel: ata2.00: error: { UNC } Jan 13 14:08:12 MYHOST kernel: res 51/40:80:ac:f9:ff/40:00:27:00:00/e7 Emask 0x9 (media error) Jan 13 14:08:12 MYHOST kernel: ata2.00: error: { UNC } Jan 13 14:08:12 MYHOST kernel: sd 1:0:0:0: SCSI error: return code = 0x08000002 Jan 13 14:08:12 MYHOST kernel: Add. Sense: Unrecovered read error - auto reallocate failed Jan 13 14:08:12 MYHOST kernel: end_request: I/O error, dev sdb, sector 671087020

  • RAID6の構成

    RAID6の構成 玄箱T4でWD20EARS (2TB SATA300)×4のRAID6を構成しようと http://d.hatena.ne.jp/wl_izumi/20100227/p1 http://tm86eublog.blog42.fc2.com/blog-entry-250.html こちらのURLを参考にしながらRAID6を構成しました. Filesystem Size Used Avail Use% Mounted on /dev/sda2 4.7G 740M 3.8G 17% / tmpfs 62M 0 62M 0% /lib/init/rw udev 10M 2.6M 7.5M 26% /dev tmpfs 62M 0 62M 0% /dev/shm /dev/sda1 473M 144M 305M 33% /boot /dev/md0 3.6T 197M 3.4T 1% /home/datas /dev/md0 が3.6Tと認識されており, さらに書き込み,読み込みが可能なので成功しているとは思うのですが, # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid6 sda4[0] sdd4[3] sdc4[2] sdb4[1] 3892028928 blocks level 6, 64k chunk, algorithm 2 [4/4] [UUUU] [>....................] resync = 2.3% (46451840/1946014464) finish=4956.2min speed=6387K/sec と表示され,さらに図のように点滅しています.(ACCESSの列の1,2,3,4です.) #一度,シャットダウンしており,その前から点滅しているかどうかはわかりません. この点滅はなにかしらの処理が2.3%しか終了していないのが原因だと思うのですが, cat /proc/mdstat の情報はなにを示しているのでしょうか? まだ,RAIDが構成されていないということでしょうか? 一度,シャットダウンしてしまっているので何かエラーが発生しそうで不安です. よろしくおねがいします.

  • Raid0上のNTFSをLinuxにマウント?

    2つのHDDにRaid(ストライピング)ボリュームを2つ作成、 Raidボリューム0にWindows7(64bit)とCentos6をインストール(デュアルブート)、 Raidボリューム1をデータ用に、NTFSで1つのパーテーションにフォーマットしました。 (RaidボリュームはOS上ではなく、PC起動時のCtrl+iの画面で作成。) WindowsまたはCentosのどちらからも データ用のNTFSパーテーションにアクセスしたいのですが CentosからNTFSパーテーションをマウント出来ません。 CentosでNTFSパーテーションを作成すると /dev にmd127p1というファイルができます。 # mount -t ntfs /dev/md127p1 /mnt/win とするとマウントできて、Windows上からでもアクセスできますが、 再度Centosを起動すると、/dev/md127p1がなくなり、マウントできなくなります。 WindowsでNTFSパーテーションを作成した場合、 ファイルはmd127p2になりますが、/devには出てきません。 再起動してもマウントできるようにするには どのようにすればよいのでしょうか? よろしくお願いいたします。 構成 M/B ASUS P8Z68-V PRO HDD 0S03191 [2TB SATA600 7200]  2台 # uname -r 2.6.32-71.el6.x86_64 # cat /proc/mdstat Personalities : [raid0] md127 : active raid0 sda[1] sdb[0] 2097177600 blocks super external:/md0/1 128k chunks md126 : active raid0 sda[1] sdb[0] 1809842176 blocks super external:/md0/0 128k chunks md0 : inactive sda[1](S) sdb[0](S) 4514 blocks super external:imsm unused devices: <none>

  • DELL PowerEdge(Linux)でRAID動作状況の確認方法

    PowerEdge2400のRAID使用状況を確認したいと思っています。 (RAID機能が動いているのか否か) OSはUbuntu8.04.1が動いています。 現在3枚のディスクが挿入されており、全て動作しています。 (左端の緑LEDが点灯しています。) こういうサーバ機というのは、何もしなくてもRAID(5?)が動作しているのでしょうか?設定をしないといけないのでしょうか? でも、DELLのサイトで見てみると、 「RAIDを機能させるためには別途アクティベーションキットが必要です。」 とあるので、なにかしらのソフトウェアが必要なんだろうとは思います。 導入時の担当者が誰もいないので、状況がわからないのですが、 コマンド等で状況を確認する方法はありますでしょうか? また、RAIDが動作していない場合は動作させたいのですが、 お金はかけられないため、アクティベーションキットが無い場合は、 できないでしょうか?(ディスクは3枚あるのに。) いくつか、関係しそうなコマンドを以下に。 /proc/mdstat の内容:  Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]  unused devices: <none> dfコマンドの結果:  Filesystem 1K-blocks Used Available Use% Mounted on  /dev/sda1 51400660 9740188 39069996 20% /  varrun 257748 1380 256368 1% /var/run  varlock 257748 0 257748 0% /var/lock  udev 257748 56 257692 1% /dev  devshm 257748 0 257748 0% /dev/shm /etc/mdadm/mdadm.confの内容(コメント除く):  DEVICE partitions  CREATE owner=root group=disk mode=0660 auto=yes  HOMEHOST <system>  MAILADDR root 以上、よろしくお願いいたします。

  • Linux ソフトウェエア Raid0のディスク増設

    Linux ソフトウェエア Raid0のディスク増設 Debian lennyのサーバに1TBのHDD2台を設置し、mdadmを使ってRaid0を構築 md3としてデータ用のディスクとして使用しています。 さらにディスク容量を増やしたいので、1TBを2台追加したいのですが # mdadm /dev/md3 --add /dev/sdc1 このようなコマンドで追加できるかと思ったのですが mdadm: add new device failed for /dev/sdc1 as 2: Invalid argument このようなエラーが出てaddが完了しません。 Raid0の場合、Arrayにディスクを追加できないのでしょうか?

  • Fedora 20 のマシンに、新たに Windo

    RAIDで構築してある Fedora 20 のマシンに、新たに Windows 7 をインストールする事にしました。 Windows を後からインストールすると MBR が書き換えられ Fedora が起動できなくなるようなので、以下のような手順で 作業しようと計画しています。 以下の作業手順で問題になりそうな所や、不足している所、 余分な所がありましたら、ご指摘いただければ幸いです。 構成 RAIDデバイス  実デバイス   マウントポイント RAID1-boot sda5,sdb5 /boot RAID1-system sda2,sdb2 / RAID1-swap sda3,sdb3 swap RAID1-home sda1,sdb1 /home RAID1-VirtualBox sda6,sdb6 /VirtualBox なし sda7 Android-x86 作業手順 1. /VirtualBox を非RAID化し、/dev/sdb6 を /VirtualBox  として使用し、/dev/sda6 に Windows 7 をインストールする 2. /boot のディスクイメージをバックアップする 例 dd if=/dev/md/RAID1-boot of=/mnt/usb/grub-bup/fedora-boot.img bs=512 count=1 3. /boot を非RAID化する 例   umount /dev/md/RAID1-boot vi /etc/fstab で /boot 部分をコメントアウトする mdadm --misc --stop /dev/md/RAID1-boot mdadm /dev/md/RAID1-boot -r /dev/sda5 -r /dev/sdb5 mdadm --misc --zero-superblock /dev/sda5 /dev/sdb5 4. /dev/sda6 の領域を fdisk コマンドで解放する 5.念の為 /dev/sdb の HDD の電源を切っておく 6. 空いた領域に Windows 7 をインストールする 4の作業で /dev/sda7 が /dev/sda6 になるので /dev/sda7 に  インストールされる??? 7.Windos 7 の正常起動を確認する。 8. /dev/sdb の電源も入れて Fedora Live CD で起動する。 9. USBメモリにバックアップしたディスクイメージを書き戻す。  例 dd if=/mnt/usb/grub-bup/fedora-boot.img of=/dev/sda5 bs=512 count=1 dd if=/mnt/usb/grub-bup/fedora-boot.img of=/dev/sdb5 bs=512 count=1 10.HDD から Fedora を起動する。 11. /boot をRAID化する。  例 mdadm /dev/md/RAID1-boot --add /dev/sda5 --add /dev/sdb5 12. /dev/md/RAID1-boot の UUID が変わっているか確認して    /etc/fstab を編集する。(現状 UUID で記述しているためです) 12.grub2-mkconfig で /boot/grub2/grub.cfg を再作成する。 作業手順 9 辺りから、かなり不安で何度も頭で演習して 80% 位こんな物かと 思っています。 11 で add する前に、もう一度 create する必要はない??? Fedora Live CD から起動して、RAID化されているディスクに直接書き込めれば いいのですが、やり方がわかりません。 そのため、一度非RAID化しております。 最悪 Fedora を再インストールしてバックアップから戻して復旧するという 事も視野に入れていますが、できれば短時間で済ませたいです。 識者のご助言を頂ければ幸いです。

  • RAID無しの状態から、ソフトウェアRAID1 に移行したい

    hdd2台を積んだサーバがあります。 /devをみると、sda,sdb とありますので、SCSIのディスクが2台あり sdbは全く使用していません。 現在、sdaだけを使用しており、RAIDは使っていません このsdbを使ってRAID 1を構築したいです。 sdaとsdbは同じ容量です。 OSはFedora3です(もう、ずいぶん古いですね。) これをソフトウェアRAIDで RAID1 にしたいのですが、何かよい方法ありますか? 一部だけでも、ご返答戴ければ助かります。 宜しくお願い致します。 ■■実現したいこと 一方のドライブが生きている限りは(ブートを含む)全ての動作が可能であること。 ■■聞きたいこと1 ・ブート時は /bootファイルシステムが読み込めなくてはイケないと思うのですが ソフトウェアRAIDでも、RAIDデバイス上に /boot を置くことはできますか? ・/boot以外の残りは / ファイルシステムだけです。 '/'はLVM上に構築されているのですが、今からでも LVMをミラーリング できますか? ・(OSの再インストール等はせずに)今からでも、RAID-1にできますか? ■■聞きたいこと2 作業の実施前にバックアップを取りたいです。 boot用のフロッピーをあらかじめ作った上で 例えば、外付けのusbドライブを /media/usbなどに適当にマウントして 以下のようにバックアップ、復旧できますか? (ddを一度も使ったことないので、使い方に自信がありません。) バックアップ時 dd if=/dev/sda of=/media/usb/backup.dat 復旧時はフロッピーからboot dd if=/media/usb/backup.dat of=/dev/sda =========以下、参考情報================= ■# df の結果 ------------------------- Filesystem 1K-ブロック 使用 使用可 使用% マウント位置 /dev/mapper/VolGroup00-LogVol00 74529904 39783780 30899164 57% / /dev/sda1 101086 22874 72993 24% /boot /dev/shm 257756 0 257756 0% /dev/shm ------------------------- ■# sfdisk -sl の結果 ------------------------- /dev/sda: 78150744 ディスク /dev/sda: シリンダ数 9729、ヘッド数 255、63 セクタ/トラック ユニット = 8225280 バイトのシリンダ、1024 バイトのブロック、0 から数えます Device Boot Start End #cyls #blocks Id System /dev/sda1 * 0+ 12 13- 104391 83 Linux /dev/sda2 13 9728 9716 78043770 8e Linux LVM /dev/sda3 0 - 0 0 0 空 /dev/sda4 0 - 0 0 0 空 ------------------------- /dev/sdb: 78150744 ディスク /dev/sdb: シリンダ数 9729、ヘッド数 255、63 セクタ/トラック ユニット = 8225280 バイトのシリンダ、1024 バイトのブロック、0 から数えます Device Boot Start End #cyls #blocks Id System /dev/sdb1 0 - 0 0 0 空 /dev/sdb2 0 - 0 0 0 空 /dev/sdb3 0 - 0 0 0 空 /dev/sdb4 0 - 0 0 0 空 ------------------------- /dev/dm-0: 76939264 ディスク /dev/dm-0: シリンダ数 0、ヘッド数 0、0 セクタ/トラック sfdisk: エラー: セクタ 0 には msdos サインがありません /dev/dm-0: unrecognized partition table type パーティションが見つかりません ------------------------- /dev/dm-1: 1048576 ディスク /dev/dm-1: シリンダ数 0、ヘッド数 0、0 セクタ/トラック sfdisk: エラー: セクタ 0 には msdos サインがありません /dev/dm-1: unrecognized partition table type パーティションが見つかりません total: 234289328 blocks

  • CENTOS5のHDDマウント

    恐れいります。 SATAのHDD2基搭載したマシンで(非RAID)で、 sda1(OS)とsdb1(主にデーター)で別々につかってました。 このだび、OSが壊れたためsda1へ再インストールしました。  mount /dev/sdb1 /media/ でマウントできなく fdisk /dev/sdb p デバイス Boot Start End Blocks Id System /dev/sdb1 * 1 60801 488384001 83 Linux ではsdb1として見えているようなのですが、 データーを残したままマウントする方法を どなたかおちえをお貸しください。