virdmanのプロフィール

@virdman virdman
ありがとう数7
質問数1
回答数20
ベストアンサー数
9
ベストアンサー率
81%
お礼率
100%

Linux系OSカテゴリの住人です。 RHEL, CentOS 中心に、分かる範囲で回答します。

  • 登録日2011/08/01
  • LVMでHDDが壊れた時の対応

    LVM(Logical Volume Manager)で複数の外付HDDを束ねて、 データのバックアップ用に使用しようと考えています。 そこで質問なのですが、どれか一つのHDDが壊れた場合、全体が利用できなくなりますか? それとも壊れたHDDに含まれるデータだけ利用できなくなりますか? # ググってみたんですけど、壊れそうになったら交換できるよって情報ばかりで、 # 実際に壊れたらどうなるのかの情報が見つけれれませんでした。

  • Bonding Active-backup設定

    RHEL6.5 kernel2.6.32-431.el6.x86_64 上記サーバにてネットワークのBONDING設定を行おうと思っております。 現象としましてはサーバに物理NICが2口あり(eth0,eth1)、2口を同じ馬鹿ハブに刺し、同じハブにぶら下げた適当なターゲットにping通信を行ったところ ・両方刺している時→通信OK ・eth0のみ刺さっている時→通信OK ・eth1のみ刺さっている時→通信NG という現象がでました。なぜ本現象が発生するのかお分かりになる方いらっしゃいますでしょうか? 監視状態を見る感じですと問題なく動いてるようにも見えるのですが・・・馬鹿ハブだと動かないものなのでしょうか? ↓下記設定ファイル↓ * /etc/modprobe.d/bond0.conf alias bond0 bondig * /etc/sysconfig/network-scripts/ifcfg-bond0 DEVICE=bond0 IPADDR=任意 NETMASK=任意 GATEWAY=任意 ONBOOT=yes BOOTPROTO=none BONDING_OPTS="mode=1 primary=eth0 miimon=100 updelay=500" DNS1=任意 DNS2=任意 * /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE=eth0 MASTER=bond0 SLAVE=yes BOOTPROTO=none TYPE=Ethernet ONBOOT=yes * /etc/sysconfig/network-scripts/ifcfg-eth1 DEVICE=eth1 MASTER=bond0 SLAVE=yes BOOTPROTO=none TYPE=Ethernet ONBOOT=yes ・動作確認 * cat /proc/net/bonding/bond0 ・NIC両方にさした場合→通信OK Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: fault-tolerance (active-backup) Primary Slave: eth0 (primary_reselect always) Currently Active Slave: eth0 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 500 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Speed: 100 Mbps Duplex: full Link Failure Count: 2 Permanent HW addr: 74:d4:35:48:b5:e8 Slave queue ID: 0 Slave Interface: eth1 MII Status: up Speed: 100 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 74:d4:35:48:b5:e9 Slave queue ID: 0 ・eth0を抜きeth1を刺した状態→通信NG Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: fault-tolerance (active-backup) Primary Slave: eth0 (primary_reselect always) Currently Active Slave: eth1 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 500 Down Delay (ms): 0 Slave Interface: eth0 MII Status: down Speed: Unknown Duplex: Unknown Link Failure Count: 2 Permanent HW addr: 74:d4:35:48:b5:e8 Slave queue ID: 0 Slave Interface: eth1 MII Status: up Speed: 100 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 74:d4:35:48:b5:e9 Slave queue ID: 0 ・eth0を刺しeth1を抜いた状態→通信OK Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: fault-tolerance (active-backup) Primary Slave: eth0 (primary_reselect always) Currently Active Slave: eth0 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 500 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Speed: 100 Mbps Duplex: full Link Failure Count: 2 Permanent HW addr: 74:d4:35:48:b5:e8 Slave queue ID: 0 Slave Interface: eth1 MII Status: down Speed: Unknown Duplex: Unknown Link Failure Count: 2 Permanent HW addr: 74:d4:35:48:b5:e9 Slave queue ID: 0

  • CentOS ネットワーク設定で困っています

     CentOSのネットワークの設定にミスがあるようで、写真の様に 「BROADCAST」は「UP」していますが、「RUNNING」の表示がなく、インターフェイスドライバのI/O開始アドレス等も表示されません。  原因を色々と自分なりに探してみますと、ドライバが入っていないか、認識していない事に問題があるようですが、詳しくは分かりませんでした。 どなたかこの問題のヒントか解決策を教えていただけないでしょうか? よろしくお願いします。

  • 仮想化上でホストのDVDを使う方法を教えてください

    CentOS 6 を利用してKVMで仮想化しました。 仮想マシンのインストールは完了しましたが、DVDから別のパッケージを 仮想マシンにインストールしたいのですが、仮想マシン上からホストのDVD の利用方法がわかりません。マウントしようとしても、仮想マシンではなく、 ホスト上のDVDのためマウントできません。 どうすれば 良いのでしょうか?

  • 久々にFedora再起動かけたら起動しなくなった!

    Fedora10を久々に再起動したら、起動しなくなりました!! 作業をしていて、/tmpにファイルを置こうとしたら、 入力/出力エラーです。 のようなメッセージが出て失敗しました。 ひとまず困ったときの再起動ということで、再起動をかけたところ、再び起動することはありませんでした。 /tmpにいきなり書けなくなったのも疑問ですし、そのことと関係があるのかどうかも疑問ですが、Fedoraが起動してくれず、かなり青ざめています! PCの電源を入れるとバーがどんどん伸びていくのですが、バーが7分目ぐらいのところでテキスト画面になり、 次のような文字列が繰り返し表示されて、いつまで待ってもログイン画面にならない状態です! ty_t:s0 tcontext=system_u:object_r:tmpfs_t:s0 tclass=chr_file type=1400 audit(1317593834.218:1233): avc: denied { read write } for pid=864 comm="mingetty" path="/dev/null" dev=tmpfs ino=331 scontext=system_u:system_r:ge tty_t:s0 tcontext=system_u:object_r:tmpfs_t:s0 tclass=chr_file type=1400 audit(1317593974.365:1690): avc: denied { read write } for pid=972 comm="mingetty" path="/dev/null" dev=tmpfs ino=331 scontext=system_u:system_r:g etty_t:s0 tcontext=system_u:object_r:tmpfs_t:s0 tclass=chr_file type=1400 audit(1317594054.442:2051): avc: denied { read } for pid=1056 comm= "mingetty" name="localtime" dev=sda3 ino=1368122 scontext=system_u:system_r:gett y_t:s0 tcontext=system_u:object_r:file_t:s0 tclass=file init: tty2 main process (1159) terminated with status 1 init: tty2 main process ended, respawning type=1400 audit(1317594184.606:2700): avc: denied { read write } for pid=1225 comm="mingetty" path="/dev/null" dev=tmpfs ino=331 scontext=system_u:system_r:g etty_t:s0 tcontext=system_u:object_r:tmpfs_t:s0 tclass=chr_file type=1400 audit(1317594304.722:3253): avc: denied { read write } for pid=1363 comm="mingetty" path="/dev/null" dev=tmpfs ino=331 scontext=system_u:system_r:g etty_t:s0 tcontext=system_u:object_r:tmpfs_t:s0 tclass=chr_file init: tty3 main process (1442) terminated with status 1 init: tty3 main process ended, respawning init: tty1 main process (1479) terminated with status 1 init: tty1 main process ended, respawning init: tty6 main process (1516) terminated with status 1 init: tty6 main process ended, respawning 手で打ったので誤記があるかもしれませんが、雰囲気としてはこんな感じです! いくつかの部分の数字は、表示が切り替わるたびに、どんどん増えているようです。 いつまでたってもログイン画面に行き着かないのでトラブルシューティングすら出来ない状況です・・・ これはいったい、どう対処すればいいのでしょうか。