• 締切済み

linux RedHat8.0 で wget を使いたいのですが

web データをオフラインでも見れるように,かたっぱしから ダウンロードしたいのですが,現在は wget の使い方が分か らず,手動で落しています. ネットワーク環境が大学内なため,wget にオプションとして どのようなものを付け加えたら良いのかも良く分かりません. どなたか,「wget」を使って html データのダウンロードの やり方について,詳しくご存知の方がいましたら教えて頂け ないでしょうか. よろしくお願い致します.

みんなの回答

  • xjd
  • ベストアンサー率63% (1021/1612)
回答No.2

(補足) 検索してみたら、よさそうなページがありましたので、参考にしてみてください。

参考URL:
http://www.geocities.jp/horiuchimasaru/wget.html#why
starground
質問者

お礼

ありがとうございます。 大変参考になりました。

  • xjd
  • ベストアンサー率63% (1021/1612)
回答No.1

ホームページのミラーサイトを作るのに、 $ wget -m http://www.hogehoge.co.jp/ と実行して、ホームページ全体をローカルにもってきたりします。

関連するQ&A

  • wget について

    wgetを使ってホームページをダウンロードし、オフラインで見たい のですが・・・ 普通に ファイルー名前をつけて保存ーwebページ完全保存 とすると画像ファイルがいっぱい入ったファイルとhtmlファイルが保存 されますよね?(閲覧しているページのみ) 一方wgetをつかって wget -r URL と入力すると、フォルダとhtmlファイルはたくさん作られるのですが 画像の入っているファイルがなく、オフラインで見れません なにかオプションがたりないのでしょうか?

  • wgetしたらネットに繋がっていない?

    wgetにてソースをダウンロードしています。 環境としましては、 ルーターの下にWinXPとFedora3があります。 そして、WinXPからPuttyにより操作しております。 今までは書籍に付属してあったCDROMからインストールをしていたため出来ました。 今度はネットからと思い調べたらwgetというのがあり、使ってみようとしたら出来ません。 wget http:・・・・・ ...失敗しました: ホストが見つかりません. となります。 wgetのあとのURLはあっていると思うのですが、やはりネットに繋がっていないと考えるのが妥当でしょうか? 何か原因があれば教えていただけませんか? よろしくお願い致します。

  • Wget for ipv6

    ご存知でしたら、教えてください。 WinodwsXP環境でwgetコマンド使用できる!!ということまでは 調べられたのですが、特に明記はないようですがipv4しか 対応していないようです。 どうしても。Ipv6上のサイトへwgetを使用したいのですが、 現在、WidnowsXP用のwget for ipv6 は存在するのでしょうか。 ご存知でしたら、教えていただけると助かります。 よろしくお願いいたします。

  • wgetで「にこさうんど」からmp3をダウンロード

    どうかどなたかお助け下さい。 「にこさうんど」(下記アドレス)からwgetを使用してmp3をダウンロードする方法はありますでしょうか? http://nicosound.anyap.info/sound/sm1715919 ダウンロードするための「パソコンへ転送」ボタンは直リンクではなく、 javascriptが動いてCookieを発行して… となっているようなのですが、当方javaの知識が無いためわかりません。 最終的にブラウザは下記アドレスからダウンロードしているようなのですが… cookie等が必要なようです。 http://nicosound2.anyap.info:8080/sound/sm1715919.mp3 wgetによる「--save-cookies=file」「--keep-session-cookies」等のオプションも 試してみましたが使い方が間違っているのか上手くいきません。 最終的にWindows環境でバッチで動作するようにスクリプト化する予定です。 どなたかご回答お願い致します。

  • wgetのコマンドでは不可能?

    はじめまして、こんにちは。 wgetでpdfをダウンロードしようと試しているのですが、上手くいかず困っている為質問させて頂きます。「ttp://www.***.jp」というサイトの中の「/yuho/」より下のディレクトリにあるpdfファイルをダウンロードしようとしています。 ttp://www.***.jp ↓ ttp://www.***.jp/list/s1000.htm (s1000はs2000,s3000,,,s9000まである) ↓ ttp://www.***.jp/code/1301.htm (1301は1000,1001,,,9999まである) ↓ ttp://www.***.jp/yuho/1301.htm (1301は1000,1001,,,9999まである) ↓ ttp://www.***.jp/mark/20141114/S1003FL5.htm (20141114とS1003FL5はそれぞれ変動、このページにpdfファイルへのリンクがある) 上記の様にリンクが繋がっていて、 ディレクトリ「list」「code」「yuho」「mark」を取得対象とすれば良いのだろうと考え、wgetで -I オプションでディレクトリを list/,code/,yuho/,mark/と指定してみたのですが、上手く働きませんでした。 これはやはり階層構造になっていない為でしょうか? 余計なページのpdfをダウンロードせず、ディレクトリ「yuho」以下の階層にあるpdfをダウンロードする場合はどのようなwgetのコードを書けば良いのでしょうか? wgetでは不可能なのでしょうか? Irvineというダウンローダーで ttp://www.***.jp/yuho/1301.htm の「1301」の部分を1000から9999にして、ダウンロードする拡張子をpdfに指定、階層を2にして実行しましたがこれも失敗でした。 現在も色々調べておりますが、知恵が足りず大変困っております。 こういった分野に造詣が深い方がいらっしゃいましたら、どうかご教授下さい。 宜しくお願い致します。

  • Webカタログのダウンロード

    様々な業種がWebカタログに以降しつつありますが、このWebカタログ(Flashコンテンツが含まれるものを含む)をダウンロードする方法はあるのでしょうか? ネット接続が無い環境でオフラインでも閲覧できるようにしたいのです。 どなたかご存知ありませんか?

  • VirtualPC 2007でLINUX(ネットの設定)

    VirtualPC2007にLINUX(FEDORA 6)に インストールしてみたのですが、なぜかインターネットに接続できません。ネットワークのアダプタの設定もちゃんと設定されています。 ご存知でしたら、ご教授いただけませんでしょうか? 環境 OS:XP ネット環境:大学の寄宿舎からの接続 よろしくお願いいたします。

  • LinuxとWindowsXPをクロスケーブルでつなぐ

    LinuxとWindowsXPproをクロスケーブルでつないだのですが、普通は自動的にお互い認識するのでしょうか? 現在、両側からお互いPingが通らない状況です。 Linux側は手動で、eth1に10.0.3.1を割り当てています。Windows側では、こちらも同じく手動でネットワークアダプターのプロパティから10.0.3.2としました。ゲートウェイと、DNSをどのように割り当てるのか、よくわからないのですが10.0.3.1でいいのでしょうか? 両方のサブネットマスクは255.255.255.0です。 方法をご存知の方、また詳しいページなどありましたらよろしくお願いいたします。

  • LinuxのLAN接続

    はじめまして。 社内のネットワーク管理をしている者ですが、Linuxマシンを社内LANに接続しネットをみることができません。社内サーバーは閲覧できるので物理的には接続は正しいと思います。おそらくプロキシ周りだと思うのですが雑誌等にも詳しく書かれていないので大変困っています。 もし分かる方がいればぜひ教えていただきたいと思います。 環境は ・Windowsネットワークで外部とのやりとりにはMS Proxy Serverを使用しています。 ・各Windowsクライアントマシンには MS Proxy Clientをインストールしています。 プロキシ部分にIPマスカレードもしくはNATを 導入すればできるのかもしれないですけど 現在のネットワーク構成のままLAN内部にLinuxマシンを 導入してWebの閲覧をできるようにしたいと思っていますので、詳しい方がいれば是非回答の方よろしくお願い致します。

  • JavaScript実行後ページのダウンロード

    JavaScript実行後のWEBページをダウンロード出来るコマンドを探しています。 WEBページをブラウザで表示すると、wget等のダウンロードコマンドでダウンロードしたHTMLとは内容が異なる場合があると思うのですが、JavaScript実行後のHTMLをダウンロード出来るコマンドはないでしょうか。 もしかしたら私の勘違いで、実はJavaScriptが実行されたからWEBページの内容が異なるのではない場合もあるかと思うのですが、とにかくブラウザで表示されるのと同じ内容のHTMLをダウンロード出来るコマンドを探しているという事です。 どなたかご存知の方がおられましたら、お教え頂けないでしょうか。