• ベストアンサー

wget 使い方

http://sourceforge.net/projects/tripwire/files/tripwire-src/tripwire-2.4.2-src/ 例に、このサイトのファイルをダウンロードする場合、wgetで指定するurlはどのように入力すれば良いのでしょうか? wget http://sourceforge.net/projects/tripwire/files/tripwire-src/tripwire-2.4.2-src/ これではダメでした。 回答お待ちしております。

質問者が選んだベストアンサー

  • ベストアンサー
  • kteds
  • ベストアンサー率42% (1876/4427)
回答No.4

> wget http://sourceforge.net/projects/tripwire/files/tripwire-src/tripwire-2.4.2-src/ これではダメでした。 ファイル名を指定してください。 ファイル名 tripwire-2.4.2-src.sums をwgetしたいのであれば wget http://sourceforge.net/projects/tripwire/files/tripwire-src/tripwire-2.4.2-src/tripwire-2.4.2-src.sums ファイル名 tripwire-2.4.2-src.tar.bz2 をwgetしたいのであれば wget http://sourceforge.net/projects/tripwire/files/tripwire-src/tripwire-2.4.2-src/tripwire-2.4.2-src.tar.bz2

noname#204808
質問者

お礼

無事にダウンロードできました。 このように指定してあげれば良かったのですね。 ありがとうございました。

全文を見る
すると、全ての回答が全文表示されます。

その他の回答 (4)

  • kon77
  • ベストアンサー率70% (83/117)
回答No.5

以下のようにしてもダメでしょうか。 wget -O "保存ファイル名.html" "http://sourceforge.net/projects/tripwire/files/tripwire-src/tripwire-2.4.2-src/" 「http://」だけ全角で書かせて頂きましたが、実行する時は半角にして実行して下さい。 「"保存ファイル名.html"」の部分は、相対パスでも、絶対パスでも構いません。

全文を見る
すると、全ての回答が全文表示されます。
  • notnot
  • ベストアンサー率47% (4852/10267)
回答No.3

それで合ってます。 ちゃんとダウンロードできましたよ。ダウンロードファイル名はindex.htmlになります。 やった場合、どんなメッセージが出ますか?

全文を見る
すると、全ての回答が全文表示されます。
  • ya9pon
  • ベストアンサー率34% (88/254)
回答No.2

wget 使い方 でネット検索すればオプションの付け方がわかると思われる。

全文を見る
すると、全ての回答が全文表示されます。
  • vaidurya
  • ベストアンサー率45% (2714/5983)
回答No.1

/記号はWindows,MS-DOSで言うところの\記号に相当し ディレクトリーの区切りを意味します。 これが末尾に来る記述は、ファイルではなくディレクトリーを指定した記述となります。 実際にその名前のディレクトリーが存在するなら そこをウェブブラウザーなどで見て そこにある目的のファイル名を指定します。 普通は、そのファイル表示を右クリックすればリンクURLのコピーが選べます。 複数のファイルを取得する場合は、いくつかのオプションを組み合わせて まとめて指定して取得できる場合もありますが 少数であれば、個別に実行するほうが、かえって手っ取り早いでしょう。 この場合、大量のHTTPコネクションを同時に使うことによって サーバー側から拒否されることもあるので要注意。

全文を見る
すると、全ての回答が全文表示されます。

関連するQ&A

  • wget について

    wgetを使ってホームページをダウンロードし、オフラインで見たい のですが・・・ 普通に ファイルー名前をつけて保存ーwebページ完全保存 とすると画像ファイルがいっぱい入ったファイルとhtmlファイルが保存 されますよね?(閲覧しているページのみ) 一方wgetをつかって wget -r URL と入力すると、フォルダとhtmlファイルはたくさん作られるのですが 画像の入っているファイルがなく、オフラインで見れません なにかオプションがたりないのでしょうか?

  • VISTAでのwgetのタスク登録方法

    wgetで、テキストファイルに羅列したurlのサイトを自動でダウンロードしたいのですが、 XPで使っていたときは、タスクに D:\wget\wget.exe -i url.txt と入力して、うまくいっていました。 しかし、vistaで同じことをしたいのですが、うまくいきません。 D:\wget\wget.exe 引数 -i url.txt としているのですが、間違っているでしょうか? コマンドプロンプトで直接 D:\wget\wget.exe -i url.txt と入力すると、狙い通りの動作をしてくれるのですが、 タスクに登録しても、時間がくると一瞬コマンドプロンプトの画面が映るだけで ダウンロード等せずに終了してしまいます。 どうかアドバイスをお願いします。

  • wgetしたらネットに繋がっていない?

    wgetにてソースをダウンロードしています。 環境としましては、 ルーターの下にWinXPとFedora3があります。 そして、WinXPからPuttyにより操作しております。 今までは書籍に付属してあったCDROMからインストールをしていたため出来ました。 今度はネットからと思い調べたらwgetというのがあり、使ってみようとしたら出来ません。 wget http:・・・・・ ...失敗しました: ホストが見つかりません. となります。 wgetのあとのURLはあっていると思うのですが、やはりネットに繋がっていないと考えるのが妥当でしょうか? 何か原因があれば教えていただけませんか? よろしくお願い致します。

  • wgetで指定したファイルだけダウンロードするには?

    wgetのファイル収集ツールで 指定したファイルだけをダウンロードする方法はどうしたら良いのでしょうか? イメージとしてはこのサイトの http://shupla.w-jp.net/items/wget.html 『3.使い方』 を応用したいのですが、 余計なファイル、ディレクトまでダウンロードしていまい上手くいかないのです。 例えばテキストファイルに http://www.yahoo.co.jp/index.html http://k.yimg.jp/images/top/sp/logo.gif http://k.yimg.jp/images/sh/recommend/84_84_0053.gif こんな感じで書いて、この“3ファイルだけ”を差分ファイルとしてダウンロードしたい場合です。 ちなみに仕様してるOSはWindowsXPです。 ご教示いただきたくお願いいたします。

  • wgetでサイトダウンロード時のトラブル

    サイトまるごとダウンロードしようと思い(自己サーバ、自己コンテンツ) wget -r -l 0 http://example.com しましたが、どうも行儀悪いCMSで書きだされているHTMLらしく <img src=1234 .jpg> のように画像タグ途中に改行が入っており wget は改行も含めたURLに画像を取りに行くためNOT FOUNDなります。 何かしら良い手は無いでしょうか?

  • wgetのオプション

    いつもお世話になります。 wgetを使ってサイトの取得を色々試しています。 例:あるブログを取得。ブログは毎日更新されている。 昨日wgetでブログを取得。今日もブログを取得した場合、更新又は新規ファイルだけを取得したい。 条件で言えば『取得済みのファイルは取得しないが、タイムスタンプが変更している場合は取得する。勿論新規ファイルも取得』 オプションの-nc(取得済みファイルは取得しない)、-N(タイムスタンプを見る)を同時に指定すると以下のエラーが出ます。 「-Nと-ncとを同時には指定できません。」 何か方法はないのでしょうか? 宜しくお願いします。

  • wgetのヴァージョン?

    最近連続でお世話になっております(汗。。) 二以上のURLを指定したファイルを指定しwgetで取得しています。 url.csvには以下のようにurlが改行で記述されています。 ttp://aaa.jp/ ttp://bbb.jp/ ttp://ccc.jp/ 以下のコマンドで成功します。 オプションは(index.htmlを省いたhtmlファイルだけを取得) wget -nc -r -A html -R index.html -i url.csv しかし、違うそれもスペックが高い(cpu、メモリ、しかもデュアルコア)サーバで実行すると1件目はオプション通りにファイル群を取得しますが、2件目以降のurlはindex.htmlだけを取得してしまいます。 ちなみに、wgetのヴァージョンは成功するほうが1.8.2で失敗するほうが1.10.2です(後者のほうがヴァージョンも高いですよね) 何かお気づきの方がいればご教授下さい。

  • wgetのコマンドでは不可能?

    はじめまして、こんにちは。 wgetでpdfをダウンロードしようと試しているのですが、上手くいかず困っている為質問させて頂きます。「ttp://www.***.jp」というサイトの中の「/yuho/」より下のディレクトリにあるpdfファイルをダウンロードしようとしています。 ttp://www.***.jp ↓ ttp://www.***.jp/list/s1000.htm (s1000はs2000,s3000,,,s9000まである) ↓ ttp://www.***.jp/code/1301.htm (1301は1000,1001,,,9999まである) ↓ ttp://www.***.jp/yuho/1301.htm (1301は1000,1001,,,9999まである) ↓ ttp://www.***.jp/mark/20141114/S1003FL5.htm (20141114とS1003FL5はそれぞれ変動、このページにpdfファイルへのリンクがある) 上記の様にリンクが繋がっていて、 ディレクトリ「list」「code」「yuho」「mark」を取得対象とすれば良いのだろうと考え、wgetで -I オプションでディレクトリを list/,code/,yuho/,mark/と指定してみたのですが、上手く働きませんでした。 これはやはり階層構造になっていない為でしょうか? 余計なページのpdfをダウンロードせず、ディレクトリ「yuho」以下の階層にあるpdfをダウンロードする場合はどのようなwgetのコードを書けば良いのでしょうか? wgetでは不可能なのでしょうか? Irvineというダウンローダーで ttp://www.***.jp/yuho/1301.htm の「1301」の部分を1000から9999にして、ダウンロードする拡張子をpdfに指定、階層を2にして実行しましたがこれも失敗でした。 現在も色々調べておりますが、知恵が足りず大変困っております。 こういった分野に造詣が深い方がいらっしゃいましたら、どうかご教授下さい。 宜しくお願い致します。

  • LINUXでCLIからの作業だとWGETが大変

    今までapt-getやyumでインストールをしてきましたが、wgetでファイルをダウンロードしなければならないとき、URLが長かったりすると正確に打ち込むのが大変です。GUIがあればすぐですがCUIだともう… どうしたらコピペなど、簡単に必要なファイルをダウンロードできるのでしょうか?

  • wgetコマンドについて

    今pogoplugをopenpogo化にしようと思いSSH接続をし、作業ディレクトリをtmpに変更したところです。 そこでwgetコマンドを使いメモリをフォーマットするためのソフトをダウンロードしようしとしたのですが、 wget: invalid option -- 'e' BusyBox v1.16.1 (2010-12-01 15:27:23 PST) multi-call binary. Usage: wget [-csq] [-O file] [-Y on/off] [-P DIR] [-U agent] url このようなエラーが出てきます。 解決方法が分かる方いませんか?