• ベストアンサー

URLを指定して画像収集するソフト

 こんにちは。よくメールマガジンなどで、画像のURLが何件か羅列して紹介してあることがありますよね。それらのURL全てをコピーなどして、一度にダウンロード出来るソフトはないでしょうか?  一つのアドレスから階層を指定してダウンロードするソフトはあるのですが、上記のようなソフトが見つからないので、教えて下さい。よろしくお願いします。

質問者が選んだベストアンサー

  • ベストアンサー
  • heto2
  • ベストアンサー率43% (227/525)
回答No.1
miso-03
質問者

お礼

アドバイス、どうもありがとうございました。 まさに「こんなソフトが欲しかった」です! 早速使用しています。

その他の回答 (1)

noname#7522
noname#7522
回答No.2

Iria、Irvine、FlashGet、Regetなどのダウンローダがその手の画像収集に対応しています。 ダウンローダ以外にも WeBox http://www-nishio.ise.eng.osaka-u.ac.jp/~nakamura/webox/ では、URLが記述してある部分を反転して右クリックから「WeBoxで選択箇所とリンクを取り込む」を使用すると上記のダウンローダよりもずいぶんお手軽に画像を集めることができます。 ただ、集めた画像を階層構造をつけて管理することを考えるとFlashGetがオススメかな。 http://www.hinocatv.ne.jp/~s_h_r/pc/flashget.htm

参考URL:
http://www-nishio.ise.eng.osaka-u.ac.jp/~nakamura/webox/,http://www.hinocatv.ne.jp/~s_h_r/pc/flashget.htm
miso-03
質問者

お礼

お礼が遅れて大変申し訳ありません。ご回答、どうもありがとうございました。 沢山のソフトを紹介して頂き、これらを実際に使ってみて、これから自分にあったソフトを見つけていこうと思います。

関連するQ&A

  • URLを収集してくれるソフトを探しています

    入力したHPのアドレスからリンクをたどって 指定した動画や画像などのURLを取得するソフトを探しています。 目的のファイルのリンク集を作成してくれるようなものはないでしょうか? 画像を収集してくるソフトはあるようですが、 URLを取得して後、FrashGetのようなダウンロードソフトで一括ダウンロード出来れば便利だと考えています。 どなたか、このような機能を持つソフトウェア(フリー・シェア不問)をご存知無いでしょうか?よろしく御願いします。

  • 指定したサイトを一括でダウンロードするソフト

    お世話になります。 指定したURLを一括で 簡単にダウンロードするフリーソフトの件です。 シンプルで使いやすいのはどれでしょうか? URLのリンク先も全て自動(とある階層数まで)で 自動でダウンロードしたいのですが。

  • 指定したURL下のファイルをすべてダウンロードするソフトありますか?

    ホームページをまるまるダウンロードしたいんですが、いくつかダウンロードのソフトを使ってみたものの、URLが記述されていないファイルや、イベントの結果として呼び出されるようなファイルまで落とすことができません。 URLを指定すると、その下位にあるすべてのファイル (ディレクトリも含む) をダウンロードできるソフトがありましたら、紹介してください。有料のソフトでも構いません。

  • 画像のURLをリストで指定して一括ダウンロード

    画像のURLをリストで指定して一括ダウンロードするソフトを探してます。 画像URLデータは、例えばexcelでつくって、csvファイルで吐き出して、それを元にダウンロードするみたいな感じを望んでおります。 ありますでしょうか? 宜しくお願い致します。

  • URLの階層の下だけ見たい!!!

    http://oshiete1.goo.ne.jp/・・・とURLが羅列されていてその階層の下に主にそのHPのコンテンツがサーバーにあります。それだけを見たいのにリンクがやたら貼ってあってとても醜いです。どうやったらそのURLの階層の下のコンテンツだけみれるでしょうか? 私としてはURLを指定してそのURLの下だけDOWNLOADできるツールがあれば保存して後からオフラインで見たいと思ってます。このようなHPダウンロードツールはありませんか?

  • 画像収集ソフト

    画像収集ソフトで指定したサイト内の画像だけ集めてくれて、 それ以外の所からは集めて来ないソフトってありますか? 何個か使ったのですが関係無いサイトまで飛んで拾って来たり。 まだ取り切ってないのに中途半端で停止してしまったりして微妙でした。 多分私の設定が悪かったんだとは思うのですが使いやすい画像収集ソフトを教えてください。 例えば、ヤフオクにある画像を指定して実行すればヤフオクの画像だけ全部拾ってきて、ヤフーショッピングなどからは一切拾って来ない様にして欲しいのです。 ヤフオクはただ思い浮かんだだけですが上記の様な感じで取りこぼし無く収集出来れば助かります。 何かお勧めがありましたら教えてください。 宜しくお願い致します。

  • Webの更新状況がチェックできるソフトは?

    ある大学のWeb更新状況をすべて把握したいと思っています。一番上の階層のURLを指定するだけで、下の階層のURLの更新状況まで一括して調べてくれるソフトはありますか?例えば… http://tokyo.ac.jp を指定すれば… http://tokyo.ac.jp/gakubu.html http://tokyo.ac.jp/gakubu/test.html http://tokyo.ac.jp/jyuken.html など、すべての階層の更新状況を把握できる、というものです。 Web巡回・ダウンロードソフトなどでは、上記のような機能はあるようですが、更新状況が分からないので、目的に合いません。 できれば、更新時間順にURLや更新部分が並んでくれるようだととてもうれしいです(イメージはRSS表示、もしくははてなアンテナなど)。 とにかく一つひとつURLを入力しなくてよいものであれば、とりあえずOKです。

  • wgetで指定したURLの背景画像等の取得方法

    wgetを使ってファイルの階層構造を保ったまま、 指定したURLの関連ファイルだけ保存したいのですが CSSで指定された背景画像、JSでリンクされてるロールオーバーなどの画像を取得するには コマンドはどう記述したら良いのでしょうか? 保存したいのは、あくまで指定したURLを正常に表示する為に使用されてる関連ファイルだけです。 ちなみにFLASH等で外部ファイル化してるjsや画像も取得できる方法があれば教えていただけますでしょうか。

  • 指定したURLを1分ごとにダウンロードし日付を付加するソフト

    画像なしの単なるページなのですが、 わけあって、1分~5分程度にチェックしなくてはならなくなりました。 最初は、画像キャプチャーしようと思っていたのですが、 かなりのサイズになるので諦めました。 例えば、 指定したURLを1分ごとにダウンロードし、 200601060335.html のような形で保存するソフトまたは、方法をご存知 ないでしょうか?

  • エクセルに書いた画像URLをダウンロードできるソフト

    エクセルに書かれた画像のURLを使って Web上にある画像を自動でダウンロード できるソフトってありますか? 某ショッピングサイトに登録していた 画像が5000点程あり、エクセルにURLで 保存していますが近々削除されるようで 困っています。 自分で探してみましたが見つかりません でした。 よろしくお願いします。

専門家に質問してみよう