• ベストアンサー

特定の条件を満たしたURLのみをリンク追跡しながらダウンロードしたい

http://[あるサイトのURL] から次の条件を満たすURLのリンクのみを 追跡し、ページを一括ダウンロードしたいと思っています。 http://[あるサイトのURL]/[2005~2008]-.[01~12].html ただし、 http://[あるサイトのURL]/[2005~2008]-.[01~12].html?p=1 などのように、うしろに「?p=数字」が続いているものも追跡ダウンロードする。 可能ならばmht形式でダウンロードできればと思っています。 便利なフリーソフトがありましたらどうか教えてください。

質問者が選んだベストアンサー

  • ベストアンサー
  • yamato1957
  • ベストアンサー率24% (2279/9313)
回答No.1

私はこれを使ってます。 http://homepage2.nifty.com/onchin/

msndance
質問者

お礼

わかりました。ありがとうございます

関連するQ&A

  • irvineのリンクURLからのダウンロード

    irvineのリンクURLからの自動ダウンロードする方法を教えてください。 AサイトにはBとCサイトのリンクがあり、BとCサイトにあるファイルをダウンロードしたいです。 このときは、AサイトのURLをどのように指定すればよいのでしょうか?

  • URLに含まれるページの動画へのリンクを一括ダウンロードするソフト

    URLに含まれるページの動画へのリンクを一括ダウンロードするソフトの中で同一ファイル名ならダウンロードしないで無視する事ができるソフトあったら教えてください。 これまで探してきたソフトは同一ファイル名の場合であってもダウンロードをしてしまい上書きしてしまいます

  • DreamweaverでURLを自動でリンク化できないでしょうか?

    Outlook Expressでメールを打つと、それがhtmlメールでも、本文中にURLがあると、それが自動的にリンクに変わりますよね。 そんなふうに、例えばテキストファルから、Dreamweaverで作成中のページにまるごとペーストした文章の中にURLが紛れていたらその部分が自動的にリンクになるようにできないものでしょうか? 例えば、   何かわからないことがあったら、http://okwave.jp/が便利です。    という文を単純にコピーしてDreamweaverで作成中の書類にペーストして保存してアップロードしても、「http://okwave.jp/」の部分はクリックしてサイトに飛べるリンクにはなりませんよね。    要は、テキスト形式で発行しているメルマガを、丸ごとそのままhtmlでバックナンバーページにして公開しているんですが、そのバックナンバーページを作る時、メルマガに入っている何十個ものURLを、本文上でURL部分を選択してからコピーしてはリンク欄にペーストして…という手作業でリンクしており、これが大変なんです。 自動でリンクを張れる方法をご存知の方はいらっしゃらないでしょうか?

  • URLを収集してくれるソフトを探しています

    入力したHPのアドレスからリンクをたどって 指定した動画や画像などのURLを取得するソフトを探しています。 目的のファイルのリンク集を作成してくれるようなものはないでしょうか? 画像を収集してくるソフトはあるようですが、 URLを取得して後、FrashGetのようなダウンロードソフトで一括ダウンロード出来れば便利だと考えています。 どなたか、このような機能を持つソフトウェア(フリー・シェア不問)をご存知無いでしょうか?よろしく御願いします。

  • 特定のサイトの全画像一括ダウンロード

    特定のサイトにある画像全てを解析してリスト化し、一括でダウンロードできるフリーソフトってありませんか? 画像一括ダウンロードソフトで調べるとたくさん見つかるんですけど、一体どれを使えばいいのかわかりません。 上記条件を満たしていているフリーソフトは、果たしてあるのでしょうか。

  • 【被リンクのリスト:Yahoo】特定のURLへリンクしているURL情報の取得について

    はじめまして。 私が管理しているサイトの被リンク数が約2600件あります。 この被リンク元のURLを一括でCSVやテキストファイルに取得できる 方法をご存知の方はいらっしゃいますか? 出来ればYahooベースの結果を取得できる方法があれば助かります。 数が多いため、検索コマンドのlink:urlで表示した結果を手動でデ ータに起こすのは作業時間がかかり過ぎるためあきらめています。 Yahoo Site Explorerの機能も見たのですが、上限が1000件のため ダウンロードしたtsvファイルでは、全ての情報を取得することが 出来ませんでした。 解決方法をご存知の方がいらっしゃいましたら、なにとぞご教授 頂けますと幸いです。 以上、よろしくお願いします。

  • リンク先の埋め込み画像を一括ダウンロードすることはできるのでしょうか

    リンク先の画像を一括ダウンロード、又は今見ているページの埋め込み画像を一括ダウンロードすることのできるソフトはあるのですが、たくさんあるリンク先のそれぞれ埋め込み画像を一括ダウンロードできるソフトはないのでしょうか もしあればお願いします

  • リンクされていない、ネット上に存在するURLを探す方法

    リンクされていない、ネット上に存在するURLを探す方法 こうしたケースにて、そのアドレスを探したり、 ダウンロードすることは不可能でしょうか。 例) abc.com というドメインにて、どこのページからもリンクされてないけれど、 ネット自体には公開されているようなページ。 つまり、 abc.com/abc.html というページで、URLを知っている人だけはアクセスをしているけれど どこからもリンクはされていないので、検索サイトにも載っていないけれど ネット上に存在しているページです。 URLが分からなくなり、いくつか思いつきで入力してみましたが 管理者に尋ねることなく、URLを見つけることができると一番ありがたいのです。

  • Irvineで特定URLの取得方法

    Irvineでリンクを追跡して取得し、必要URLだけをダウンロードしたいのですが うまくいきません。 アドレス http://サイト.com ダウンロードしたいURL http://サイト.com?a=01 ダウンロードしたくないURL http://サイト.com?b=02 http://サイト.com?c=03 http://サイト.com?d=04 http://サイト.com?b=02&c=03 http://サイト.com?d=04&b=02 http://サイト.com?d=04&c=03&b=02 以下たくさんあります。 postで順不動で発生します。 フィリタ設定で所得しないURLの設定はうまくいくのですが 所得したい設定の仕方がわかりません。 お手数かけますが基本的な設定をを教えてもらえないでしょうか? よろしくお願いいたします。

  • URL収集を簡単に行なってリンク集作成がしたい

    あちこちのホームページから役立つリンクを集めて、 一覧表形式もしくはリスト形式のリンク集にしたいと思っています。 この際の作業として、 なるべく効率良く集めて編集したいので 対象のホームページで「リンク」になっている部分から 出来れば  ドラッグ&ドロップ 最低でも  コピー&ペースト 程度の手間で、 ・リンクのタイトル ・リンクのURL(http://・・・ を取得して来て、ワンタッチで 貼り付け先(ペースト先/ドロップ先)に リンクのタイトル と ”クリッカブルなURL”つまり <A HREF=”目的URL”>目的URL</A> が並んだようなリンク集を自分のPC上に 生成させられないだろうか?と思っています。 ショートカットのコピーを沢山どこかのフォルダに集めて あとで一括HTML変換してリンク集にするという 感じの作業の流れよりも、 URLを取得して来て貼り付ける(ドロップする)と その都度、その場で、書き込まれて行くというのが望ましいです。 何らかのソフトが必要でしょうが なるべくフリーソフトか、誰も持ってそうな汎用ソフトで 解決したいです。 それがどうしてもダメなら URL収集ソフト(か何か)の御紹介でも良いです。 実はWORDへドラッグ&ドロップすれば、”クリッカブルなURL”は 簡単に生成します。 が、しかし・・・ ソースを見ると、WORDが余計な「タグ」を色々くっつけた 重たくややこしいHTMLになってて 使う気がしません。 何か良い手を教えていただければ嬉しいです。 よろしくお願いいたします。

    • ベストアンサー
    • HTML

専門家に質問してみよう