- ベストアンサー
指定したURL下のファイルをすべてダウンロードするソフトありますか?
ホームページをまるまるダウンロードしたいんですが、いくつかダウンロードのソフトを使ってみたものの、URLが記述されていないファイルや、イベントの結果として呼び出されるようなファイルまで落とすことができません。 URLを指定すると、その下位にあるすべてのファイル (ディレクトリも含む) をダウンロードできるソフトがありましたら、紹介してください。有料のソフトでも構いません。
- ugly
- お礼率87% (14/16)
- フリーウェア・フリーソフト
- 回答数5
- ありがとう数5
- みんなの回答 (5)
- 専門家の回答
質問者が選んだベストアンサー
過去に別の場所で同様の質問があった時、色々な回答がありましたがまとめれば以下のような内容でした。ご参考まで。 「真っ当なダウンロードソフト」ではそういった機能を持つものはまず無いと思います。 サーバーに何と言う名前のファイルがあるかを見たりファイルをダウンロードしたりするためには、FTPでログインする等の「権限」を持っている必要があります。そして普通はその権限は管理者にしか与えられません。 ※何らかの方法を使用して「権限」を得て無理矢理ログインすると不正アクセス禁止法にひっかかりますので止めておきましょう。 権限が必要なく簡単にログインできるサーバーもありますけれど、その場合は禁止法にひっかからないと思いますが保証しません。
その他の回答 (4)
「iria」は最近使用してないので詳細を忘れましたが、以下の「ReGet」も同様でしょうか・・・? 設定によっては目的のURLを右クリックすると「ReGetで全てをダウンロード」を選択することで可能ではないでしょうか? 外しているかもしれませんが・・・・? ご参考まで。
お礼
ありがとうございます。 ReGet は使ったことがあるのですが、[ReGet で全てをダウンロード] でもダメでした。
- Ryow
- ベストアンサー率38% (124/325)
下記URLのものは如何でしょう。 私も使わせて頂いていますが中々優秀ですよ。(^^
お礼
ありがとうございます。 PageDown は使ったことがあるのですが、うまくいきませんでした。
インターネットエクスプローラーで、「お気に入り」に登録したのち→そのサイトを右クリック→「オフラインで使用する」は駄目でしょうか。
お礼
そういう機能があることは知ってましたが、実際使ったのははじめてでした。IE だけでも結構いけますね! 今回の件では解決できなかったものの、今後いろいろと役立ちそうです。 ありがとうございます。
補足
質問の仕方が悪かったです。すみません。 やりたいことは、ホームページのまるごと自動取得です。できれば、Web 上では表示されないもののファイルは存在する、ってのまで落としたいです。 自動巡回ソフトや Iria などのダウンローダーでは、記述されたリンクを辿ってダウンロードを行っていると思うのですが、これだと、例えば JavaScript で記述されたリンク先 (マウスが触れると画像を変えたりコンボボックスの選択でページを移動したり...) を自動又は一括して取得することができません。できるのかもしれませんが、少なくともやり方がわかりません。(^_^;) FTP ツールのようにアドレス下のディレクトリやファイルを根こそぎ落とせるようなツールがあれば、と思いまして質問させていただきました。 よろしくお願いします。
- uutotora2
- ベストアンサー率0% (0/2)
はじめまして、uutotora2です。 アイフォーのINTER NET Ninja は 階層制限なしに ダウンロードして オフラインで閲覧できます。 では
補足
ご紹介ありがとうございます。 体験版を使ってみましたが、不慣れなためかうまくいきませんでした。 もうちょっといろいろ試してみますが、やりたいことは ANo.#2 補足の通りですので、もしよろしければインターネットNinja でのやり方を教えてください。 なお、私は web technology の Getweb! というソフトを使っていますが、これでは今のところできない (やり方がわからない) です。
関連するQ&A
- URLを指定して画像収集するソフト
こんにちは。よくメールマガジンなどで、画像のURLが何件か羅列して紹介してあることがありますよね。それらのURL全てをコピーなどして、一度にダウンロード出来るソフトはないでしょうか? 一つのアドレスから階層を指定してダウンロードするソフトはあるのですが、上記のようなソフトが見つからないので、教えて下さい。よろしくお願いします。
- ベストアンサー
- フリーウェア・フリーソフト
- 指定したURLからファイル(PDFなど)をダウンロードして、それをサー
指定したURLからファイル(PDFなど)をダウンロードして、それをサーバー上にアップロードしたいのですが、どのように作ればいいでしょうか。 よろしくお願いします。
- 締切済み
- PHP
- 相対URL指定の記述方法について
相対URL指定の記述方法について。 ファイル自身が存在するディレクトリの場合は"./***.***"と記述するとのことですが、昔習った時には確か"./"など記述しなかったような気がするのですが、この2つの記述方法に何か違いはあるのでしょうか。また、どちらがベターなのでしょうか。
- ベストアンサー
- HTML
- 画像のURLをリストで指定して一括ダウンロード
画像のURLをリストで指定して一括ダウンロードするソフトを探してます。 画像URLデータは、例えばexcelでつくって、csvファイルで吐き出して、それを元にダウンロードするみたいな感じを望んでおります。 ありますでしょうか? 宜しくお願い致します。
- ベストアンサー
- 画像・動画・音楽編集
- URL下をdirコマンドのように見たい
URLを指定すると、そのURL下のすべてのファイル、ディレクトリを表示してくれるフリーソフトを教えてください。(windows98用でサイズ小さいの)
- 締切済み
- その他(ソフトウェア)
- 指定したサイトを一括でダウンロードするソフト
お世話になります。 指定したURLを一括で 簡単にダウンロードするフリーソフトの件です。 シンプルで使いやすいのはどれでしょうか? URLのリンク先も全て自動(とある階層数まで)で 自動でダウンロードしたいのですが。
- 締切済み
- フリーウェア・フリーソフト
- ファイルのダウンロード保存先の指定をしたい
Eclipseを使ったjavaのプログラムを作成しています。 ファイルをサーバからダウンロードしてきて、それを自分の指定したディレクトリに自動的に保存できるようなプログラムを作成したいのですが、その保存先の指定をする方法が分からず困っています。 ファイルをサーバからダウンロードするということはできるようになりました。今はその保存先はプログラムを作ったそのフォルダに自動的に保存されます。 指定したディレクトリにダウンロードしてきたファイルを保存する方法をお知りでしたら教えてください。 参考になりそうなサイトでもいいのでよろしくお願いします。
- ベストアンサー
- Java
- 日本語URLからの一太郎ファイルのダウンロード
Windows VISTA環境下でIE8を使用しているPCの場合、日本語URLホームページから一太郎ファイルをダウンロードしようとするとダウンロードができません。 Windows VISTA環境下でも、SAFARIを使用していれば、日本語URLホームページからでも一太郎ファイルのダウンロードは可能です。 一太郎ファイルをLZHに圧縮すればIE8でも日本語URLホームページからダウンロードが可能です。 圧縮しない一太郎ファイルでも、ローマ字URLホームページからは、Windows VISTA環境下でIE8を使用してもダウンロードは可能です。 日本語URLホームページからのダウンロードでも、 Windows xP環境下のPCであれば、IE8を使用していてもダウンロードは可能です。 こういう場合、どこに相談すればいいのか分かりません。相談先が分かる方がいらっしゃるとありがたいと思います。
- 締切済み
- Windows Vista
- ◆指定ファイル以外は全て削除
いつもお世話になっています。 カレント以下の指定ファイルは全て削除は以下のような記述でできるのですが。 find . -name '.html' -exec rm {} \; カレント以下の指定ファイル"以外は"全て削除したい場合はどのような記述でしょうか?
- ベストアンサー
- Linux系OS
- ダウンロードしたファイルが全て壊れる・・
以前も質問があったようですが最近ダウンロードしたzipファイルなどが全てCRCエラーで解凍出来ない症状に陥りました。。更にセットアップファイルもダウンロードしたものは全てエラーで起動できません。。ディスクのクリーンアップやウィルスソフトを切っても変わりません!どなたかわかるかたいらっしゃいませんか。。? 突然こんな症状になったので非常に困っています;
- 締切済み
- Windows XP
お礼
やっぱりそうですか。 実は H@ck しちゃる!って考えていたのですが、ご助言を素直に聞き入れ、真っ当にネットを楽しむことにします。 とりあえず JavaScript で書かれたリンク先は、簡単な自作プログラムと組み合わせて Get するようにしました。 どうもありがとうございます。