- ベストアンサー
Webサイトのダウンロード
Webサイトをまるごとダウンロードして自分のローカルな環境で表示させたいのですが、IEだと、「名前をつけて保存」とすると現在表示しているWeb画面の文字や画像は保存されるのですが、リンク先についてはそのままになってしまいます。 つまりリンク先のデータまでは保存されず、実際にリンク先にアクセスしてしまう。リンク先のpdfとかjpegとかの画像も含めてダウンロードする方法を教えて下さい。 フリーウェアで、NextHTTPとかDS Downloaderとか使ってみましたが、うまく使いこなせませんでした。他に簡単な方法があれば教えて下さい。 よろしくお願いします。
- zicojapan
- お礼率44% (53/119)
- Windows XP
- 回答数2
- ありがとう数0
- みんなの回答 (2)
- 専門家の回答
質問者が選んだベストアンサー
PageDown インターネット上のホームページなどをまとめてダウンロードするオートパイロットソフト。v1.70からフリーソフトになりました。 http://www.vector.co.jp/soft/win95/net/se068515.html どこまでリンク先をたどるか階層を設定でき、リンクも自動的に切り替えられます。ダウンロード時間は軽いサイトでもかなりかかります。デフォルトでpngやjpgへのチェックが入ってないのでそこを手動で追加設定する必要があります。なお、サイトによってはこういったソフトによる一括丸ごとダウンロードを防止する仕組みが取り入れられていることもあり全てのサイトで可能というわけではありません。
その他の回答 (1)
順集とかはいかがでしょうか?
補足
ありがとうございます。 巡集というこのソフト使ってみました。 ところが、エラーログでNo Responseと言われてダウンロードできませんでした。 こういう関連のソフトを数種類試していますが、ことごとくダウンロードできません。これは何かソフトの使い方ではなくて、私のPCの環境に問題があるのでしょうか? 一応、ファイヤーウォールは無効にしてやってるんですけど。。。 他に考えられる事がありましたらご教示下さい。
関連するQ&A
- WebサイトでJpeg、Gif画像をダウンロードさせたい
WebサイトでJpeg、Gif画像をダウンロードさせたい Webサイトで訪問者がリンクをクリックしたときにJpeg、Gifデータをダウンロードできるように したいのですが可能でしょうか? イメージ的にはZipファイルのようにローカルにダウンロード させることを考えています。 ちなみにそのサイトは、ZIPなどの圧縮ファイル、PDFなどは置くことができません。
- ベストアンサー
- HTML
- スクロールのある大きいWeb画面をJPEGかPDFで保存する方法
スクロールのある大きいWeb画面をJPEGかPDFで保存する方法 スクロール付きの大きいWeb画面を画像ファイルに変換 したいのですが、そういったことは出来るのでしょうか? ちなみにwindows XPでInternet Exploerを使っています。 お金はかけられないのでフリーウェアでそんなものないんでしょうか? 詳しい方教えてください。
- ベストアンサー
- Windows XP
- 大きい画像をダウンロード
1ページにjpeg のサムネイル画像がたくさんあってリンク先の大きい画像をダウンロードしたいのですが、どうしたら良いですか。やはり1枚ずつクリックして保存するしかないのでしょうか。
- ベストアンサー
- フリーウェア・フリーソフト
- URLを含んだWEBサイトのPDF化は可能でしょうか?
URLを含んでのWEBサイトを丸ごとPDF化したいのですが (後からリンクを追加するのではなく)、可能でしょうか? 検索してみましがたそれらしきサイトを見つけられなく。 古いIEのファイル(MACOS9等)がMAC OSXなどでは開けなくなって しまったものがあり、将来的にみてWEBページもPDFで保存したいと 思い、WEBサイトのリンクも機能させられたら、PDFからネット (リンクサイト)に飛ぶことができて、便利ではないかと思いまして。 ただ、後からリンクを全部追加するは無理なので、 PDFに保存する際に一度でできないものかと思いまして。 ブラウザも開発が中止されたり、CSSなどレイアウトが崩れてしまうので。 作成可能なソフト、ブラウザなどがありましたら教えてください。 有償、無償でも、MAC、WINDOWSのどちらでも構いません。
- 締切済み
- ブラウザ
- 画像の一括ダウンロードのソフトありますか?
HPやプログなどで良くリンク先のみついていてそれをクリックするとJPEG画像などが見れるのがありますが何十個もくりっくして確認するだけでも多大な時間がかかりますのでそのリンク先の画像を一括ダウンロード又は名前をつけて保存 出来るフリーソフトは無いものでしょうか? プレビューがあってしていしてダウンロードも助かる機能です よろしくお願いします
- 締切済み
- フリーウェア・フリーソフト
- リンク先画像のダウンロードについて
こんにちは。WindowsでFirefoxを使用しております。 サムネイルがたくさんあるサイトで、リンク先の画像の一括ダウンロードを考えて色々検索しておりました。 その中で、「Batch Downloader」というアドオンに、「選択されたリンク先の画像を1つのタブで開く」というものがありまして、便利そうだと思ったのですが、現在なくなってしまったのかダウンロードできずインストールできません。 他にLinklyなども使っているのですが、「選択されたリンク先」ではなく、画面全体のリンク先になってしまうので、99を超えると使えなくなり、たくさんのリンク先があるものでは99になるように画像を選ばなくてはならず、大変手間になっております。 そこで、選択されたリンク先のみをダウンロードできるようなアドオンをご存知の方はいらっしゃらないでしょうか? もしくは、大量にサムネイルからリンク先に飛ばなくてはならない場合のダウンロード方法をご存知の方、教えていただけましたら助かります。 よろしくお願いいたします。
- 締切済み
- Windows XP
- WEBからのファイルのダウンロード
http://www.meinde.com/md02/index02.html こちらで公開されているPDFコンテンツ(およびPDF内部でリンクされている音声ファイル)をダウンロードしたいのですが、保存作業を楽にする方法をご存知でしたら教えてください。 OSはWindows7です。
- 締切済み
- その他(インターネット・Webサービス)
- Webサーバからファイルをダウンロード
Webサーバの既知のディレクトリ(http://aaa.co.jp/bbb/)に 保管されているPDFファイル(ccc.pdf)をクラインアントから 次のようにダウンロードさせるサイトが作りたいです。 (1)クライアントが、Webサイトのテキストボックスにファイル名(ccc.pdf)を 入力して、保存ボタンを押す。 (2)クライアントに、「名前を付けて保存」ダイアログを表示させる。 (デフォルトでファイル名は ccc.pdf となっている。) (3)クライアントが「保存する場所」を指定して、「保存」ボタンを押すと、 http://aaa.co.jp/bbb/ccc.pdf がダウンロードされ、指定の場所に ファイルが保存される。 この(2)、(3)の処理をさせるのに、JavaScriptでどのように書けば 良いのでしょうか? (location.href でファイルをブラウザで表示させることはできますが、 表示させることなく、保存だけしたいです。) 素人のため、言葉の使い方がおかしいかもしれませんが、 宜しくお願い致します。
- 締切済み
- その他(プログラミング・開発)
- ダウンロードninjaの画像について
ダウンロードninjaをネット画像の収集に愛用しています。 2,3日前から設定を触ってないのにダウンロードした画像の種類がbitmapで保存されるようになってしまいました。それまではJPEGだったのですが・・・・。JPEGで保存したいのですが、マニュアルを読んでも設定の仕方がわかりません。ダウンロードする画像自体はJPEGです。JPEGで保存する方法と、BitmapをninjaでJPEGに変換する方法があったら教えてください。
- ベストアンサー
- その他(ソフトウェア)
- WebのpdfがMacダウンロードフォルダに溜まる
MacBook(Mac OSX SnowLeopard)を使っています。 Webからファイルをダウンロードするとき「ファイル毎に保存する場所を確認する」にしてMacに用意されている「ダウンロードフォルダ」の下にアプリケーション名のフォルダを用意して保存しています。 Webにおいてpdfファイルを見ようとしてPreviewで開いたとき、そのファイルが「ダウンロードフォルダ」に保存されていました。 ダウンロードフォルダがごちゃごちゃになってしまうので、保存の指定をしないpdfは「ダウンロードフォルダ」に保存しないような設定にする方法を知っている方がいたら教えてください。 もしくは私のダウンロードフォルダの使い方が違っているようでしたら、もっとよい使い方を教えてもらえると助かります。
- ベストアンサー
- Mac
補足
ありがとうございます。 pagedownというこのソフトを使ってみました。 ところが、「ダウンロードしたファイルはありませんでした」と言われて、 何もダウンロードされませんでした。私の初期設定が悪いのかもしれませんが特に異質なサイトをダウンロードしているわけではないんですけどね。。。 もう少しトライしてみます。