• ベストアンサー

ホームページをローカルに丸ごと保存するソフト

ホームページの情報をとっておきたくて、いろいろホームページをキャプチャするソフトを試用してみました。 ですが、どうしてもうまくキャプチャできません。 波乗野郎 WebMGet PageDown GetHTMLW のフリー/シェアのソフトで試してみましたがどれもダメです。 原因を調べてみたところ、ページ内でJavaScriptを使って画面を出力しているからだということがわかりました。 フリー/シェア/商用問わず、このようなWebページもちゃんとキャプチャできるソフトをご存じでしたら教えてください。 よろしくお願いします。

質問者が選んだベストアンサー

  • ベストアンサー
  • usapy07
  • ベストアンサー率46% (931/1985)
回答No.4

おや?? http://www.nankankeiba.com/prg/prg20040621180301.html 試しに表示させてみましたが、 普通に ファイル→名前をつけて保存→Web アーカイブ、単一のファイル .mht で保存できますね。

その他の回答 (5)

  • usapy07
  • ベストアンサー率46% (931/1985)
回答No.6

補足: 具体的には ホームページをダウンロードするソフトに こんな機能の付いてるソフトなら可能な気がします。 窓の杜 - 【NEWS】ファイルの自動リネームソフト「ごっちゃまぜ」v0.1.0が公開 http://www.forest.impress.co.jp/article/2000/08/18/gotchamaze.html

  • usapy07
  • ベストアンサー率46% (931/1985)
回答No.5

これは階層構造が多層なのに付いてる名前が 全て「nankankeiba_com  出走表 」と なってしまうためにホームページを丸ごと ダウンロードするソフトでは上書きしまくって 結局何も保存できないというパターンなのでは? という感じがします。 ということは、、、 webページを保存する時に自動で連番を振って ファイルネームを付けてくれるタイプの ソフトであれば対応出来そうな気もしますが、 残念ながら私はそのようなソフトを知りません。 お力になれなくてゴメンナサイ。

  • usapy07
  • ベストアンサー率46% (931/1985)
回答No.3

>ざっと数えただけでも100ページ以上 多いですねぇ。 私が保存したのは22枚でした。 それでも途中で面倒くさくなって発狂寸前でした。 1日20枚程度にして1週間くらいかけて のんびり保存されてはいかがでしょう? Temporary Internet Files の中を探すときに、それらしい名前が ついていてくれれば見つけ易いのですが、 そうとも限りません。 Temporary Internet Files の中を探す前に一度 インターネット一時ファイルの削除をして 目的のページだけをIEで表示させると 多少負担が軽減されます。 私はまず、最終アクセス日時の順に並べ替えて 探します。 それでも見つからないときは、 インターネットアドレス順に並べ替えます。 ----------------- >自分でもいろいろ試してみます。 他に良い方法が見つかったら、 補足欄とかに書いて 是非私にも教えてください。 よろしくお願いします。

  • usapy07
  • ベストアンサー率46% (931/1985)
回答No.2

JavaScript、、、厄介ですよね、、。 私も保存するときには苦労しています。 私のやり方は超ローテクですが、 1.JavaScriptで出力されるページを一度IEで表示させる。 2.一旦IEを閉じる。 win2000なら、 C:\Documents and Settings\Administrator\Local Settings\Temporary Internet Files win98なら、 C:\WINDOWS\Temporary Internet Files にある、html と jpg をコピーして開く。 コピーしたときに jpgは 「~[1].jpg」 とかになってたら「~.jpg」にリネームすれば表示出来る。 開くのに成功したら「名前を付けて保存」で mht に、、、。 面倒ですが1枚1枚こうやって保存しています。

sen0120jp
質問者

お礼

usapy07さん、tukisakuraさん、大変貴重な助言いただきありがとうございます。 ここでまとめてお礼&報告をさせていただきます。 結論としては、問題は含んでいますが、やってできなさそうだと言うことはわかりました。 【方法1】 usapy07さんがNo.4でおっしゃっているように、全ページをmhtファイルで保存する。 ※メリット※ この方法が一番手軽で簡単ですね。 IEのテンポラリをいじくる必要がないぶん、手間は軽減できます。まあ、100ページぐらいならばぎりぎり許容範囲と言うところでしょうか。 【方法2】 WebSiteExplorer http://www.forest.impress.co.jp/lib/inet/websupt/webpilot/websiteexp.html というソフトを見つけました。 このソフトでサイトのファイルをフォルダ構造ごと丸ごとダウンロードしました。(全部で80MB程度) 中身を見ると、ページ内で使っているJavaScriptのソースファイル(JSファイル)もちゃんとダウンロードされています。 ですので、ローカルにBlackJumboDog等でWebサーバを建ててあげれば、まったく同じ画面が見れると言うことになります。 わざわざWebサーバを構築してまでやる必要があるかというとはなはだ疑問ですが(^^;、リクツではそうなります(まだそこまではやっていないですが) ※メリット※ Webサーバの構築の手間、ダウンロードに時間がかかるなどの問題はありますが、一度環境を構築してしまえば、次回からは作業が楽になります。 どちらの方法にしても「今一歩」感がぬぐえませんが、私の知識ではこれが精一杯ッス(^^; まあ、せっかくダウンロードしたことだし、時間と気合いがあるときにWebサーバ建ててみます。

sen0120jp
質問者

補足

なるほど。 IEのテンポラリを利用するというのは確実な方法ですね。 とはいえ、この方法だとページ数が多くなると非常に時間がかかってしまいます。 実際に保存したいのは、南関東4競馬の過去のレース成績ページ(http://www.nankankeiba.com/cgi-bin/pay/pay.cgi)以下のページなのですが、ざっと数えただけでも100ページ以上になってしまいます。 JavaScriptを使っている以上、JavaScriptを解釈できる何者かが間に介在しないとページを正しく構成できないわけで、そう簡単にはできないことはわかっているものの、なんとかならないかな~。 回答募集継続中ですが、usapy07様、大変参考なりました。 usapy07様のアイディアをもとに、自分でもいろいろ試してみます。

回答No.1

意図が違ってたら申し訳ないです。 キャプチャーというと画面コピー(画面保存)と考えていいのでしょうか?? 表示されたWebページ(HP)を画面取りしたいということでしようか?? もしくは…ホームページスペースに保存されたwebページのバックアップが欲しいという事でしょうか!! 1.キャプチャー(画面取り)されるのであれば、アクセサリにあるペイントでも出来ます。キャプチャーしたいWebページを開き、CTL+PrintScreenで画面コピーし、ペイントを起動させて貼り付け、保存でキャプチャー出来ます。(**.bmp,**.jpg,**.gif等) 2.バックアップを取りたい場合でしたら、転送ソフトを利用する方法があります。 いろいろな転送ソフトがありますが、FFFTPをご紹介します。(無料です) http://ftp.hm/ffftp/

sen0120jp
質問者

補足

> 表示されたWebページ(HP)を画面取りしたいということでしようか?? > もしくは…ホームページスペースに保存されたwebページのバックアップが欲しいという事でしょうか!! 最悪、画像のキャプチャでもいいですが、できればホームページスペースに保存されたWebページのバックアップ(HTML、JPG、CGI等の状態で)がほしいです。 > いろいろな転送ソフトがありますが、FFFTPをご紹介します。(無料です) そのサイトは、FTP(anonymous FTP)には対応してないようです。 それに、この方法だと、JavaScriptの画面が再現できないですよね?

関連するQ&A

  • ホームページ一括保存するには?

    初めて投稿します。ホームページの全ページを一括保存して、他のPC(インターネット接続なし)でIEで閲覧するにはどうしたらいいでしょうか? 自分で調べたんですが、波乗野郎などのフリーソフトを使う方法しか分かりませんでした。他のPCで閲覧する時に波乗野郎をインストールしていないといけないので都合が悪いんです。 初歩的な質問と思いますが、どなたか宜しくお願いします。

  • cssなどホームページを丸ごとダウンロード

    波乗野郎つかってもcssなどダウンロードできませんでした。 なにかcssなども全てホームページダウンロードソフトありますか? 波乗野郎でできるなら、どうやればいいのでしょう?

  • ホームページが丸ごと保存できません

    はじめまして ホームページを丸ごとローカルに 保存をしたくて 保存ソフトを使用したのですが 保存できません 他のサイトを試しに保存したら 出来ました 保存したいサイトは http://zen.shinshu-u.ac.jp/ です 使用したソフトは 巡集・GETHTMLW・WeBox・ゲッチュ!! Ver3.21・Website Explorer PageDown・wget等で施行しましたがこのURLで表示される 画面と他にも画面・あとは開けないアプリ?のようなファイルが ダウンロードはできたのですが 画面からクリックしてもリンクが切れている状態で 他の画面も同様でした 興味深いサイトなので ローカルで保存したいのですが 私のネット環境は OSはWindows7 回線はワイマックスです なにとぞご教示下さい

  • ホームページを丸ごと保存できるフリーソフト

    以前ホームページを丸ごと保存できるフリーソフトを見たような気がするのですが。いざ探そうとなると分からなくなりました。現在シェアウェアのWebShotを使っていますがイマイチです。上記のソフトご存知でしたら教えてください。

  • ホームページのキャプチャーソフトを教えてください。

    ホームページをキャプチャーしたいのですが、縦長のページなのでwindows の print では隠れている部分がキャプチャーできません。 フリーソフトであったらよろしくお願いします。

  • Webページのリンク先も含めた保存について

    Webページをリンク先も含めてHDに保存し、後でオフラインで閲覧することについて質問させて頂きます。 上記のようにWebページをリンク先も含めて、保存するには何かソフトを使わなければいけないのでしょうか? 使用しないでもできるのであればその方法を、ソフトを使用しなければいけないのであれば、できるだけ簡単なソフトを教えていただけると助かります。 (なお、私が使用しているOSはWinのXPで、IEによりWebを見ています。過去の質問を見ていると、「PerMan Surfer 波乗野郎(http://www.forest.impress.co.jp/lib/inet/websupt/webpilot/naminoriyaro.html)」や「GetHTMLW(http://www.vector.co.jp/soft/win95/net/se077067.html)」などのフリーソフトを紹介してくれているのですが、これらのソフトの動作OSにXPが入ってないので、もしかしたらXPではソフトを使用しなくてもよいのかとの疑問が生じました・・・。(~_~;))

  • Webページをまるごとダウンロードしたい。

    Web製作のため参考にしたく、Webページをまるごと ダウンロードできるソフトを紹介してほしいです。 「波乗野郎」などためしてみましたが、cssやjsがぬけていたりします。 アドバイスよろしく。

  • ホームページ丸ごと、キャプチャーできるようなフリーソフト

    ホームページを一ページだけでなく、そのホームページ丸ごと、キャプチャーできるようなフリーソフトは、ないでしょうか?100ページとか200ページあるようなものです。画像とテキストからなりたっているものです。一ページづつ保存するのが大変なので知っている方、いましたら教えてください。よろしくお願いします。 回答、お待ちしてます。

  • ホームページを印刷する時レイアウトが…

    WEBページを印刷する時、レイアウトが変わったりします。 きれいに印刷できるソフトを『ベクター』や『窓の杜』で探したんですが、ほとんどがキャプチャして印刷するものばかりです。 もし、良いソフトがあったら教えて頂けないでしょうか?(フリーソフト、シェアウェア、製品版など何でも良いです) ホームページをキャプチャして印刷するものじゃないのが良いです。 もしなければ、キャプチャしてもきれいに印刷できるものが良いです。 わがままですみません、あったら教えて下さい。

  • サイトまるごと取り込みソフト

    sns(open pne)をまるごと保存したくて、 gethtmlwと言うフリーソフトを使ったんですけど、 ダウンロードできませんでした。 個人的に、調べたところ、 認証情報を設定ファイルに書き込みしないといけないみたいで、 cookieという専門的な事を知らないと、難しいみたいです。 他のソフト(webox)も使ってみましたが、 最初のページはダウンロードできるんですけど、 他のページは、snsの認証画面が出てきて、 ダウンロードできません。 gethtmlwの設定の仕方(書き換え?) それ以外に、良いソフトを知ってる方、 ご教授お願いします。

専門家に質問してみよう