- ベストアンサー
ホームページが丸ごと保存できない?!Windows7ユーザーに求められるネット環境とは?
nekoneko1313の回答
- nekoneko1313
- ベストアンサー率0% (0/1)
Niwatori-Sanpo さま 丁寧な回答ありがとうございました なぜかお礼を言う ベストアンサーにするの リンクを踏むと 質問者以外できませんになってしまい この場をお借りしてお礼をさせて頂きます やはりローカル保存は無理でしたか 三時間もお時間さいて頂きありがとうございます ネットがつながってないとダメなのが 残念です nekogasuki_004より
関連するQ&A
- ホームページをローカルに丸ごと保存するソフト
ホームページの情報をとっておきたくて、いろいろホームページをキャプチャするソフトを試用してみました。 ですが、どうしてもうまくキャプチャできません。 波乗野郎 WebMGet PageDown GetHTMLW のフリー/シェアのソフトで試してみましたがどれもダメです。 原因を調べてみたところ、ページ内でJavaScriptを使って画面を出力しているからだということがわかりました。 フリー/シェア/商用問わず、このようなWebページもちゃんとキャプチャできるソフトをご存じでしたら教えてください。 よろしくお願いします。
- ベストアンサー
- その他(ソフトウェア)
- WEBサイトを階層を保ったままPC保存するには?
WEBサイトを閉鎖されてからも閲覧できるようにローカルで保存できるソフトや方法はないのでしょうか。 出来れば、インターネットエクスプローラーで閲覧しているように表示されると助かります。 以前、「GetHTMLW」「webox」「巡集」「紙copi」を試してみましたが上手く階層通りに表示されず途中で見られなくなってしまいました。 宜しくお願いします。
- ベストアンサー
- その他(ソフトウェア)
- サイトまるごと取り込みソフト
sns(open pne)をまるごと保存したくて、 gethtmlwと言うフリーソフトを使ったんですけど、 ダウンロードできませんでした。 個人的に、調べたところ、 認証情報を設定ファイルに書き込みしないといけないみたいで、 cookieという専門的な事を知らないと、難しいみたいです。 他のソフト(webox)も使ってみましたが、 最初のページはダウンロードできるんですけど、 他のページは、snsの認証画面が出てきて、 ダウンロードできません。 gethtmlwの設定の仕方(書き換え?) それ以外に、良いソフトを知ってる方、 ご教授お願いします。
- ベストアンサー
- その他(プログラミング・開発)
- Webページ保存について2
http://b.bngi-channel.jp/psp-haruhi/ 上記のサイトの保存方法を尋ねました。 いろいろなソフトウェアを紹介していただきました。 ありがとうございます。 しかし保存されたものを閲覧しようとしたら フラッシュの部分が真っ白になってしまいます 自分の保存方法がおかしいのでしょうか 私が使用したのは ・WeBox ・GETHTMLW ・Firefox WeBox、GETHTMLWではムービーが未ロードとなりFirefoxにいたっては閲覧しようとするとフラッシュ部分どころかページ全体が真っ白になります。 どなたか上記のWebページ保存出来るソフトを知っている方教えて下さい。またやり方がおかしいのであれば簡単にでいいので保存の仕方を教えて下さい。
- 締切済み
- その他(インターネット・Webサービス)
- ホームページの保存なんですが・・
来月からネットがつながってないところに引っ越すので 有用なホームページを保存しようと思い ホームページゲッチュというソフトをつかってたのですが どうしてもある部分が保存できてないサイトがあることが分かりました 例えばttp://cooking-recipe.biz/ の右側の部分などがオフラインじゃ開けないんです 何か解決策(新しいソフト)などはありませんでしょうか? どうかよろしくお願いします
- ベストアンサー
- フリーウェア・フリーソフト
- サイトをまるごと保存 うまくいかない時があり困っています
私はネットで小説を読むのが好きです。しかしいざ時間ができて読みに行けばサイトが重かったり消されていたりという事もしばしばあります。そこでお気に入りの作品はサイトごと保存しようと思い「順集」「webox」を使ってみました。この二つでうまくいくこともあるのですが、なぜかうまくいかないことも。 具体的な例を上げると、もともとのサイトのリンクの末尾が「~40」など拡張子が表示されていない場合。これは「順集」を使ってみたところ一つのサイト内で「.html」を勝手に付けた状態のリンクに直してダウンロードしてくれたところとそうでないところができてしまいました。 こういったことは何か設定でうまくいったりするのでしょうか?また何か他に良いソフトはないでしょうか?教えてください。お願いします。
- ベストアンサー
- フリーウェア・フリーソフト
- 【至急】サイトを保存したのですが、ハイパーリンクのリンク先が「http~」
サイトを保存したかったので、いろんなソフトを試して わかりやすいソフトにしたのはいいんですが、保存したのを見ると、 そのページのハイパーリンクのリンク先が「http~」になってしまってるんですが、 これは仕様ですか?それとも何か間違ったとか?…… ハイパーリンクで辿らないと不便なのですが…。 ちなみに使ったソフトは「webox」です。 保存したやつのページのハイパーリンクのリンク先を「http~」ではなく、 「C~(各ページを保存したやつがある場所)」にしたいんですが、できますでしょうか?
- 締切済み
- フリーウェア・フリーソフト
- WeBoXを使われている方!
お世話になります。 とても参考になるサイトが消えて無くなる前に、手元に保存しておくために、 使い勝手のいいソフトを探しており、現在は、『 巡集 』と、Firefox拡張の 『 Scrapbook 』を使い始めました。 ところが、巡集はご存知のように"開発終了"ですね。 Scrapbookは、ページをスクラップ感覚で保存するには、とても使い勝手が 良いのですが、「サイトまるごと」となると、少しばかり期待通り行かない ところがあります。 それは、サイトを取り込んだあと、同じサイト内にあるページへのリンクが 元のまま( つまり、<a href= 以下が元のままのアドレスで、リンクを クリックでローカルに保存されたページへジャンプさせるためには、手作業で 書き換えなければならないよう)で、リンクが多いとちょっと厳しい感があります。 巡集はそのあたり、取り込んだあとにはちゃんと書き換えられているようで、 リンククリックでちゃんとローカルのところにジャンプします。 そこで、質問なのですが、 『 WeBoX 』はそのあたりの設定はどうなっているのでしょうか? サイトをまるごと取りこりこんだあと、同じサイト内のページへはリンクをクリックで ローカルに保存されたページへとちゃんとジャンプする設定になっているのでしょうか? WeBoX ご使用の方々、宜しくお願い致します。
- ベストアンサー
- フリーウェア・フリーソフト
- GetHTMLWのソフトでネットサーフィンしたサイトの保存
GetHTMLWのソフトです。 2階層3階層を保存するとなると、時間がかかってしまうので、 ネットサーフィンで閲覧したサイトだけ保存したいと思っています。 「ネットサーフィン時に見たデータをすべて保存、オフライン後も再生」 と謳(うた)っています が、 その設定方法を教えてください。
- ベストアンサー
- Windows XP
- webox等のweb保存ソフトの概念
WEBOX等フリーのWEB保存するソフトで 巨大なサイト、例えばOKWEBや 2ちゃんねるの板ですべて取り込むをクリックした場合すべての質問やスレッドが保存されるのでしょうか? 普通のサイトでも広告先や解析など そのサイトに直接関係の無いリンク先でも 取り込まれてしまうのですか? 必要な部分だけ取り込むようにするにはどうすればいいのでしょうか?
- ベストアンサー
- フリーウェア・フリーソフト