• ベストアンサー

階層以下をそのまま保存するには(GetHTMLW)

「世界一受けたい授業」のサイトをオフラインでも見れるように、保存しようと思って、GetHTMLWで何とかならないかと格闘しています。 http://www.ntv.co.jp/sekaju/ のサイト以下の階層だけ(もっといえば、その下のbacknumberフォルダ以下)だけでいいので、保存したいと思うのですが、設定方法がよく分かりません。 他のドメインやsekajuディレクトリより上へのリンクは保存せずに、できるだけ、サイト作成者がftpでアップする前のような状態で保存できないものでしょうか。 ご教授いただければ幸いです。

質問者が選んだベストアンサー

  • ベストアンサー
  • violet430
  • ベストアンサー率36% (27472/75001)
回答No.1
fitzgerald18
質問者

お礼

ありがとうございました。

関連するQ&A

  • GetHTMLWのソフトでネットサーフィンしたサイトの保存

    GetHTMLWのソフトです。 2階層3階層を保存するとなると、時間がかかってしまうので、 ネットサーフィンで閲覧したサイトだけ保存したいと思っています。 「ネットサーフィン時に見たデータをすべて保存、オフライン後も再生」 と謳(うた)っています が、 その設定方法を教えてください。

  • WEBサイトを階層を保ったままPC保存するには?

    WEBサイトを閉鎖されてからも閲覧できるようにローカルで保存できるソフトや方法はないのでしょうか。 出来れば、インターネットエクスプローラーで閲覧しているように表示されると助かります。 以前、「GetHTMLW」「webox」「巡集」「紙copi」を試してみましたが上手く階層通りに表示されず途中で見られなくなってしまいました。 宜しくお願いします。

  • GetHTMLWでWEBを完全に保存したいです。

    皆さん、はじめまして。早速ですが、本題に入らせていただきます。 保存先はページの豊富な解説サイトです。 TOPのアドレスをhttp://A/top/とすると、そこに http://A/zabieru/ や http://B/edo/ や http://C/hideyoshi/などの別ページのリンクが数多くあります。 (1)GetHTMLWでWEBの保存を何度も試みましたが完全にできませんでした。 フォルダ上にファイルがダウンロードできてるが、TOPのリンクがフォルダのBとCにつながらなか った。リンクに失敗した部分はhttpになっている。 ↓ (2)他のソフトを使っても同じ結果でした。 ↓ (3)設定で→「B」と「C」のURLを追加。 ↓ (4)失敗。 ↓ (5)検索したらhttp://blog.golfdigest.co.jp/user/murasan/archive/83のページで、 ↓ GetHTMLWでWEBの保存したときに別のアドレスだった場合は、加工しないと(リンクを直さないと) いけないとかかれてました。 たしかに保存したWEBのソースを見ると、「A」がはhref="hideyoshi.htmlなのに対して、「B」 や「C」の部分はhref=http://B/hideyoshi/になっていました。 そこで質問ですが、一つ一つリンクを直すのはできればしたくないので、 他によい方法がありましたら、教えてください。 皆さん、よろしくお願いします。

  • InternetExplorer7でHPの階層保存ができない

    ■IE6(InternetExplorer6)の時は保存したいトップページで「お気に入りに追加する」→「オフラインで使用する」→「設定」でホームページの階層保存(表示中のページとそのリンク先のページを丸々保存すること)ができましたがIE7では「オフラインで使用する」というチェックボックスが出てきません。 ■お気に入り一覧で保存したいページを右クリックして「プロパティ」→「webドキュメント」でも「オフラインで使用する」というチェックボックスは出ませんでした。 ■保存したいページ上で「ファイル」→「名前をつけて保存」では表示されている1ページのみ保存できてもリンク先の階層保存ができません...  Google等で散々調べましたがIE7自体あまり使われていないようで解説されているサイトがなく途方にくれています。  できれば新たに無料ソフト等を導入せずにIE7でホームページの階層保存をする方法をご存知の方は回答お願いします。

  • URLの階層の下だけ見たい!!!

    http://oshiete1.goo.ne.jp/・・・とURLが羅列されていてその階層の下に主にそのHPのコンテンツがサーバーにあります。それだけを見たいのにリンクがやたら貼ってあってとても醜いです。どうやったらそのURLの階層の下のコンテンツだけみれるでしょうか? 私としてはURLを指定してそのURLの下だけDOWNLOADできるツールがあれば保存して後からオフラインで見たいと思ってます。このようなHPダウンロードツールはありませんか?

  • すべての画像を含めて保存したい

    こんです。 今、ニュースなどをオフラインで閲覧できるようにして保存、編集しているのですが、画像つきのHPを保存すると、画像が保存されずリンクがそのままになってしまいます。 例えば、http://pc.watch.impress.co.jp/docs/2005/0208/kaigai153.htm  のページを保存するとプレビュー画像は保存されますが、クリックすると拡大する画像は保存されません。プレビュー画像にリンクがついたままでオフラインで閲覧することはできなくなってしまいます。 GetHTMLWのようなソフトを使用しましたが保存すると画像とHTMLファイルが一緒でごちゃごちゃになってしまいます。 画像をすべてまとめて、(mhtのような)画像の拡大もできたりする保存方法はあるのでしょうか?

  • 階層の違うディレクトリでのCSSの呼び出し方

    現在FC2さんにサーバーをお借りしてPCサイトをつくっているものです。 HIMEISM(http://neo-himeism.net/)さんに疑似フレームのテンプレートをお借りして、半分以上はうまくいっているのですが、中身が増えてきたので小説と漫画とイラストをそれぞれ、indexなどより一つ下の階層に分けようとしたのですが、そうすると<link rel="stylesheet" type="text/css" href="img/style.css">としているにも関わらずCSSスタイルシートが呼び出されません。 今は何のディレクトリにも入っていないindexやlink、offなどが一番上の階層にあり、一つ下にスタイルシートやアイコンなどに使う画像が入れられた最初から入っていたimgのディレクトリ、小説、漫画、イラストそれぞれのディレクトリがある状態です。 img以外全部、何のディレクトリにも入れなければ正常に反映されます。 階層を分けたまま、すべてにテンプレートが反映されるようにしたいのですが、どうすればいいでしょうか。

  • 【アドオン】ページ保存の際のディレクトリについて

    「Scrapbook」というファイヤーフォックスのアドオンを使っています。 便利ですが、分からないのが、「ページを詳細に保存」するの「掘り下げ」です。 『“掘り下げ取り込み”は現在のディレクトリーを基点として、どのくらいまで掘り下げてダウンロードをするか指定する。』という解説ですが、「現在のディレクトリ」とは今開いているページのある階層であり、そこをレベルが0とする。また、そのページに張ってあるリンク先はすべて1ということになる…という認識なのですが。 しかし実際にレベルを0にして保存しても、普通の閲覧のときと変わらず、すべてのリンク先、そのまた先のリンクはすべて見れます。ディレクトリとはエクスプローラのような階層のことですが、この場合のディレクトリの保存というのは何をどこまで保存するのでしょうか? レベル1というのは保存したいHPのページ構成のことなのか、それとも他の外部リンクの数なのでしょうか?私の認識違いでしたら教えてください。

  • VC#のFtpWebRequestで多階層のディレクトリを作成すること

    VC#のFtpWebRequestで多階層のディレクトリを作成することができません。 以下のようにすることで例えばftp://hogehoge.com/hoge1/というディレクトリがあったとしてそのhoge1の中にhoge2というディレクトリを作る事は出来ます。一階層のディレクトリまでなら作れることは確認しています。 Uri u = new Uri("ftp://hogehoge.com/hoge1/hoge2/") ; System.Net.FtpWebRequest ftpReq = (System.Net.FtpWebRequest)System.Net.WebRequest.Create(u); ftpReq.Credentials = new System.Net.NetworkCredential(ini[1], ini[2]); ftpReq.Method = System.Net.WebRequestMethods.Ftp.MakeDirectory; System.Net.FtpWebResponse ftpRes = (System.Net.FtpWebResponse)ftpReq.GetResponse(); ftpRes.Close(); しかし、ftp://hogehoge.com/hoge1/hoge2/hoge3/hoge4/hoge5/ ぐらいまでディレクトリを作ろうとした時、上のUriの値を ftp://hogehoge.com/hoge1/hoge2/hoge3/hoge4/hoge5/ にしてもディレクトリを作る事ができません。 ftp://hogehoge.com/hoge1/hoge2/ のように一階層なら上でも書いたとおり作成できますが ftp://hogehoge.com/hoge1/hoge2/hoge3/ と指定した場合、作成することができません。 場当たり的に上のコードを4,5回繰り返すことでhoge5までの作成は可能なことは可能でしたが、リクエストを大量に送りつけてしまい、ソースも長くなってしまうので他の方法を考えたいです。 他の方法でもかまいませんので何かいい方法はございませんでしょうか。 環境 VC# 2008 .netFramework 4.0 winXP SP3

  • ホームページを階層ごとダウンロード(css,swf含)

    ホームページを階層ごと、ダウンロードしたいのです たくさんのソフトが出ていますが、 以下の点が可能なソフトがわかりらないので ご存知の方いらっしゃったらお願いいたします。 1・階層ごと保存したい リンク階層を選べればベストで、これは結構ありましたが 以下の点がクリアしてるものが見つかりませんでした。わかりませんでした 2・cssファイルやswfファイルを落としたい 1ページだけであれば、firefoxの完全保存で問題ないのですが こちらだと、リンクを辿れないので、いちいち全ページに実行するのは かなり手間になると判断してます。 3・.htmlとかちゃんとしたファイルで落としたい 多分色々見た感じ 「Website Explorer」というのが一番よさそうなのですが、 保存が独自のファイル形式っぽく、 (↑というか、このアプリ内ではソースを見る事もできますし、どっかにデータがあるのでしょうから、普通に.htmlや.cssで保存する方法がわからないだけなのかもしれません。これ方法あるんですか?←これも追加の質問なんですが笑) というわけで、 ・階層辿れる ・cssやswfも落としたい ・[.html]や[.css]の形式で落としたい これらの条件を満たした オススメのソフトないでしょうか? どうぞ宜しくお願いいたします。 m(_ _)m

専門家に質問してみよう