• ベストアンサー

GetHTMLWでの指定Dir内のDownLoad方法が?

GetHTMLWでトップページが無いディレクトリ内の指定拡張子データをダウンロードしたいのですが、フィルタ設定では出来ませんでした。 どうすればよいのでしょうか?

質問者が選んだベストアンサー

  • ベストアンサー
noname#21649
noname#21649
回答No.3

「トップページがない」ことから.該当ディレクトリー内ファイル一覧をIEなどで見られる場合と解釈しました。 biglobeやniftyのように403を発生させアクセス権を制限している場合にはファイル名を取得できませんのでダウンロードできません。最低限ファイル名を取得することが必要です。 >どこの設定のこ 設定(c) 取得条件設定 内の指定です。 なお.これでうまくダウンロードできない場合には.ファイル名を記載してあるアドレスを読み取り開始位置として指定します。 取得条件設定の4を追加で指定して.その下の「階層まで取得」を1.2.3..とふやしてください。多分2までで取得できるはずです。取得できたらば.取得アドレスを許容アドレス等として登録します。 3を指定すると多くの場合.ダウンロードデータが1GBを超えるでしょうから.実質的に不可能となります。 なおこの方法では.ベクターからのダウンロードは成功していません。転送やアクセスカウントなどがしてある場合にはダウンロードできません。

全文を見る
すると、全ての回答が全文表示されます。

その他の回答 (2)

noname#21649
noname#21649
回答No.2

バージョンが会わないかもしれませんが. 1.3.8.9.Aを指定して.他は無指定。再取得は「TXTのみ」 全データを受信した後.該当識別子を別ディレクトリーにコビー(copy *.(識別子名) f:*.*)しています。

taka1014
質問者

お礼

1.3.8.9.Aを指定して.他は無指定。再取得は「TXTのみ」 ??? 済みません。どこの設定のことでしょうか? 意味が分かりません。

全文を見る
すると、全ての回答が全文表示されます。
  • Spur
  • ベストアンサー率25% (453/1783)
回答No.1

「複数URL指定取得」でやってみてください。

taka1014
質問者

お礼

「複数URL指定取得」をしましたが状況は変わらず。 指定したDirにはIndex.html等のトップページは有りません。 他に方法は有るでしょうか?

全文を見る
すると、全ての回答が全文表示されます。

関連するQ&A

  • GetHTMLW

    ウェブページをダウンロードしてくれるソフト「GetHTMLW」を使っています。 オフライン環境でも閲覧できるので重宝しています。 でも、問題があります。 ほとんどのページを取得できるのですが、 ブラウザでは閲覧できるのに、GetHTMLWでは 全くダウンロードできないページが存在します。 それから、代替ファイルに置き換えられてしまい、 ダウンロードしたファイルが閲覧できないページもあります。 そこで質問です。 (1)ブラウザで閲覧できるのに、GetHTMLWでダウンロードできないページは、 サーバー側でダウンロードできないように 何らかの工夫がされているのでしょうか? それとも、GetHTMLWの設定が悪いのでしょうか? (2)(1)で、GetHTMLWの設定が悪い場合、 設定方法を分かりやすく説明しているHPがありましたら 紹介してください。 答えられる範囲でよいので、回答いただけると助かります。 よろしくお願いします。

  • GetHTMLWと巡集について

    os XPsp2、IE6.0でGetHTMLW7.14.0と巡集 ver1.59.2を使用しています。 gethtmlw.txtやFAQ, 問答集などを読んでも、全然わか らないので困っています。 1.IE6.0でGetHTMLWのProxy Mode 1、Proxy Mode 2の機能を使うためには、GetHTMLWの設定を どのようにしたらいいのでしょうか。 2.GetHTMLWで画像ファイルや音声ファイルや圧縮フ ァイルなどをHPと一緒に取得するためには、設定を どのようにしたらいいのでしょうか。 3.GetHTMLWや巡集でひとつの画面で、画面の半分は 取得できたけれども、もう半分はテキストファイルみ たいになっている場合は、どうすればよいのでしょう か? <html><head><title>ソフトウェア関連質問スレ用FAQ</title> <meta name="robots" content="index,follow"> <meta http-equiv="Content-Type" content="text/html; charset=Shift_JIS" /> <meta http-equiv="Content-Style-Type" content="text/css" /> いくらやり直してもこのようにうまくいきません。 4.GetHTMLWで、取得できないものとして、 (Shockwave-Flash 内の追跡は対応しましたが、Java, JavaScript,その他純粋な HTML でないページには対 応していません) と書いてあるのですが、具体的にはどのようなことを さすのでしょうか。 もし、そういったものを取得したい場合は、どのよう に対処すればよいのでしょうか。 5.巡集でHPをダウンロードすると、ダウンロード したフォルダ名やファイル名が文字化けしていて、そ のファイルを開くと、中身も文字化けしています。 その場合、どうやったら、きちんとダウンロードでき るのでしょうか。 6.巡集の設定で「HTMLのタグを読まないとUR Lの%を変換しない」は、どういう時にチェックをす ればよいのでしょうか。 どうか宜しくお願いします。

  • gethtmlw の使い方

    インターネットでgethtmlwというフリーソフトを見つけて、ダウンロードインストールしました。自分では問題なくインストールできたと思います。 それで、いざ実行しようと思い、使い方を学ぼうと思ってネットで検索してみたらhttp://page.freett.com/ippeus/windows/getweb/index.html#watch に非常に分かりやすい説明がありました。 そこで質問なのですが、前出のHPには、「取り込んだサイトを閲覧 GetHTMLWのフォルダを開いてみます(中略)」と書いてありますが、私がとりこんだPCにはその保存用のフォルダがないんです。これはうまくダウンロード、インストールできてないのでしょうか(数回トライしてみました)、それとも違った名前でフォルダが出来ているのでしょうか?また、出来ていたとしたらどこの場所に出来ているのでしょうか?(私はPCに詳しくないため、展開フォルダとか扱ってません)。(作成されたGETHTMLW.EXEを使って、サイトの取得はできました。) ご存知の方、ご回答お願いします。もう一つインスト-ルの時にファイルがいくつか作成されました。削除しても構わないファイル等も教えてくださったら幸いです。 あと、このソフトはスタートボタンのすべてのプログラムには表示されません。なんだか心配です

  • GetHTMLWでWEBを完全に保存したいです。

    皆さん、はじめまして。早速ですが、本題に入らせていただきます。 保存先はページの豊富な解説サイトです。 TOPのアドレスをhttp://A/top/とすると、そこに http://A/zabieru/ や http://B/edo/ や http://C/hideyoshi/などの別ページのリンクが数多くあります。 (1)GetHTMLWでWEBの保存を何度も試みましたが完全にできませんでした。 フォルダ上にファイルがダウンロードできてるが、TOPのリンクがフォルダのBとCにつながらなか った。リンクに失敗した部分はhttpになっている。 ↓ (2)他のソフトを使っても同じ結果でした。 ↓ (3)設定で→「B」と「C」のURLを追加。 ↓ (4)失敗。 ↓ (5)検索したらhttp://blog.golfdigest.co.jp/user/murasan/archive/83のページで、 ↓ GetHTMLWでWEBの保存したときに別のアドレスだった場合は、加工しないと(リンクを直さないと) いけないとかかれてました。 たしかに保存したWEBのソースを見ると、「A」がはhref="hideyoshi.htmlなのに対して、「B」 や「C」の部分はhref=http://B/hideyoshi/になっていました。 そこで質問ですが、一つ一つリンクを直すのはできればしたくないので、 他によい方法がありましたら、教えてください。 皆さん、よろしくお願いします。

  • GetHTMLWの使い方

    GetHTMLW GUI版 最新のものを使っています。 とあるサイトのDLがうまくいかず、困っています。よろしければ、お力添え頂ければと思います。 落としたいデータは、zipファイル、rarファイル込みです。 サイト構成は、indexのみhtmlファイル、以降のリンクはphpファイルになっています。 取得条件の拡張子の記述は 0:.(arc|gz|exe|zoo|hqx|cab)$ .z$ 0:.(aif|au$|ra|wav|mp|mov|avi$|pdf$) #0:.(mid|jp[eg]|gif$|bmp$|[px]bm$) 2:.zip$ 2:.rar$ 2:.lzh$ で行っています。 あるいは、取得条件の拡張子のチェックを外して試してみています。 が、どちらもうまくDLが出来ません。 GetHTMLW以外に、flashgetなども試してみましたが、右クリックでのDLなど出来ないようです。 ファイルが多数あるサイト(海外)なので、ひとつひとつ落とすと非常に時間がかかってしまいます。 ご協力、よろしくお願いします。 ↓落としたいサイトです。 beewitched.fairywitch.net

  • GetHTMLWの取得データ、その扱いについて

    http://hp.vector.co.jp/authors/VA014425/gethtmlw/getstart.html の目次4のところに書いてあるように設定すると、閲覧したページが自動的にGetHTMLW専用フォルダに保存されていきます。このデータはこのままでは扱いにくいので他のフォルダに「移動」あるいは「コピー」するわけですが、移動してしまったデータを「URLとして開く」事はできないのでしょうか。つまり http://www.aaa と言うページをproxy mode 2で取得したとします。専用フォルダの中にあるうちはlocal modeで「動作」→「URLとして開く」で http://www.aaa の形式で閲覧できるのですが、専用フォルダの外へ移動してしまったデータは c:\My document\www\aaa というような形式でしか閲覧できないのでしょうか。

  • 存在しないページを指定してもTOPページへリダイレクトする方法?

    最近ホームページの構成を変更したんですが、検索エンジンから来てルートディレクトリに該当するHTMLファイルがないとpage not foundになってしまいます。 そこで、どんなHTMLファイルにきてもTOPページのindex.htmlに飛ばせる方法ってありますか? 確かhttp://www.directnic.com/ではhttp://www.directnic.com/xxxx とどんなサブディレクトリを指定してもTOPページに行くようになってます。

    • ベストアンサー
    • HTML
  • 階層以下をそのまま保存するには(GetHTMLW)

    「世界一受けたい授業」のサイトをオフラインでも見れるように、保存しようと思って、GetHTMLWで何とかならないかと格闘しています。 http://www.ntv.co.jp/sekaju/ のサイト以下の階層だけ(もっといえば、その下のbacknumberフォルダ以下)だけでいいので、保存したいと思うのですが、設定方法がよく分かりません。 他のドメインやsekajuディレクトリより上へのリンクは保存せずに、できるだけ、サイト作成者がftpでアップする前のような状態で保存できないものでしょうか。 ご教授いただければ幸いです。

  • Gethtmlwのデーターをインターネット接続ができないPCで見るには、

    インターネット接続環境のないパソコンで、hpを見たい、GETHTMLでデーターをとり、urlをクリックすると、表紙だけの表示になる・次ページにいかない。どうしたらよいかわかりません。接続環境なしのパソコンにも,GETHTMLWをインストールする必要がありますか?GETした部分の(左右)どちらを選択するのですか?いろいろやってみましたが、うまくいきません。ご存知の方、よろしくお願いいたします。 vista/IE7使用です。

  • GetHTMLWのソフトでネットサーフィンしたサイトの保存

    GetHTMLWのソフトです。 2階層3階層を保存するとなると、時間がかかってしまうので、 ネットサーフィンで閲覧したサイトだけ保存したいと思っています。 「ネットサーフィン時に見たデータをすべて保存、オフライン後も再生」 と謳(うた)っています が、 その設定方法を教えてください。

専門家に質問してみよう