GetHTMLWを使用してURL以下のファイルをダウンロードする方法

このQ&Aのポイント
  • GetHTMLW ver.8.1.1を使用して、ブラウザでアクセスできないURL以下のファイルをダウンロードする方法について教えてください。
  • URL以下のファイルをダウンロードするためには、GetHTMLW ver.8.1.1を使用し、正しい条件を設定する必要があります。具体的には、アクセスできないURLではなく、ファイルが存在するURLを指定することがポイントです。
  • GetHTMLW ver.8.1.1を使用して複数のファイルをダウンロードする場合、WebCreatorの定期購読を活用することで効率的にまとめてダウンロードすることができます。
回答を見る
  • ベストアンサー

GetHTMLW url以下のファイルをダウンロードするには

こんにちは、 GetHTMLW ver.8.1.1を使っています。 このURL以下のファイルを取得したいとします。 http://www.mdn.co.jp/webcre/Flash/ (例えば、http://www.mdn.co.jp/webcre/Flash/vol80/FlashCT.lzh みたいにvol1から複数存在) ただし、 http://www.mdn.co.jp/webcre/Flash/ をブラウザで見ると、「HTTP 403 アクセス不可」になります。 http://www.mdn.co.jp/webcre/Flash/vol80/FlashCT.lzhでは取得できます。 このようなケースで、GetHTMLW ver.8.1.1でどういう条件にすれば、 取得できますか?また、その他うまくダウンロードする方法があれば教えてください。 (WebCreatorは3年程定期購読していてまとめてダウンロードしたいと考えました。) 何かお分かりでしたらアドバイスお願いします。

質問者が選んだベストアンサー

  • ベストアンサー
  • usokoku
  • ベストアンサー率29% (744/2561)
回答No.1

意味がわからなかったらば、他の回答を優先して下さい。 1.自サバを構築する 2.自サバから関係ファイルを直リンする 3.自サバをGetHtmlWでDLする。許容URLの指定を忘れずに 4.地球病にかかっていたらリファラーを変更するオミトロンのフィルターを使用する ただ、以上のような面倒なことをするよりも、ファイルリストを読み取れるダウンローター(というと2種類しかありませんけど)を使ったほうが早いです。

norinori1
質問者

お礼

回答ありがとうございます。 >ファイルリストを読み取れるダウンローター(というと2種類しかありませんけど) これって何ですか?

その他の回答 (1)

  • usokoku
  • ベストアンサー率29% (744/2561)
回答No.2

http://hp.vector.co.jp/authors/VA024591/ もう一件はスパイウェアを含む(DLした内容を特定のURLに送信する)ので、お知らせしません。ご自身で探してください。 私の様にウィルスソフトを嫌う人間で泣けレば、通常両者を使い分けします。

関連するQ&A

  • GetHTMLW

    ウェブページをダウンロードしてくれるソフト「GetHTMLW」を使っています。 オフライン環境でも閲覧できるので重宝しています。 でも、問題があります。 ほとんどのページを取得できるのですが、 ブラウザでは閲覧できるのに、GetHTMLWでは 全くダウンロードできないページが存在します。 それから、代替ファイルに置き換えられてしまい、 ダウンロードしたファイルが閲覧できないページもあります。 そこで質問です。 (1)ブラウザで閲覧できるのに、GetHTMLWでダウンロードできないページは、 サーバー側でダウンロードできないように 何らかの工夫がされているのでしょうか? それとも、GetHTMLWの設定が悪いのでしょうか? (2)(1)で、GetHTMLWの設定が悪い場合、 設定方法を分かりやすく説明しているHPがありましたら 紹介してください。 答えられる範囲でよいので、回答いただけると助かります。 よろしくお願いします。

  • getHTMLWの使い方を教えて下さい。

    getHTMLWの使い方を教えて下さい。 「WebPage取得」にURLを入力してダウンロードしたのですが、 それをどうやればネットサーフィンと同じように閲覧が 出来るのかがわかりません…。 OSはVista、IE7を使用しています。 宜しくお願いします。

  • GetHTMLWと巡集について

    os XPsp2、IE6.0でGetHTMLW7.14.0と巡集 ver1.59.2を使用しています。 gethtmlw.txtやFAQ, 問答集などを読んでも、全然わか らないので困っています。 1.IE6.0でGetHTMLWのProxy Mode 1、Proxy Mode 2の機能を使うためには、GetHTMLWの設定を どのようにしたらいいのでしょうか。 2.GetHTMLWで画像ファイルや音声ファイルや圧縮フ ァイルなどをHPと一緒に取得するためには、設定を どのようにしたらいいのでしょうか。 3.GetHTMLWや巡集でひとつの画面で、画面の半分は 取得できたけれども、もう半分はテキストファイルみ たいになっている場合は、どうすればよいのでしょう か? <html><head><title>ソフトウェア関連質問スレ用FAQ</title> <meta name="robots" content="index,follow"> <meta http-equiv="Content-Type" content="text/html; charset=Shift_JIS" /> <meta http-equiv="Content-Style-Type" content="text/css" /> いくらやり直してもこのようにうまくいきません。 4.GetHTMLWで、取得できないものとして、 (Shockwave-Flash 内の追跡は対応しましたが、Java, JavaScript,その他純粋な HTML でないページには対 応していません) と書いてあるのですが、具体的にはどのようなことを さすのでしょうか。 もし、そういったものを取得したい場合は、どのよう に対処すればよいのでしょうか。 5.巡集でHPをダウンロードすると、ダウンロード したフォルダ名やファイル名が文字化けしていて、そ のファイルを開くと、中身も文字化けしています。 その場合、どうやったら、きちんとダウンロードでき るのでしょうか。 6.巡集の設定で「HTMLのタグを読まないとUR Lの%を変換しない」は、どういう時にチェックをす ればよいのでしょうか。 どうか宜しくお願いします。

  • バックアップを取ろうとしたらURLがサイト上から消えてしまいました。

    質問させて下さい。 OSはWindows XPです。 ブログのバックアップを取ろうと、 知識も無いまま「巡集」というフリーソフトウェア(1.59.2 Ver.) (説明)HTTPサーバ上にあるウェブサイトを、 リンクを辿りながら自動でダウンロード。 ダウンロードしたウェブサイトは、保存先ディレクトリに作成されるHTMLからオフラインで閲覧可。HTML等の閲覧には 別途ブラウザを用意する。URL欄にダウンロードしたいウェブサイトのURLを入力しツールバーの開始ボタンをクリックするとダウンロードを開始。 で、自分のブログURLを入力、ダウンロードし作業を終了しました。 (元々「ディレクトリに作成される~別途ブラウザを 用意する」の意味を理解していなかったのですが  軽率に、取敢えずデーター保存は出来たからいいだ ろうと思い操作してしまいました) が、いざ自分のブログにいこうとしたら ネット上でURLが見つかりませんと出てしまいました。原因も戻し方も超初心者の為まるで分かりません。 どなたかご教授いただけないでしょうか。

  • 画像のダウンロード元URLを取得したいです

    OSX環境。SafariかFirefoxで画像をダウンロードする際に次のようなことができないでしょうか? ・情報のコメント欄にDLもとのURLを取得したい。 ・できればサムネイルアイコンもつけたい。 ダウンローダーでは可能ですが、ブラウザだけでやりたいです。 ※MacOS9のInternetExplorer5.1ではどちらもできました。

    • 締切済み
    • Mac
  • サーバー内のファイルに対するアクセス制限

    IDとパスワードを入力すると利用出来る会員制のページがあります。 認証は、クッキーとMySQLを駆使して行っています。 ログインすると、ダウンロードコーナーがあり、lzhファイルをダウンロード出来ます。 ところが、このlzh自体は直接URLを打ち込まれると、ログインしていない人でも簡単に取得出来る状態です。 lzhファイルのあるフォルダに「.htaccess」でアクセス制限をかければいいかとも思いますが、これではわざわざログインしているのに更にログインが必要になりおかしな感じになってしまいます。 普通に置いてあるlzhに対して、どのように制御する方法があるでしょうか? 宜しくお願い致します。

    • ベストアンサー
    • Perl
  • txtやpdfを開かないでダウンロードさせるには?

    お世話になります。 txtファイルやpdfファイル(Acrobat Readerが入っていると仮定する)等をサーバー上に おいて、そのファイルのURLを指定するとブラウザに表示されますが これをZipやLzhを指定した時のようにダイアログボックスを表示し(圧縮をしないで)ダウンロードさせたいのですが やり方が解りません。 ご教授よろしくお願いします。

  • バッチファイルでログイン後のページをダウンロード

    バッチファイルから定期的にログイン後のページをダウンロードしたいのですが、何か方法はないでしょうか。 wgetコマンドを使って、以下の様なバッチファイルを作成して実現しようとしたのですが、ログイン画面しか取得出来ず、ログイン後のページは取得出来ませんでした。 【Yahoo!メールの場合】 wget --http-user="ユーザー名" --http-password="パスワード" --no-check-certificate http://mail.yahoo.co.jp/ -O "out.html" wgetでブラウザのcookieを使う方法は、定期的にブラウザを開かないといけないので考えていません。何か方法はないでしょうか。

  • .rmファイルのダウンロード:ダメな物はダメ?

    .rmファイルをダウンロードしたい時、.ramファイルに記述されているURLの最初をhttpに変えてやると、ダウンローダーやブラウザを用いてhttpプロトコルで取ってこれるケースがありますよね。 あれを試してみてサーバに拒絶された場合は、どうやってもダメなんでしょうか?

  • WINDOWS XPでwebサーバを立てました。

    WINDOWS XPでwebサーバを立てました。 httpdというやつです。 フォルダーにファイルabc.lzhとおき、外部からこのサーバのabc.lzhへの URLをブラウザーに入れるとこのファイルのダウンロードが始まりますが このダウンロード速度が遅いです。これはどこか設定するところあるのでしょうか? どうすれば早くなりますか?

専門家に質問してみよう