• 締切済み

クローラーがrobots.txtを巡回しない

クローラーがrobots.txtを巡回しないため、毎回手動で再送信をしています。 robots.txtの内容はマスターツールで確認してもエラーもなく正常に表示されています。 あとは制限などをしている可能性があるのはhtaccessくらいですが、robots.txtの巡回を妨げるようなものはあるのでしょうか? 何か理由がお分かりの方がいましたらアドバイスをお願いします。

noname#199338
noname#199338

みんなの回答

  • chie65535
  • ベストアンサー率43% (8519/19367)
回答No.1

>クローラーがrobots.txtを巡回しないため ご参考。 http://www.tohoho-web.com/wwwxx079.htm robots.txtは「クローラーに巡回させないため」に置きます。 なので、クローラーがrobots.txtを認識すると「巡回しない」ですよ。 なので「巡回しなくて当然」だと思いますが、それって当方の勘違いでしょうかね?

関連するQ&A

  • robots.txtの確認

    わたしのブログがインデックスされていないようです。 確認してみますと Disallow: /wp-adimin/ となっています。 robots.txtの確認のしかたについて調べたところ、クローラーに巡回させるには Disallow: と「/」を消すとありました。 わたしのサイトのrobots.txtでは、wp-adminの前と後に「/」があるのですが 前の「/」だけを消せばいいのでしょうか?

    • 締切済み
    • SEO
  • robots.txt

    いろいろ調べてみたのですが、自分の知識が乏しいようでよくわからなく困ってしまいこちらで質問させていただきたいと思いますのでよろしくお願い致します。 当サイトのグーグルのウェブマスター ツール で確認してみたところ、 「ウェブ クロール エラー 」のURLにアクセスできませんという項目に28件もエラーがのっていました。トップページをはじめとしてエラーになっていたので心配になりました。「robots.txt にアクセスできません」となっております。 「robots.txt ファイルに対して URL をテスト」というのを試してみたのですが、ディレクトリとして検出されました。ファイルによっては固有の制限がある可能性がありますと表示されました。 以前はこんな表示はでてなかったように思いますし、これはどういうことなのでしょうか? こういう表示がでてきてるということは、エラーのページは無視されてしまうということですか? 今までは<META name="ROBOTS" content="ALL">というタグを埋め込んでましたが、これを使っても意味がないので削除するように教えていただいて実行したのですが、これと関係ありますか? どう対処していったらいいのしょうか? robots.txt というのを作成したことがなく、特に問題はなかったのですが、これは自分で作ってアップするものなのですか? どうごご助言よろしくお願い致します。

    • ベストアンサー
    • HTML
  • robots.txtの置き場所について

    ウェブマスターツールを使い始めた初心者です。 私のウェブサイトはプロバイダがサービスでくれたもので、URLが www.プロバイダのサーバ.ne.jp/~ユーザーのID となっています。 robots.txtを置きたいのですが、 ウェブマスターツールで私がrobots.txtを置くURLは、 http://www.プロバイダのサーバ.ne.jp/robots.txt となっています。。 私のユーザーのIDのついてないURLにはアップロードできないと思うのですが・・・ どうしたらいいのでしょうか? FFFTPでpublic_htmlの下にアップロードしたところ、やっぱり認識されずずっと404(見つかりませんでした)と言われてます。。。

  • robots.txt によりアクセスが制限されています

    ウェブマスターツールの robots.txt によりアクセスが制限されていますのところに11個入ってしまって殆ど検索に皮下からなくなってしまいました。。 これを解除する方法とかはあるでしょうか? ちなみにアダルト系のブログです。

  • 「robots.txt による URL 制限」

    所有するHP(Googleでドメインを取得し、Google Appsで管理しています)について、Googleのウェブマスターツールを使用し、クローラのアクセスをしたところ、「サイトをクロールした際に検出されたクロールエラー」として、「robots.txt により URL が制限されています」、という結果が4件現われました。 素人なので、その意味するところもよく理解できていないのですが、ここ数日、HPへの訪問者数が大きく減少していることと関連している気がします。 なお、robots.txt により URL が制限されています、という4件のURLは、いずれも所有するHPのメインのサイトそのものです。 本件はどのように判断すべきなのでしょうか。 Google社に質問を出そうにも、同社は利用者からダイレクトに質問を受けることをしておらず、連絡の取りようがありません。 なお、所有するHPへの最大Traffic Sourceは、米国人サイト利用者一般への閲覧情報提供・閲覧マネジメントサービスを提供する米国会社ですが(URLを調べた結果です)、このURLをGoogleの解析機能でチェックしたところ、「このWebサイトは、有害なプログラムを転送するか、オンライン詐欺に関係していることが確認されています。この画面を閉じてください。」という表示が出てきます。 私のHPが、クローラアクセスのクロールエラーで「robots.txt により URL が制限されています」とされているのも、このことと無関係ではないような気がします(私のHPが有害なサイトとして扱われているのではないかと。なおHPは全て英語のサイトです)。 上記の現象をどう解釈したらいいのか、robots.txt によるURL制限を外すにはどうしたらいいのか、またGoogle社に個別質問を出す方法などについて、どなたかお教えいただけませんでしょうか。 ある特定の日を境にHP閲覧者数の極端な減少が発生しており、非常に困っていますので、どうかよろしくお願いいたします。

  • robots.txtを再作成したいのですが…

    こんばんは。 tubmlrをやっているのですが、 以前、検索エンジンに自分のページが出なくなっていたのでウェブマスターツールで調べてみたら、 robots.txtが消えていたんです。 どうしたら再作成できますか?

  • deny from allで、robots.txt

    .htaccessで、 <Files ~ ".(csv|txt)$"> deny from all </Files> と書いたら、ブラウザから、robots.txtが確認できなくなりました。 ブラウザで確認できないのはいいのですが、 この意味は、検索エンジンも、robots.txtを読み込めない、ということでしょうか? それとも、単にブラウザから、.txtが確認できないだけで、 検索エンジンは、robots.txtを読み込むことは出来るのでしょうか?

  • タグやrobots,txtを入れているのに…!?

    趣味性が強いページなので、最初各種検索避けメタタグを入れていました。 ところがyahoo!でひっかかるようになってしまったので、robots.txt(内容は以下) User-agent: * Disallow: / をトップディリクトリに置いた所、検索結果には出てもエラーページ扱いになり、その後検索結果にも出なくなりました。 …が、チェックの為、数週間ぶりに検索してみたら、再び出るようになってしまいました…!エラーページは出ないし、今までなかった「○○人がブックマークしてます」の表示がつくようになっていました。 これは一体何故なんでしょうか。robots.txtも意味がないということでしょうか。それともブックマークに影響があるのか… オンラインブクマが原因とも聞いたことがありますが、真偽がわからないのでその旨サイトに表記してよいか迷ってます。 .htaccessで避ける方法をとった方がいい場合、表記はどうすればよいのでしょうか(初めてなので調べたんですが、色々な書き方があるようでわからなくなってしまいました) ご存知の方、教えていただければありがたいです。

    • ベストアンサー
    • HTML
  • robots.txt HTTP/1.1 404 208 について

    2年ほど自宅サーバーでHPを公開しています。最近、以下のようにローカルホストに対して robots.txt に関係するアクセスログが記録されます。 ------------------------------------------------------------------ 127.0.0.1 - - [ 日時記載省略 ] "GET /robots.txt HTTP/1.1" 404 208 127.0.0.1 - - [ 日時記載省略 ] "GET /robots.txt HTTP/1.1" 404 208 127.0.0.1 - - [ 日時記載省略 ] "GET /robots.txt HTTP/1.1" 404 208 127.0.0.1 - - [ 日時記載省略 ] "GET /robots.txt HTTP/1.1" 404 208 127.0.0.1 - - [ 日時記載省略 ] "GET /robots.txt HTTP/1.1" 404 208   ・   ・ ※ 行数は1アクセスに対して4~8行程度。(日によって変わる) ------------------------------------------------------------------ ログとしては未検出エラーのようですが、自サバのルートディレクトリーなどには robots.txt を、過去を含めて一度も設置した事がありません。 ただ、この現象が出だしたのは、利用しているHTTPソフトApache 2.0 を 2.2 へバージョンアップした頃から。また、別途公開しているブログ(OCN)のタイトル画像のリンクをこの自サバのルートに置いている画像から引き出した頃からです。 しかしこのような構成は過去からずっと行っており、従来から Apache 2.0 の利用で、robots.txtなるファイルも置いた事が無くログに今回のような内容は記録された事がありません。 以上のような事から、サーバーソフトの Apache を 2.0 から 2.2 へバージョンアップした事が起因しているのではないかとも考えています。 ちなみに、セキュリティソフトはシマンテックのインターネットセキュリティを使っており、ウイルスやスパイウェアの検出は確認されていません。 判る方がおられましたら、ぜひ宜しくご指導ください。 その他の環境 OS:WindowsXP SP2 通信:NTTフレッツADSL+ルーターモデムWebCaster620 マシン:SONY VAIO デスクトップ機(CPU:800MHz AMD Duron)

  • クローラーについて

    YahooやGooglenoクローラーはどれくらいの頻度でクロールしてくるんでしょうか? また「Googleウェブマスターツール」で確認できる『ホームページクロール』は、Googleのクローラーが直近でクロールしてきた日付と解釈して間違いありませんか?