クロールエラーが発生して困っています

このQ&Aのポイント
  • 私はさくらサーバを使用しており、新たなサイトで検索エンジン登録を行ったところ、クロールエラーが発生しました。エラーメッセージの内容を確認したところ、robots.txtファイルの問題が原因の可能性があります。
  • サーバにUPされているファイルを確認したところ、robots.txtファイルが存在しなかったため、Googlebotがアクセスできない状態になっている可能性があります。
  • 問題を解決するためには、robots.txtファイルを作成し、Googlebotがアクセスできるように設定する必要があります。さくらサーバの設定やファイアウォールの確認も必要です。
回答を見る
  • ベストアンサー

クロールエラーが発生して困っています。

googleの検索エンジンにサイトを登録したのですが、クロールに失敗しているようで何度もエラーメッセージがきて困っています。 エラーメッセージの内容は日本語に訳しますと 場所誤差割合が100%である場合: ? ウェブ・ブラウザ(http://○○○○○○/robots.txtにアクセスする試み)の使用。 あなたがブラウザからそれにアクセスすることができれば、あなたのサイトがgooglebotへのアクセスを否定するように構成されるかもしれません。 googlebotへのアクセスを否定していないことを保証するためにファイアウォールとサイトの構成をチェックしてください。 ? あなたのrobots.txtが静的なページである場合は、あなたのウェブサービスがファイルにアクセスする適切な許可を持っていることを確認してください。 ? あなたのrobots.txtがダイナミックに生成される場合は、robots.txtを生成するスクリプトが適切に形成され走る許可を持っていることを確認してください。 あなたのウェブサイトがあなたのスクリプトが失敗しているかどうか確かめるためにログをチェックする、そして、場合、したがって、失敗の原因を分析する試み。 場所誤差割合が100%未満である場合: ? ウェブマスター・ツールを使用して、高いエラー率の一日を見つけて、その日の間ウェブサーバのためのログを検査してください。 その日の間ログ中のrobots.txtにアクセスするエラーを捜して、それらのエラーの原因を固定してください。 ? 最も有望な説明は、あなたのサイトが過負荷をかけられるということです。 集合供給者に連絡して、あなたのウェブサーバを再構成するかより多くの資源をあなたのウェブサイトに加えることについて議論してください。 ? あなたのサイトが転送する場合、別のホスト名に、別の可能な説明は、あなたのサイト上のURLがホスト名に転送しているということです、そのrobots.txtファイルの給仕は誰のを示しているか、これらの問題の1つ以上。 とのことです。 さくらサーバを使用しており、初期ドメインではきちんと登録されてたのに、独自ドメインを取得し、新たなサイトで検索エンジン登録を行ったところ、このような問題に直面しました。2つのサイトは同じさくらサーバからUPしています。 サーバにUPされているファイルをみたところrobots.txtというファイルは見当たらなかったんですけど初期ドメインのサイトはきちんと登録されているため、なにがどういうことなのはさっぱりわかりません。 どうすれば問題が解決されるか教えてください。お願いします!

質問者が選んだベストアンサー

  • ベストアンサー
  • naokita
  • ベストアンサー率57% (1008/1745)
回答No.1

http://○○○○○○/robots.txtにアクセスしてみましょう。 ファイルが無いのに、登録したとか、 404になっているとかの話じゃないのかな・・・ または、 サーバーが落ちてGoogleがクロールできなかった為のエラーとか。 正しく、robots.txtをアップしたとしても、 すぐにはエラーが消えない場合もあります。 自分で表示確認できれば、OKでしょう。 ※ 但し、.htaccessなどでアクセスをdenyにしない事。

369sanjou
質問者

お礼

お礼が遅くなってしまってすみません。 robots.textをUPしたところ、ちゃんとクロールされている様です。 まだエラーは消えてはいませんが、表示はされているので大丈夫だと思います。 こんなに簡単なことだったんですね! 本当にありがとうございました。

関連するQ&A

  • 【緊急】Googleウェブマスターツールのエラー

    Googleのウェブマスターツールで7/18付けで「Googleがサイトにアクセスできません」とのエラーが出ていました。 エラー全文↓ --------------------------- Googlebot が robots.txt へのアクセスを試みましたが、過去 24 時間で 41 件のエラーが発生しました。このファイルに指定されているページをクロールしないようにするため、クロールを延期しました。このサイト全体での robots.txt エラー率は 100.0% です。 --------------------------- FTPを確認し、2年前に前任者が設置したhtaccessが、 特定のIPアドレスを50ほど拒否する設定になっていました。 (2年前はスパムアクセスの多いサイトだった為?前任者が退職しているので詳しい理由が分からず) ◆対処した事 1.IP拒否のhtaccessを削除 →htaccessの拒否IPの中にGooglebotのアドレスが含まれていないとも限らないため 2.robots.txtがなかったので、下記の内容にして設置  User-agent: *  Allow: /  Sitemap: http://○○○.jp/sitemap.xml 3.念のためサーバ管理会社に連絡し、 サーバエラーや、サーバ側でのアクセス拒否設定など無いことを確認 その後、ウェブマスターツールに書いてあった通り、Fetch as Googleにてホームページの取得およびrobots.txtへのアクセスを試みましたが、2日経った今日現在も「robots.txt にアクセスできません」エラーが起きています。 Googleの下記フォーラムも確認してみましたが http://productforums.google.com/forum/#!topic/webmaster-ja/8J_0eFCW0tE サーバ側の問題でない場合、robots.txtのAllowとDisallowの違いくらいだと思うのですが・・・・ 上記のウェブマスターツールのエラーは7/11にも出ていたらしく、見逃してしまったせいで現在Googleからインデックスを削除されているようです。(ドメイン名で検索しても出てこない) robots.txtにアクセスできないエラーが解除されないことにはどうしようもないのですが、対処法がありましたら教えて下さい。宜しくお願いします。

  • Google ウェブマスター ツールのエラー

    Google ウェブマスター ツールのクロールエラー(URLエラー)の解決方法を教えて頂きたいです。 ●「アクセスが拒否されました」というクロールエラーが出ている ●レスポンスコードは403 ●考えられる原因が3つ表示されたのですが、意味がよくわからない という状況です。 考えられる3つの原因は ■あなたのサイトでは、ユーザーがコンテンツを閲覧するにはログインが必須となっているからです (ヒント: この問題を回避するには、ユーザーエージェント Googlebot についてはログインが不要になるように設定してください)。 ■あなたのサイト全体または個々の URL やディレクトリへの Google のアクセスをブロックするように robots.txt ファイルが設定されています。 ■あなたのサーバーが、プロキシを使用したユーザー認証を必須としているか、あなたが使用しているホスティング プロバイダが Google によるあなたのサイトへのアクセスをブロックしている可能性があります。 3つ目に関しては、もはや何のことを言っているのか想像もつきません。 エックスサーバーを借りて、ワードプレスを使用しています。見よう見まねでワードプレスなどを使用していますが、WEB関連の知識は全くの初心者です。 この問題、なにをどうすれば解決できるのでしょうか?どなたか助けて頂けるとありがたいです。 よろしくお願い致します。

  • robots.txt

    いろいろ調べてみたのですが、自分の知識が乏しいようでよくわからなく困ってしまいこちらで質問させていただきたいと思いますのでよろしくお願い致します。 当サイトのグーグルのウェブマスター ツール で確認してみたところ、 「ウェブ クロール エラー 」のURLにアクセスできませんという項目に28件もエラーがのっていました。トップページをはじめとしてエラーになっていたので心配になりました。「robots.txt にアクセスできません」となっております。 「robots.txt ファイルに対して URL をテスト」というのを試してみたのですが、ディレクトリとして検出されました。ファイルによっては固有の制限がある可能性がありますと表示されました。 以前はこんな表示はでてなかったように思いますし、これはどういうことなのでしょうか? こういう表示がでてきてるということは、エラーのページは無視されてしまうということですか? 今までは<META name="ROBOTS" content="ALL">というタグを埋め込んでましたが、これを使っても意味がないので削除するように教えていただいて実行したのですが、これと関係ありますか? どう対処していったらいいのしょうか? robots.txt というのを作成したことがなく、特に問題はなかったのですが、これは自分で作ってアップするものなのですか? どうごご助言よろしくお願い致します。

    • ベストアンサー
    • HTML
  • Google ChromeのSSL証明書エラー

    あるサイトにGoogle ChromeでHTTPSでアクセスした際、SSL証明書自体に問題はありませんが、アドレスバーの"https://"に赤い斜線と共に、「安全でない他のリソースが含まれています」と表示されます。他サイトのファイルを参照している等、SSLで保護されていないコンテンツが含まれる場合にこのエラーが表示されることは理解していますが、ドキュメントルートに置いたテキストファイル(ファイル名"test.txt"、内容は"hello"の5文字のみ)にアクセスしても、エラー表示に変化はありません。 Webサーバーの設定権限はありますが、同じ設定(異なるのはドメイン名程度)で、同じ認証局発行の証明書を使用している別サーバーに収容した別ドメインのサイトでは、Google Chromeのアドレスバーは緑色になっており、挙動の違いがわかりません。 どなたか原因について心当たりがありましたら、お教えください。

    • ベストアンサー
    • HTML
  • robots.txt HTTP/1.1" 404 208 について

    よろしくお願いします。 2年ほど自宅サーバーでHPを公開しています。最近、以下のようにローカルホストに対して robots.txt に関係するアクセスログが記録されます。 ------------------------------------------------------------------ 127.0.0.1 - - [ 日時記載省略 ] "GET /robots.txt HTTP/1.1" 404 208 127.0.0.1 - - [ 日時記載省略 ] "GET /robots.txt HTTP/1.1" 404 208 127.0.0.1 - - [ 日時記載省略 ] "GET /robots.txt HTTP/1.1" 404 208 127.0.0.1 - - [ 日時記載省略 ] "GET /robots.txt HTTP/1.1" 404 208 127.0.0.1 - - [ 日時記載省略 ] "GET /robots.txt HTTP/1.1" 404 208   ・   ・ ※ 行数は1アクセスに対して4~8行程度。(日によって変わる) ------------------------------------------------------------------ ログとしては未検出エラーのようですが、自サバのルートディレクトリーなどには robots.txt を、過去を含めて一度も設置した事がありません。 ただ、この現象が出だしたのは、利用しているHTTPソフトApache 2.0 を 2.2 へバージョンアップした頃から。また、別途公開しているブログ(OCN)のタイトル画像のリンクをこの自サバのルートに置いている画像から引き出した頃からです。 しかしこのような構成は過去からずっと行っており、従来から Apache 2.0 の利用で、robots.txtなるファイルも置いた事が無くログに今回のような内容は記録された事がありません。 以上のような事から、サーバーソフトの Apache を 2.0 から 2.2 へバージョンアップした事が起因しているのではないかと考えています。 判る方がおられましたら宜しくご指導ください。 その他の環境 OS:WindowsXP SP2 通信:NTTフレッツADSL+ルーターモデムWebCaster620 マシン:SONY VAIO デスクトップ機(CPU:800MHz AMD Duron)

  • 共有SSLでのクロール拒否

    共有SSLでのクロール拒否 レンタルサーバー(chicappa)で、お問い合わせ等の一部のページで共有SSLを使用しています。 同じhtmlファイルですが、共有SSL(https://~)の方をrobots.txtでクロールを拒否すると、通常(http://~)の方も拒否されることになるのでしょうか。 つまりhttps://secure~.jp/sample.htmlをrobots.txtで拒否する設定をすると、http://~.jp/sample.htmlも拒否になりますか? 両方ともhtmlファイルは同じです。

  • グーグルサイトマップ で robots.txt が勝手に作成される。

    グーグルウェブマスターツールでモバイルサイトマップを登録し、 数日後、サイト設定 → クローラーのアクセス を見てみると、 robots.txt を作成していないにもかかわらず、 行 4: Crawl-delay: 8 Googlebot によりルールが無視されました 行 7: Crawl-delay: 5 Googlebot によりルールが無視されました 行 10: Crawl-delay: 5 Googlebot によりルールが無視されました 行 13: Crawl-delay: 8 Googlebot によりルールが無視されました 行 16: Crawl-delay: 8 Googlebot によりルールが無視されました 行 19: Crawl-delay: 8 Googlebot によりルールが無視されました 行 22: Crawl-delay: 5 Googlebot によりルールが無視されました 行 25: Crawl-delay: 5 Googlebot によりルールが無視されました 行 28: Crawl-delay: 8 Googlebot によりルールが無視されました 行 31: Crawl-delay: 5 Googlebot によりルールが無視されました 行 34: Crawl-delay: 5 Googlebot によりルールが無視されました 行 37: Crawl-delay: 8 Googlebot によりルールが無視されました 行 40: Crawl-delay: 10 Googlebot によりルールが無視されました という文字列が解析結果に記載されておりました。 また、http://●●●.com/robots.txt というURLがクリック出来るようになっており、クリックするとアクセスが出来、 User-agent: Slurp Crawl-delay: 8 User-agent: msnbot Crawl-delay: 5 User-agent: nutch Crawl-delay: 5 User-agent: yeti Crawl-delay: 8 User-agent: Yeti/1.0 (NHN Corp.; http://help.naver.com/robots/) Crawl-delay: 8 User-agent: naverbot Crawl-delay: 8 User-agent: googlebot Crawl-delay: 5 User-agent: dotbot Crawl-delay: 5 User-agent: twiceler Crawl-delay: 8 User-agent: yandex Crawl-delay: 5 User-agent: Teoma Crawl-delay: 5 User-agent: BoardReader Crawl-delay: 8 User-agent: Exabot Crawl-delay: 10 このようなテキストファイルが表示されました。 自分では作成しておらず、もちろんサーバーにはアップしておりません。 FTPでサーバー内を探してもそのような txtファイルは存在しておらず、削除も出来ず困っております。 普通に全部のページにクローラーに巡回してほしく、制限をかけるつもりもありません。 いろいろ調べたのですが、 行 4: Crawl-delay: 8 Googlebot によりルールが無視されました この文章の意味も良く理解が出来ず、クローラーの制限がかけられていたら嫌だなと思い、早急に対処法が知りたく思っております。 どうぞよろしくお願い致します。

  • Googleウェブマスター

    こんにちは。Googleウェブマスターツールのクローラのアクセスというところで、何をするべきかがわかりません。私のサイトは、ホームページ作製業者に頼んだページプラス、WordPressになります。WordPressのサイトマップを登録していて、そのアドレスが、www.xxxxx.com/blog/ というページになります。しかし、クローラのアクセス画面では、robots.txtファイルというところに、www.xxxxx.com/robots.txt が記入されていて、ステータスは、404(見つかりませんでした)となっています。これは、www.xxxxx.com/blog/に変える必要があるのかな?と自分なりに推測しているのですが、これを変えるやり方さえわかりません。もしごきょうじゅ頂けたらよろしくお願いします。

  • HPをリニュアルしUPして、Googleサイトに登録し、Sitemap

    HPをリニュアルしUPして、Googleサイトに登録し、Sitemap.Xmlも作成UPして robots.txtで検索エンジンのクロールを設定しようと思い、ウェブマスターツールから robots.Txtをみると 私のHPアドレスが http://www.eonet.ne.jp/~nmsougouなのに robots.txtのアドレスが http://www.eonet.ne.jp/robots.txtとなっていて 404エラーを返します。http://www.eonet.ne.jp/~nmsougou/robots.txtとならないといけないと思いますが、ウェブマスターツールからの変更および更新の仕方がわかりません。 このままでは、ロボット検索がされないのではないか心配です。 どなたか心やさしい方、この初心者を救ってください。よろしくお願いします。 追伸 Sitemap.Xmlは正常に見ることが出来ます。

    • 締切済み
    • SEO
  • ウェブマスター ツール について

    WordPress初心者です。 現在、WordPress使用してブログを作っています。 ブログのテンプレートを変更したり、サイトの中をいろいろ修正したいので 「Easy Pie Maintenance Mode」というプラグインで非表示にして、メンテナンスしています。 でもウェブマスター ツールから、下記のメールが届きました。 メッセージの言語は日本語に設定していますが英文のメールでした。 Googlebot can't access your site Over the last 24 hours, Googlebot encountered 252 errors while attempting to access your robots.txt. To ensure that we didn't crawl any pages listed in that file, we postponed our crawl. Your site's overall robots.txt error rate is 51.4%. You can see more details about these errors in Webmaster Tools. 自分で何とかしようと 「Webサイトのメンテナンス中画面を出す正しい作法と.htaccessの書き方」 http://web-tan.forum.impressrd.jp/e/2009/06/16/5880 というサイトを見つけたのですが、.htaccessが何の事だかさっぱりわからなくています。 HTMLとスタイルシートは少しは解るのですが、PHPとかも解らないレベルです。 どう対処したら良いか教えて下さい。 どうぞよろしくお願いします。

専門家に質問してみよう