• ベストアンサー

一部のページ・PDFページをロボット収集より拒否したい

通常のページであれば、metaタグで拒否できますが、.htaccessなどで収集拒否できないでしょうか? もし出来る場合は、書き方を教えて頂けないでしょうか? 1、収集拒否したいページ、1ページのみの場合。 2、あるフォルダの中にあるページを拒否したい場合 宜しくお願い致します。

質問者が選んだベストアンサー

  • ベストアンサー
  • ran_2323
  • ベストアンサー率43% (32/73)
回答No.1

「robots.txt」で検索エンジンにインデックスされることを防ぐという方法ががあります。 「robots.txt」を作成し、以下のソースを貼り付けるだけ User-agent: * Disallow: (拒否したいディレクトリ) public_htmlディレクトリ直下にアップしないと意味がないようなので、その点だけご注意。

morinokoe
質問者

お礼

.htaccessではなかったのですね。 User-agent: * Disallow: (拒否したいディレクトリ) 叉は、 User-agent: * Disallow: (ファイル名) を設置してみました。 回答有難うございます。

関連するQ&A

専門家に質問してみよう