• ベストアンサー

他のサーバーのファイルを大量に読み込んだら迷惑?

 他のサーバーにアクセスして、大量のhtmlファイルを開き、fgets()でそれらを読み込んだら、相手方のサーバーには迷惑になるでしょうか?  (以下のような感じです。URLの部分は、hを大文字で記述しています) <?php $fp = fopen("http://somewhere.org/page1.html","r"); while(!feof()){ $line = fgets($fp); fwrite($fp,$line); } fclose(); $fp = fopen("http://somewhere.org/page2.html","r"); while(!feof()){ $line = fgets($fp); fwrite($fp,$line); } fclose(); //・・・これを数十回くらい。 ?>  又、迷惑になる場合、ファイルを1つ読み込んだあと、sleep();で何秒か停止すれば迷惑かけずに済むでしょうか? もしそうなら、大体何秒くらいでしょうか?

質問者が選んだベストアンサー

  • ベストアンサー
回答No.1

どのレベルで迷惑か、と言うのは難しいですね。 最近は検索ロボットがキャッシュしまくってます。 中国の百度のロボットなんかは評判悪いですね。 1分間に1つのページ程度ならまず問題無いと思いますので、sleepで停止するよりはcronで1分毎にアクセスするのが良いかと。 相手のページが静的ページならサーバ負荷は大した事無いかもしれませんが、CGIやPHP等のプログラム&DBだとアクセス数が増えるとサーバ負荷も馬鹿になりません(個人的にはロボットからのXOOPSアクセスで最近パフォーマンスが落ちまくって困っています)。Yahoo等の大規模サイトならあまり気にする必要はなさそうですが、その辺の配慮もしてやれば問題が少ないでしょう。 参考まで。

noname#82539
質問者

お礼

 ご回答ありがとうございます。  再質問失礼しますが、 >1分間に1つのページ程度  というのは、cgiなどを使っているサイトについてのみのことでしょうか? それとも、静的ページについても、それぐらいはするべきということでしょうか?  できれば時間指定で行うのではない方が良いので、もしcgiのみについてのことであれば、cgiの読み取りを禁止して、htmlのみ読み取るようにしたいと考えています。

その他の回答 (1)

  • maura
  • ベストアンサー率46% (48/104)
回答No.2

他のサーバーにとって迷惑でもなんでもないと思います。 たったの数十回だし。

noname#82539
質問者

お礼

 ご回答ありがとうございます。大した迷惑でもないのですね。

関連するQ&A

専門家に質問してみよう