- ベストアンサー
WeBoXでのサイト全体DLを頻繁に行っても大丈夫?
WeBoXというソフトを使って、サイトの丸ごとダウンロードを、週一間隔でやりたいのですが、そういったことをしても、相手側のサーバーに迷惑をかけることはないでしょうか? このソフトは、一秒間隔で1ファイルのダウンロードを実行しているようです。(一秒に五六個ほどやっているようにも見えますが・・・。) 毎週ローカル保存を行いたいのですが、相手のサーバーに過剰な負荷をかけてしまうのではないかと心配です・・・。
- みんなの回答 (1)
- 専門家の回答
質問者が選んだベストアンサー
関連するQ&A
- WeBoXを使われている方!
お世話になります。 とても参考になるサイトが消えて無くなる前に、手元に保存しておくために、 使い勝手のいいソフトを探しており、現在は、『 巡集 』と、Firefox拡張の 『 Scrapbook 』を使い始めました。 ところが、巡集はご存知のように"開発終了"ですね。 Scrapbookは、ページをスクラップ感覚で保存するには、とても使い勝手が 良いのですが、「サイトまるごと」となると、少しばかり期待通り行かない ところがあります。 それは、サイトを取り込んだあと、同じサイト内にあるページへのリンクが 元のまま( つまり、<a href= 以下が元のままのアドレスで、リンクを クリックでローカルに保存されたページへジャンプさせるためには、手作業で 書き換えなければならないよう)で、リンクが多いとちょっと厳しい感があります。 巡集はそのあたり、取り込んだあとにはちゃんと書き換えられているようで、 リンククリックでちゃんとローカルのところにジャンプします。 そこで、質問なのですが、 『 WeBoX 』はそのあたりの設定はどうなっているのでしょうか? サイトをまるごと取りこりこんだあと、同じサイト内のページへはリンクをクリックで ローカルに保存されたページへとちゃんとジャンプする設定になっているのでしょうか? WeBoX ご使用の方々、宜しくお願い致します。
- ベストアンサー
- フリーウェア・フリーソフト
- ローカル環境とネット環境でホームページの文字の大きさが違う
Weboxというツールを使って、あるウェブサイトをまるごとダウンロードしたのですが、InternetExploreを使って閲覧すると、ローカル環境とネット環境とで、文字の大きさが一部異なる箇所があります。 (Firefoxでは一致しています) CSSファイルのリンクはちゃんとできているので、なぜ違いがおこるのかがさっぱりわからないです。 ウェブサーバ側でなにかしらの補修をしているくらいしか考えつかないのですが、そんなことってありえるでしょうか? またそれ以外にどんな原因が考えられるでしょうか? どうか宜しくお願いいたします。
- ベストアンサー
- HTML
- サイトまるごと取り込みソフト
sns(open pne)をまるごと保存したくて、 gethtmlwと言うフリーソフトを使ったんですけど、 ダウンロードできませんでした。 個人的に、調べたところ、 認証情報を設定ファイルに書き込みしないといけないみたいで、 cookieという専門的な事を知らないと、難しいみたいです。 他のソフト(webox)も使ってみましたが、 最初のページはダウンロードできるんですけど、 他のページは、snsの認証画面が出てきて、 ダウンロードできません。 gethtmlwの設定の仕方(書き換え?) それ以外に、良いソフトを知ってる方、 ご教授お願いします。
- ベストアンサー
- その他(プログラミング・開発)
- ソフトの削除について
はじめまして。初めてここで質問させていただきます。 手際が悪く、ご迷惑をおかけするかもしれませんが、 どうぞ、ご回答を宜しくお願いいたします。 PCのOSはXPのsp2です。 以下のことに困っております。 WeBoxというフリーソフトをダウンロードして 使用していましたが、必要ではなくなりました。そこで このソフトをPC上から削除したいのですが、どのように したら良いのでしょうか? また、 インターネット画面で右クリックすると、 ※WeBoxでこのページを取り込む ※WeBoxで全てのリンクを取り込む ※WeBoxで選択範囲を取り込む という関連付け?のような表示がされます。 この表示も、削除したいのですが、 どのようにしたら良いのかわかりません。 どうぞ、ご教授いただけたら幸いです。 宜しくお願いいたします。
- ベストアンサー
- その他(ソフトウェア)
- PHPのSleepについて
PHPでTwitterでメンションされたら自動返信するプログラムを書いて、Lolipopのcronにて1分間隔で実行されるようにしています。 しかし、どうしても1分間隔だと返信までに時間がかかってしまう場合があり、もう少し間隔を狭くしたいと考えております。 そこで、PHPのSleep関数を使用して 、関数呼び出し→20秒待機→関数呼び出しというプログラムにしました。 (ちなみにLolipopはPHPの処理時間が30秒までに制限されています) ここで疑問なのですが、Sleepの状態でもサーバー側に高い負荷がかかってしまうものなのでしょうか。 このプログラムでも問題ないのか、もしくはやめておいた方がよいのか教えていただけたら幸いです。
- 締切済み
- PHP
- ホームページを丸ごとDLする
Windows2000 IE 6.0 WWWサーバーに置いてあるファイルを(リンク先のファイルも含めて)一括ダウンロードして、ローカルディスクにホームページの複製を作り、後でゆっくり時間を気にせず読むことが出来るようにするフリーソフトをご存知ないですか。 私はフレッツADSLですので、あまり必要ないのですがダイアルアップ接続の友人から尋ねられましたので。
- ベストアンサー
- その他(インターネット・Webサービス)
- クエリの実行速度はサーバとPCとの接続方法で変わる
SELECT * FROM database WHERE col001=32 AND col002=223 ORDER BY id; 結果は0.5秒 ローカルPCにmysqlサーバをインストールし、ローカル内だけで使用しています。 そのうち共有のレンタルサーバーを借りようと考えています。 ローカル内だけの実行はネットの通信速度は無関係ですが、 レンタルサーバーで実行する場合は通信速度が関係してくると思います。 クエリの実行速度は通信速度に影響し、 上記の結果速度が、例えば0.5秒から1.7秒まで遅くなる。 といったようなことは起きませんか?
- ベストアンサー
- MySQL
- ホームページが丸ごと保存できません
はじめまして ホームページを丸ごとローカルに 保存をしたくて 保存ソフトを使用したのですが 保存できません 他のサイトを試しに保存したら 出来ました 保存したいサイトは http://zen.shinshu-u.ac.jp/ です 使用したソフトは 巡集・GETHTMLW・WeBox・ゲッチュ!! Ver3.21・Website Explorer PageDown・wget等で施行しましたがこのURLで表示される 画面と他にも画面・あとは開けないアプリ?のようなファイルが ダウンロードはできたのですが 画面からクリックしてもリンクが切れている状態で 他の画面も同様でした 興味深いサイトなので ローカルで保存したいのですが 私のネット環境は OSはWindows7 回線はワイマックスです なにとぞご教示下さい
- ベストアンサー
- Windows 7
- WEBサイトのローカルバックアップ方法について
先日の某サーバーの大規模障害を見て、今後はWEBサイトのバックアップを定期的にローカル環境に保存しておきたいと考えています。 ローカルへのバックアップ方法ですが、皆さんどうされていますか? 普通に、FTPソフトでサーバーからダウンロードしようかとも考えたのですが、当然時間がかかりすぎるので何か良い方法がないか探しています。さくらのレンタルサーバーを使っています。 初回以降は差分だけダウンロードできるようなツールなど、実際に運用していておすすめの方法はありますでしょうか?
- ベストアンサー
- ハードウェア・サーバー
- CPU負荷を測定したい
windows2000を使用しています。今、至急CPUの負荷を測定したいのですが、プログラミングの知識が無いためフリーソフトを探しています。 VECTORや窓の杜を探すと沢山あり、履歴をログに保存できるものを選んでいたんですが、どれもこれもまともに動いてくれません。 というのは、あるソフトで100ミリ秒間隔で測定してみると、ブラウザを連続で立ち上げたりしてCPU負荷を高めているのにログには一桁%ばかり、じゃぁ、ということで1ミリ秒で測定してみると、マウスを動かすだけで100%・・・。ログを見ると0,0,0、100,0,0,100,0・・・これでは役に立ちません。 他にもありましたが、なぜかタスクマネージャのCPU使用率はほぼ0%なのに、そのソフトの表示は常に144%だったり・・・。 どなたか、タスクマネージャ並に信用のおける(タスクマネージャがどれほど信用に足るかという話もありますが・・・)CPU負荷測定ソフト(ログ保存機能付き)をご存じないでしょうか?ログは最短500ミリ秒間隔で取れれば十分です。どうか、よろしくお願いします。
- ベストアンサー
- その他(PCパーツ・周辺機器)
お礼
ご回答ありがとうございます。 思っていた以上に迷惑なのですね・・・。今後DLはしないようにしようと思います。 教えていただいたサイト、とても便利そうです。早速使わせていただこうと思います。