• 締切済み

squidの設定

現在squidを利用してWebアクセスを行なっているのですが、 httpを使用し1M以上のファイルをアップデート(POSTリクエスト使用) した場合、squidからエラーが返され、うまくいきませんでした。 そこでsquid.confのrequest_body_max_sizeの値=ファイル制限と なっているようで、この値を無制限にしたいと考えております。 回線負荷は考慮する必要はなく、squid自身がおかしくなる事とかは ないでしょうか?うまく質問できませんでしたが、よろしくお願いします。

みんなの回答

  • ysk6406
  • ベストアンサー率40% (237/589)
回答No.1

亀レスですが、他の質問を検索していてたまたま気づいたので、回答させていただきます。 うちでも、request_body_max_size 0 として無制限で運用しています。 時には数十MB のデータを POST することもありますが、それによる squid への影響(障害)は、現在に至るまで全くありません。ご安心下さい。 なお、こちらの squid は、2.3-STABLE5 です。

UBIN999
質問者

お礼

回答ありがとうございます。 とりあえず当社でも無制限で運用を開始しています。 とりわけトラブルがないので、安心しています。 どうもありがとうございました。

関連するQ&A

  • squidの設定

    社内のあるセグメントで使用する為にProxyを立てるのですが、httpのアクセス制限として指定のドメインだけにアクセス、閲覧出来るように設定したいのですがsquid.confの設定の仕方が解らないのでご教授頂きたいのです。

  • Squidのhttps_port設定について

    Squidを使用してリバースプロキシを構築しています。 http_portは問題無くSquidでリクエストを受け、Webサーバーにリダイレクト出来ているのですが、 https_portの設定をすると、Squidの起動に失敗してしまいます。 squid.confの設定の問題の部分は、下記です https_port XXX.XXX.XXX.XXX:443 accel cert=/etc/squid/cert.pem key=/etc/squid/key.pem    defaultsite YYY.YYY.YYY.YYY protcol=http Squidバージョンは、squid-3.1.10-16.el6.i686です。 起動失敗時のメッセージは下記です。 ---------------------------------------------------------------------------- 2013/06/02 15:33:39| Processing Configuration File: /etc/squid/squid.conf (depth 0) FATAL: Bungled squid.conf line 67: https_port XXX.XXX.XXX.XXX:443 accel cert=/etc/squid/cert.pem key=/etc/squid/key.pem defaultsite YYY.YYY.YYY.YYY protcol=http Squid Cache (Version 3.1.10): Terminated abnormally. CPU Usage: 0.031 seconds = 0.015 user + 0.016 sys Maximum Resident Size: 19152 KB Page faults with physical i/o: 0 ---------------------------------------------------------------------------- Linuxを使い始めて間もない初心者ですので、初歩的部分で勘違いしているのかもしれませんが よろしくお願いします。

  • squid:リクエストされた URL は取得できませんでした

    現在squidを利用してリバースプロキシを行っているのですが、取得した独自ドメインの設定がうまく行きません。 エラーメッセージは以下のようなものです。 ===========エラーここから============== エラー リクエストされた URL は取得できませんでした ----------------------------------------------------------------以下の URL を取得した際に: http://www.aaa.com/ 次のエラーが発生しました: アクセスできません. 現在設定されているアクセス制御の設定のため,あなたからのリクエストは受けつけられません.この設定が正しくないと思われる場合には,このサービスの管理者へ連絡してください. ===========エラーここまで============== pingを打つと、 www.aaa.com の名前解決は出来ているようです。 C:\Documents and Settings\user>ping www.aaa.com Pinging www.aaa.com [bbb.ccc.ddd.eee] with 32 bytes of data: Request timed out. (サーバ側でICMPを破棄する設定をしています) Aサーバでsquidを作動させ、Bサーバに実際のHTMLファイルを置いています。 Aサーバへのアクセスがあった場合に、BサーバのvirtualHost設定をしているフォルダへ飛ばすようにしています。 Aサーバでは、 1)hostsファイルにwww.aaa.comの追加 2)aaa.com.zoneという名前のゾーンファイルの作成 3)named.confにaaa.com.zoneの追記 4)squid.confに「cache_peer_access www.aaa.com allow all」を追加 5)squidおよびnamedの再起動 を行いました。 Bサーバでは 1)hostsファイルにwww.aaa.comの追加 2)virtualHostにフォルダ等の設定 3)apache再起動 4)HTMLファイルをアップするフォルダの作成 以上を行いました。 サブドメインを作ったときには上記のような設定でうまく行ったのですが、何か足りない部分がありましたら教えていただけますでしょうか。 他に不足している情報がありましたらお伝えしますので、よろしくお願いいたします。

  • Sorarisにおいてのsquidでのhttpレスポンスについて

    初めましてNo18-RBと申します。よろしくお願いします。 Soraris8でsquid-2.5.STABLE3を利用してプロキシサーバを構築しております。 Webサーバ1 -- Webサーバ2 -- プロキシサーバ -- インタネット このような構成になっているのですが、Webサーバ2はSoraris8でApache1.3.28を使用しmod_proxyモジュールでリバースプロキシを実現しています。 Webサーバ2とプロキシサーバ間の通信は8080ポートです。 Webサーバ1 -- Webサーバ2間の通信は80ポートです。 そこでインターネットからWebサーバ1のコンテンツにアクセスした際にプロキシサーバ→Webサーバ2とリバースプロキシされていくのですが、Webサーバ1からリダイレクトされたレスポンスのhttpヘッダーLocation部のURLの変化についてですが、 Webサーバ1 -- Webサーバ2へは Location:http://111.222.333.444(Webサーバ1のIP)/dir/ Webサーバ2 -- プロキシへは Location:http://AAA(Webサーバ2のhttpd.confのServername):8080/dir/ プロキシサーバ -- ブラウザへは Location:http://AAA(Webサーバ2のhttpd.confのServername):8080/dir/ のままレスポンスが返ってしまいリダイレクト先へアクセスできない状態です。Squidの設定でレスポンスのURLを変化させるような処理はできないのでしょうか? 以上よろしくお願い致します。

  • Win UpdateだけをSquidに通したい

    月1か定期WindowsUpdateが始まると、ネットが90分ほど使えなくなります。原因は一斉に起動したPCのアップデートでした。 一気にルータにデータが流れコリジョンも大量に発生させているだろうと容易に想像させる動きを見ていて、「WindowsUpdateだけSquidを通せないだろうか?」と思いました。 プロキシサーバ(Squid)を用意すればルータを通らずに解決できれば良いかと考えたのですが、相手先との最近のやり取りはもっぱらWebなので、キャッシュを通したくありません。 特定のサイト(ましてWindowsUpdateのようにラウンドロビンがかかっているもの)だけをどうやって設定するのか??Google先生に聞いてもピンとする回答がなくどうしたものかと考えています。 一斉のPCの更新でネットが動かなくなるくらいのパケットが通ってしまう場合は、皆さんどうされていますか?回線増強は予算不足のためできないので、何とか現状でやりたいと思っています。よろしくお願いいたします。 ちなみにWindowsの設定で「配信の最適化」というものがあり、すべてのPCで「他のPCからのダウンロードを許可」をオンにしてみましたが、結果は何も変わりませんでした。

  • cURLの413エラーの解決方法を教えてください

    PHP5.3.8にてcURLを使用しているのですが、あるサイトのページを取得し、それをファイルに書き込もうとして このページ(http://www.phppro.jp/phptips/archives/vol16/3)を試してみようと思い、自分のパスワードなど入れて実行してみました。 しかし、2度目のCURL OUTPUT:が、 「Request Entity Too Large The requested resource /members/history.php does not allow request data with POST requests, or the amount of data provided in the request exceeds the capacity limit.」 となってしまいます。 これはphpproだけでなく、他のサイトでも同じになります。 よく分からなかったのですが、Webにて検索して post_max_sizeをphp.iniにて8Mとか変更し大きくしてみたのですがダメでした。 ファイルサイズなんて数Mもないと思うのですが。 http.confでも <Files *.php> LimitRequestBody 524288000 </Files> とかしてみてもダメでした。 何が原因なのか分かりません。 どのようにすればいいのでしょうか?

    • ベストアンサー
    • PHP
  • ファイルのアップロードサイズについて

    環境は linux+Apache+php になります。 ファイルのアップロードサイズについてですが、php.iniに post_max_size = 8M upload_max_filesize = 4M 等の記載がなく、またhttpd.confも AllowOverride none (.htaccessファイル 無効?) になっていた場合、アップロードできるサイズの制限はデフォルトの post_max_size = 8M upload_max_filesize = 2M になるのでしょうか? AllowOverride all の設定で、httpdファイルに記載が無い場合などは調べられたのですが htaccessが無効の場合がちゃんと調べられなくて、 デフォルトだろうなと思いながらも、知識のある方に教えていただきたく、 質問させていただきました。 よろしくお願いいたします。

    • ベストアンサー
    • PHP
  • Squidが応答しません

    海外在住でその国にサーバーがあるVPS(CentOS 5)でSquid(v2.6 Stable21)を構築しましたが応答しません。 VPSにあるWebサーバー(Apache)にはアクセスでき、正常に表示されるのですが、Squidはうんともすんともいわないです。 Squidは起動しており、sudo /etc/init.d/squid status を実行すると、 squid (pid 2649) is running... と表示されます。 しかし、IEでプロキシの設定をしてアクセスすると「プロキシ サーバーは応答していません」と表示され、そのままネットワーク診断をすると「リソース(Webプロキシ)はオンラインですが、接続試行には応答していません。」と表示されます。 アクセスログは空のままで、リスタートした際のキャッシュログは以下のようになっています。 Basic認証等もしておらず、http_access allow allとしています(そもそもアクセスログに何も残っていないですが) VPS側から他のネットワークにpingを飛ばしてみても正常に動いていますし、クライアントからVPS側にpingを飛ばしても正常に返ってきます。 squid.outには何もエラーは表示されておらず、store.logも空です。 /etc/sysconfig/iptables に下記を追加し、ポート3128も解放しています。 -A RH-Firewall-1-INPUT -m state --state NEW -m tcp -p tcp --dport 3128 -j ACCEPT また、クライアント側で他の公開されているプロキシを利用した際は正常に動いています。 何か考えられる原因や解決方法がありましたら、ご教示ください。 Preparing for shutdown after 0 requests Waiting 30 seconds for active connections to finish FD 14 Closing HTTP connection Shutting down... FD 15 Closing ICP connection Closing unlinkd pipe on FD 12 storeDirWriteCleanLogs: Starting... Finished. Wrote 0 entries. Took 0.0 seconds ( 0.0 entries/sec). CPU Usage: 0.012 seconds = 0.008 user + 0.004 sys Maximum Resident Size: 23984 KB Page faults with physical i/o: 2 Memory usage for squid via mallinfo(): total space in arena: 2508 KB Ordinary blocks: 2430 KB 5 blks Small blocks: 0 KB 5 blks Holding blocks: 244 KB 1 blks Free Small blocks: 0 KB Free Ordinary blocks: 77 KB Total in use: 2674 KB 97% Total free: 77 KB 3% Squid Cache (Version 2.6.STABLE21): Exiting normally. Starting Squid Cache version 2.6.STABLE21 for i686-redhat-linux-gnu... Process ID 2649 With 1024 file descriptors available Using epoll for the IO loop DNS Socket created at 0.0.0.0, port 41221, FD 7 Adding nameserver 8.8.8.8 from /etc/resolv.conf Adding nameserver 8.8.4.4 from /etc/resolv.conf User-Agent logging is disabled. Referer logging is disabled. Unlinkd pipe opened on FD 12 Swap maxSize 102400 + 8192 KB, estimated 0 objects Target number of buckets: 425 Using 8192 Store buckets Max Mem size: 8192 KB Max Swap size: 102400 KB Local cache digest enabled; rebuild/rewrite every 3600/3600 sec Rebuilding storage in /var/spool/squid (CLEAN) Using Least Load store dir selection Set Current Directory to /var/spool/squid Loaded Icons. Accepting proxy HTTP connections at 0.0.0.0, port 3128, FD 14. Accepting ICP messages at 0.0.0.0, port 3130, FD 15. WCCP Disabled. Ready to serve requests. Done reading /var/spool/squid swaplog (0 entries) Finished rebuilding storage from disk. 0 Entries scanned 0 Invalid entries. 0 With invalid flags. 0 Objects loaded. 0 Objects expired. 0 Objects cancelled. 0 Duplicate URLs purged. 0 Swapfile clashes avoided. Took 0.3 seconds ( 0.0 objects/sec). Beginning Validation Procedure Completed Validation Procedure Validated 0 Entries store_swap_size = 0k storeLateRelease: released 0 objects

  • sslを使いたいが設定が分からず

    redhatlinux7にopensslはインストールでき、一応、https://でアクセス可能になりました。 sslを使いたい理由は、webサーバのあるディレクトリは、.htaccessファイルにより、制限はしているのですが、やはりsslを使った方が安心できるだろう、という事からです。 しかし、現在は、この制限しているディレクトリは、http://でもアクセスできるような状態になっています。 できれば、このアクセス制限をしているディレクトリはsslのみのアクセスにしたいところです。 この様にするには、どの様にしたら良いのでしょうか? また、一般的には、DNSにCNAMEを定義し、httpd.confを書き変えるなどしてバーチャルホストにした方が良いのでしょうか。 何れにしても、httpd.confの設定になるのだろうと思いますが、この設定がイマイチです。 なにか良いサイトか、書籍などを紹介いただければありがたいです。 何卒、宜しくお願いいたします。

  • httpd.confのアクセス制限の負荷について

    Apacheで14個のディレクトリに対し、アクセス制限を行いたいのですが、 .htaccessで制限するとサーバの負荷は上がってしまうと思うので、 .htaccessを使用せず、httpd.conf の<directory>でアクセス制限を 行う分には、サーバの負荷はそれほど上がらないでしょうか?