• ベストアンサー

phpPgAdminの動作が重い

レコード数が増えていくうちに、なぜか最近phpPgAdminの動作が劇的に重くなってきました。 以前はスムーズに動作していたのですが、ある日を境に(原因は全くわかりませんが)とても重くなっています。 特にテーブル内容を表示するときにはタイムアウトするほど動作が重いです。(ただ、PostgreSQL自体の動作は遅くなっていないようです) 何か動作を軽くする方法があれば教えてください。 現在レコード数は約4万、ダンプファイルのサイズは4MB程度です。 サーバーはXREAを利用しているのですが、サーバーの仕様は公開されていないため不明です。

質問者が選んだベストアンサー

  • ベストアンサー
回答No.1

統計情報の更新はされておりますでしょうか? 統計情報更新は、 psql <データベース名> でDBにつないで、 VACUUM ANALYZE; とするか、 vacuumdbコマンドを使い vacuumdb -z -d <データベース名> とすれば出来ます。 これでSELECT文が劇的に早くなることがあります。

関連するQ&A

  • [環境]

    [環境] OS:WindowsVista xampp-win32-1.7.3 postgresql-8.3.11-1 + phpPgAdmin-4.2.3 [問題点] xamppをインストール後、postgreSQLをインストール、phppgadminを導入して動作することができたのですが、作成したテーブルをエクスポートしようとすると下記の内容が表示されます。 原文:Windows 上での複合テーブルとスキーマ名のダンプはサポートしていません。 htmlデコード:Windows 上での複合テーブルとスキーマ名のダンプはサポートしていません。 エクスポートも、ダウンロードは問題ないのですが、SQLやCopyの表示になるとこうなります。(CSVはなぜか表示される。) PostgreSQLが悪いのか、phpmyadminが悪いのか、そもそもxamppかWinVistaがだめなのかさっぱりな状況です。わかる方助けて頂けないでしょうか? (添付の画像がエクスポート実行結果です。都合上DB名は黒く塗りつぶしています)

  • 一部のレコードをバックアップ・リストアしたい。

    PostgreSQLでデータベースのバックアップは pg_dumpで良いのですが、特定テーブルの一部のレコードを抽出したデータをMySQLに移したいのですが、どのようにすれば良いのでしょうか? Postgresqlは Linuxで7.2.3 MySQLは WindowsXPで 5.0.11 です。

  • Linux上のpostgreSQLデータをWindowsでみたい

    サーバA(OS:Linux Fedora Core 4、データベース:PostgreSQL 8.0 で運用しているシステムがあり、毎日そのデータを下記のdumpコマンドで PostgreSQLの全データをバックアップしています pg_dumpall > postgres.out  サーバAを触るのは怖いので、別のマシンB(Windows-Xp)に postgresql-8.2.6をインストールしました。 このバージョンは、postgresqlとともに、pgAdmin3というGUIの管理 ツールもついていると聞きここに、サーバAからバックアップされている postgres.outをrestoreして pgAdmin3でデータベース・テーブル等をみようとしています (postgres.out)を使ってのリストアの仕方は (1)(postgres.out)をpostgresqlの/binディレクトリの中に入れる (2)psqlのメニューから次のコマンドを打つ psql -d manmg -f postgres.out   (3)pgAdmin3を立ち上げるとサーバAのDBは追加されているようなのですが  テーブルは(0)となって見えません マシンBの方のPostgreSQLについてはインストールしたままでサーバA のpostgresqlの設定等は何もしていません 何か設定する所はあるのでしょうか 上記手順でlinuxから吐出されたバックアップデータをWindowマシンに リストアする方法は間違っていないのでしょうか よろしくお願いします。

  • MySQLのバックアップについて

    MySQLのバックアップについて フルテキストインデックスを使用したレコード数15万行、総容量500MBのテーブルと、 その各レコードに対応する細かいデータを格納しているレコード数15万行、容量3MB程度のテーブル3つがあります。 各テーブルでレコード数が毎日約300行、1ヶ月約1万行ほどのペースで増え、古いレコードも頻繁に更新されます。 このようなテーブルを定期的にバックアップしたいのですが、 どのように行うのが良いのでしょうか? サーバーの仕様を確認したところ、mysqldumpは使用できるようです。 3つのテーブルを1つのファイルにmysqldumpしgzipしたところ容量は70MBでした。 mysqldumpした結果をphp等からGmail(Googleの大容量メールサービス)に送信し、 30日経ったら自動で削除されるように設定するのが良いという説明を読んだのですが、 Gmailの添付ファイルの容量制限は25MBだそうです。 ちなみに、レンタルサーバーのメールボックスの容量制限は30MBでした。 通常のメールに送り、Outlook等で定期的に削除する設定を行った場合、 すぐに(と言うか1回未満で)容量制限をオーバーしてしまうということなのでしょうか? そもそも500MBのテーブルのmysqldumpやそれを添付したメールの送信には サーバーにどれくらいの負荷がかかっているのでしょうか? 毎日1回実行しても良い程度の負荷なのでしょうか? (データベース容量制限3GBの共有サーバーを使用しています) 以上、よろしくお願いします。

    • ベストアンサー
    • MySQL
  • PostgreSQLのデータインポートについて

    初めて質問させていただきます。どうかお教えください。 今2つの別々の共用レンタルサーバーに、 それぞれPostgreSQLが組み込まれており、 それぞれデータ以外は、同じ状態になっています。 そこで、片方のサーバーからもう一方のサーバーへデータを移して、 同じデータの状態にしたいのです。 今までは、サーバー上にあるphpPgAdminというツールから、 テーブルのデータをエクスポートし、その後もう一つのサーバーの phpPgAdminにてインポートしていたのですが、 データの量が多くなったために、上記でエクスポートしたデータを テキストエディタで20分割し、少しづつインポートしなければならなくなりました。(データ量が多いとインポート時にphpPgAdminでエラーが発生するようです) 共用レンタルサーバーで利用できる 多量のデータをインポートできるツールなどはございませんでしょうか hiroko

  • アクセスからSQLサーバーへ移行の目安

    よく 多数で使うならSQLサーバー、 もしくは一人で使っていてもデータ量が多いならSQLサーバーへ移行、 と聞きますが 後者はどのくらいのデータ量を言うのでしょうか? 現在、 レコード数が10000レコードを超えるテーブルが2つあり、 テーブル数も10個あります。 ファイルのサイズは30MBです。 すでにデータを分割してリンクテーブルとしていますが この場合SQLサーバーへ移行するメリットはありますか? よろしくお願いします。

  • いま自宅(linux)でPostgresqlでデータベースを構築し、1

    いま自宅(linux)でPostgresqlでデータベースを構築し、10万件規模のデータを管理しています。 このデータは日々更新されるのですが、この更新情報を 外部のレンタルサーバ内のPostgresqlに簡単にコピーする方法はないでしょうか? レンタルサーバ側はport=80/443くらいしか通さないので postgresqlに直接接続することができません。 今現在は、 自宅のpostgresqlからsql形式でdumpファイルを作成し、 その中身から比較的新しいSQLを抜き出し、  レンタルサーバ側のphppgadminをたちあげ、さきほどSQLをコピー&ペーストし実行 という面倒なことやってます。 上記を解決する ソフトやツール or レンタルサーバに置くWebアプリサンプル or 参考情報 などあればおねがいします。

  • PostgreSQLへのODBC接続について

    現在、Access2010+PostgreSQLにて業務システムを構築しております。 Access内では、ODBC接続によるパススルークエリーを用いて、 直接データベース内のレコードの取得を行っています。 質問は、この操作を有線LANで行うと特に待つことも無くレコードの取得が 出来るのですが、無線LAN経由で同操作を行うと、 開くまでに以上に時間がかかり、取得する件数によってはタイムアウトしてしまう事もあります。 (例えば、レコードの取得件数を1件にすれば開きますが、100件にするとタイムアウトします) ただし、無線LAN自体の接続自体は電波強度も良好ですし、 ブラウザでのWebサイト閲覧などは特にストレスなく行う事が可能です。 また、同じデータベースをデータベース管理ツール(PgAdminなど)では 特にタイムアウトなどする事なく、テーブルの中身を閲覧することが可能です。 (レコード件数は数千件です) どうも「Access+PostgreSQL(ODBC接続)」と「無線LAN」を組み合わせた時だけ 接続が遅くなっているような状況です。 レコードの取得と言っても何万件・何十万件のレコードを取得するわけではありませんし データのやり取りと言っても基本はテキストデータのやり取りだと思いますので そこまで回線の太さ速度が関係しないような気もします。 これはAccess・PostgreSQL・ODBCの設定で解消するのか それとも無線LAN自体の問題でしょうか。 分かる方教えてください。

  • pg_dumpの文字化け

    PostgreSQLのpg_dumpを用いたバックアップで困っています。 OSはVineLinux 2.2.17-0vl10です。 あるサーバ(PostgreSQL7.0.2)のデータベースtest_db(EUC_JP)に対して、 pg_dump -D -v -i -f test.dump test.db でダンプファイルを作成しました。 COPYでは不確実な場合があるということでINSERT文で出力しました。 (データの日本語の部分が数字に変換されています) それを別のサーバ(PostgreSQL8.2.5)のデータベースtest2_db(EUC_JP)にリストアしました。 psql test2_db < test.dump すると、"(株)"という文字を含む文字列が化けてしまっていました。 同じレコードの他のカラムは大丈夫です。 このような場合の対策がありましたら教えていただきたいと思います。 宜しくお願いします。

  • xrea.comでのバックアップDL

    xrea.com サーバーをレンタルしています。 ファイルマネージャーにログインして、public_html をクリックすると、 ディレクトリやファイルがあるのですが、「全て」を選択して、 「ダウンロード」をクリックしますが、数分経った後白画面になって終了してしまいます。 どうも、ファイル数が多いとタイムアウト?になってしまうみたいです。 ファイル数を少なく選択するとzipが出来上がりDLできます。 全部一度にまるごとDLはできないのでしょうか? サイト全体の容量は、約300MBです。