• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:大容量CSVの生成・ダウンロード)

大容量CSVの生成・ダウンロード

このQ&Aのポイント
  • postgreSQLから大容量のデータを抜き取り、CSVファイルとしてダウンロードする方法について悩んでいます。
  • 現在の方法では動作が重く、処理に不安があります。データを作成→ダウンロードする場合には別の手法を検討すべきか悩んでいます。
  • サーバ上に一時ファイルとして作成してからダウンロードするなど、より効率的な方法があるのかどうか教えてください。

質問者が選んだベストアンサー

  • ベストアンサー
  • ape5
  • ベストアンサー率57% (85/148)
回答No.1

お役に立てるかわかりませんが、そのデータの主キーが一列なら以下の方法がやりやすいかもです。 というのは、3番のSQLの実行でCSVに吐き出したいデータを取得しているのだと思うのですが、そこで、主キーに当たるもので範囲の条件を指定してあげて、CSVを小分けにしてはどうでしょうか?2回目は1回目の次のところから始めるって感じで。 ただ、最終的に一つのCSVにしたい場合は、テキストエディターなどでコピペでひとつにしてやらないといけないのですが・・・・。

motacilla
質問者

お礼

ありがとうございます。  その方法だと、一回あたりのダウンロードが小分けになり、良いですね。  ただ、リアルタイムに更新されるデータなので、CSVを分割する方法でも分割された最初のパッケージと、最後のパッケージの時差があっては望ましくないですので、データの生成は一気にやってしまわなければならない・・・ですので(汗)新たなボトルネックが発生しそうな・・・  なかなか難しいです・・・  

関連するQ&A

専門家に質問してみよう