質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

89.99%

postgresのデータ取得時間を短縮したい

解決済

回答 3

投稿

  • 評価
  • クリップ 1
  • VIEW 2,190

zekterra

score 14

タイトルの通りpostgresからデータを取得する時間を短縮したいです。

テーブルには550万件ほどデータが格納されております。

日付の範囲を指定してデータを取ってくる処理をしているのですが、その応答時間が25秒ほどかかってしまいます。

SQL自体はシンプルですし、インデックスも作成していてテーブルの設定、プログラム、SQLの見直し程度ではこれ以上早くできないのではないかと思っております。

postgres自体の設定、OS、ハードウェアなどについては、すでに動いているシステムなので変更することが出来ない状況です。

以下にテーブルの構成、SQL文、実行計画を載せます。

申し訳ございませんがどなたかアドバイスを頂ければと思います。

※テーブル構成  テーブル名=「details_table」
response_time  timestamp
AA_id           varchar
port            varchar
octets          numeric

※SQL
SELECT 
response_time 
, octets 
FROM 
details_table 
WHERE 
AA_id = '0001' 
AND  port = '2110' 
AND  response_time BETWEEN '2015/10/20 18:24:32.562' AND '2016/10/20 18:24:32.562' 
ORDER BY 
response_time desc 

※実行計画
Index Scan Backward using pk_details_table on details_tablel  
(cost=0.56..118147.59 rows=1982 width=11)  
Index Cond: ((response_time >= '2015-10-20 18:24:32.562+09'::timestamp with time zone) AND (response_time <= '2016-10-20 18:24:32.562+09'::timestamp with time zone) AND ((AA_id)::text = '0001'::text) AND ((port)::text = '2110'::text))

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 3

+1

1.例えばテーブルを年単位や年月単位に分割してレコード数を少なくする。(jm1156さん)
2.vacuumやreindexは日常的なメンテナンスとして定期的に実行する。(A.Ichiさん)
3.サーバーパラメータをチューニング。

PostgreSQL のパフォーマンスチューニング - Qiita
http://qiita.com/cuzic/items/f9b846e6171a54079d77
俺的PostgreSQL9系postgresql.confチューニング - Qiita
http://qiita.com/m_46/items/28e506fe53f7ad1d48e0

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2016/10/19 15:17

    回答ありがとうございます。
    DBサーバの設定が変えることが出来ればよかったのですが出来ない状況です・・・
    リンク先については参考にさせていただきます。

    キャンセル

checkベストアンサー

0

550万件のデータを、なにかの条件で、100万件ほどのテーブルに分割できませんか?
もしくはそれ以下の件数、望むパフォーマンスが取れるくらいの。
再設計が必要になるとは思いますが。
例えば日付などで分割し、
SQLを投げる前に、どのテーブルに投げるかを判別するなどして、
対応のテーブルに対してのみ検索すれば早くなると思います。
全体から検索したいときのために、UNIONをかましたVIEWなども作っておくといいと思います。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2016/10/19 14:03

    回答ありがとうございます
    テーブルを分けるといった方法もあるのですね。
    それは思いつきませんでした
    テーブルを分ける方法も候補の1つとして考えてみます。

    キャンセル

0

システムなので変更することが出来ない状況です。

考えられるのは定石の
vacuum details_table;

インデックスも作成されていますので
reindex index ix_details_table;
(但し暇な時間帯に)

多分されているとは思いつつ、とりあえずです。

処理改善として並列処理を行えるので有れば、早くなる可能性があります。

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2016/10/19 15:19

    コメントありがとうございます。
    shared_buffersについては256MBでした。
    postgresql.confはいじれないのでこれ以上増やすことも出来なさそうです。

    キャンセル

  • 2016/10/19 19:07

    分割が可能であれば、テーブルをパーティションにする事ができます。パーティションを期間毎に分けておけば件数が少ない分高速に読み込めます。また従来のプログラムはそのまま親テーブルで処理を行う事ができます。

    キャンセル

  • 2016/10/20 21:43 編集

    横やりですが・・・。
    検索パターンがそのインデックスによるものがメインで、
    他が多少犠牲になってもよく、更にテーブルがぼぼ参照メインで更新がほぼ発生しないなどの条件が揃っているならCLUSTER登録するのは1つの手かもしれません。
    (物理的なレコード自体がインデックスの順序と一致するので、よりパフォーマンスが改善する可能性はあります。)

    ただしCLUSTERは動かした時点限りの順序しか保証しないので、その後追加や更新により順序が入れ子した場合は、
    再度CLUSTER実行する必要があります。
    (定期的にやらないといけないやつ。)

    後は他の回答者さんのおっしゃる通りテーブル継承によるパーティショニングとか、
    Ver9.5からだとBRINインデックスとかが使えるらしいです。
    http://pgsqldeepdive.blogspot.jp/2015/07/brin-index-part1.html?m=1

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 89.99%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

同じタグがついた質問を見る