質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.76%

SQLiteからDataFrameへの読み込みに時間がかかりすぎる

解決済

回答 1

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 815

MagMag

score 42

SQLite形式でデータベースを作り、データの前処理をするためにPandasのDataFrameに読み込もうとしています。ただ、この読み込みに非常に時間がかかって困っております。

周波数×時間の構造を取るデータのため、列数が多く、大きさとしては1000列×24万行というデータです。また、同じdbファイルには同様のデータが10テーブルほどあります(ファイルは1つだが、テーブルは分けています)。

以下コードのように、単純なselect * でも読み込みに数分かかってしまう状況です。なお、コンソールからselect * を実行すると3秒程度で読み込めます。

import pandas as pd
import sqlite3

with sqlite3.connect('master.db') as conn:
    df = pd.read_sql_query(sql=f'select * from table', con=conn, index_col='time')

直接の回答ではなくても、この種類のデータならこのSQLを使った方がいいという回答でも大変助かります。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • キャンセル

  • hoshi-takanori

    2020/04/21 10:30

    いずれにせよ、一般的なアプリケーションであれば高速化のコツは「サボること」です。例えば最初の 500 件だけ表示するとか、本当に必要になるまで計算しないとか、以前の計算結果を覚えておいて差分だけ計算するとか。ですが、おそらく MagMag さんの場合はガチで全部のデータを使って計算したいのでしょうから、頑張って計算するしかないのでしょうし、2GB のデータはそれなりに大きくてまともに処理したら時間がかかって当たり前、という感覚は持っておいた方がいいかと思います。

    キャンセル

  • MagMag

    2020/04/21 10:33

    ありがとうございます。SQLからデータを取るところではなく、Python側の方で工夫してみます。

    もし、すでにいただいた回答をメインの方にコピペしてもらえれば、ベストアンサーにさせていただきます。

    キャンセル

回答 1

checkベストアンサー

+2

一般的なデータベースの設計論というのは、事務処理的なアプリケーションが前提となっているというか、例えば正規化はデータの整合性を保つためのもので、速くするためのものではありませんし、primary key (というか index) は 24 万件の中から特定のものを素早く探し出すためのもので、全件を取り出すには当然それだけの時間がかかります。また、データをすべて読み込むにはデータベース側だけでなく、python 側で受け取ったデータをメモリ上に配列として展開する必要がある訳で、むしろこっちに時間がかかってる可能性もあります。

とりあえず「python データ処理 高速化」でググったらこんなのが引っかかりました。

いずれにせよ、一般的なアプリケーションであれば高速化のコツは「サボること」です。例えば最初の 500 件だけ表示するとか、本当に必要になるまで計算しないとか、以前の計算結果を覚えておいて差分だけ計算するとか。ですが、おそらく MagMag さんの場合はガチで全部のデータを使って計算したいのでしょうから、頑張って計算するしかないのでしょうし、2GB のデータはそれなりに大きくてまともに処理したら時間がかかって当たり前、という感覚は持っておいた方がいいかと思います。

あとは、愚直にデータ構造とアルゴリズムを工夫することでしょうね。

ハイパフォーマンスPython」なんて本もあるようです。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2020/04/21 10:48

    ありがとうございました。大変勉強になりました。

    キャンセル

  • 2020/04/21 10:49

    追加情報までいただき、感謝です!

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.76%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る