質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.76%

python 大容量のテキストファイルからDATAFRAMEにデータを取り込みたい(時間はかかっても良いのでメモリを最小限に)

解決済

回答 2

投稿

  • 評価
  • クリップ 0
  • VIEW 255

icemanstanding

score 29

任意のフォルダ内にある同一カラムのtxtファイルを全てdataframeに読み込みたいのですが、
データ容量が大きいせいか、最後のconcat文でメモリーエラーが発生してしまいます。

個人的には、listに読み込んだデータをconcatする際にデータ量が
2倍になってしまっているように考えています。

処理時間が伸びても良いので、例えば、各ファイルの1行ずつを読み込んで、
dataframeに加えていくなど、メモリに優しい処理をアドバイスしてもらえないでしょうか?

セキュリティの都合で.py ファイルは使えません。

txt_files = glob.glob('./origin/*.txt')
list = []

for f in txt_files:
    list.append(pd.read_table(f))
df0 = pd.concat(list)
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 2

checkベストアンサー

+1

以下のように逐次concatすれば、途中は1つ分のテーブルのメモリしか使いません。

df0 = None
for f in txt_files:
    df = pd.read_table(f)
    if df0 is None:
        df0 = df
    else:
        df0 = pd.concat([df0,df])

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

0

個別にdataframe量産してリストにつっこんで、それとは別に大きいのを作るから重いのでしょうか。
(以下、試してはおりませんが…)
たとえば、下記リンクのようにはなからdataframeに入れ込んでいくとか。

pd.DataFrame({f: pd.read_table(f, index_col=0).squeeze() for f in glob('/path/to/files/*.dat')})
python-pandasで複数ファイルのデータを一度にDataFrameに読み込む

あるいは、別にファイル(json, csv等)作ってそこに追記していくとか。

あとは、この辺がもしかしたら関係あるかもしれません。

DataFrame構築時にカラムの型(dtype)を指定していないと、整数はint64 、小数はfloat64 が勝手に割り当てられます。どんな値も扱えるように、とにかく大きなサイズの型になっています。
Pandas.DataFrameのメモリサイズを削減する(最大で8分の1) [Python]

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.76%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る

  • トップ
  • Pythonに関する質問
  • python 大容量のテキストファイルからDATAFRAMEにデータを取り込みたい(時間はかかっても良いのでメモリを最小限に)