任意のフォルダ内にある同一カラムのtxtファイルを全てdataframeに読み込みたいのですが、
データ容量が大きいせいか、最後のconcat文でメモリーエラーが発生してしまいます。
個人的には、listに読み込んだデータをconcatする際にデータ量が
2倍になってしまっているように考えています。
処理時間が伸びても良いので、例えば、各ファイルの1行ずつを読み込んで、
dataframeに加えていくなど、メモリに優しい処理をアドバイスしてもらえないでしょうか?
セキュリティの都合で.py ファイルは使えません。
txt_files = glob.glob('./origin/*.txt') list = [] for f in txt_files: list.append(pd.read_table(f)) df0 = pd.concat(list)
回答2件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。