RAMメモリ以上のビックデータを扱う方法(実行時にショートする)
データフレーム型の大容量csvファイル(20gb×2)をPythonのmerge機能を用いて結合させようとするとメモリ不足になりパソコンがショートします。
**pandas: merge
例)
#結合 左寄せ
df = pd.merge(x, y, on='ID, how='left')**
大容量のデータベースを使用する際、このようなメモリ以上をうまく扱う方法はあるのでしょうか。
・外付けSSDを一時的にRAMとして扱う方法があるか
・国レベルのビックデータの解析を行う時はどのような工夫をしているのか(62, 128gb以上のデータを扱うこともあると思います)
使用しているパソコンスペック
・RAM 32gb
・CPU intel 10750H
・GPU RTX 2000
プログラミングコードの話ではないですが、ご教授お願い致します。
回答1件
あなたの回答
tips
プレビュー