前提
現在特殊な方法で集められたデータが手元に存在しておりそれらが1行ずつデータで存在しており、データの問い合わせやAPI化を検討しているためMySQLに移動させて利便性を上げたいのですがいまいち大規模データをMySQLにインサートする方法が思い浮かびません
実現したいこと
Python, Node.JS(Deno)などでファイルをストリームで1行ずつ読み込みながらそれをどんどんインサートしていく感じで作成していますがもちろん遅すぎて終わる気がしないため何か別言語やテキストファイルの内容をSQL文やCSV形式に整形してインポートが出来るなら整形できるため現時点では一番現実的かなと思っています
発生している問題・エラーメッセージ
1行ずつのINSERT処理だと遅すぎる
試したこと
現在はNode.JSにてreadlineを使用して1ラインずつ読み込み、Sequelizeを使いINSERTをしてみましたがあまりにも遅すぎました
補足情報(FW/ツールのバージョンなど)
MySQL (バージョンは未定、パフォーマンスが良い物を採用)
回答3件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2023/01/07 15:35