teratail header banner
teratail header banner
質問するログイン新規登録
Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

2回答

640閲覧

Python 大きいデータから特定のものを抽出

Cherry

総合スコア4

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2022/12/01 08:51

0

0

前提

ここに質問の内容を詳しく書いてください。
Pythonでsalesデータの処理をしています。
データの形式はcsvファイルで、11.7GBと大きいです。
また、顧客データもそこにくっつけたいです。

実現したいこと

ある年度以降のデータのみ抽出して処理したいのですが、データをまず全部読み込むことができないため苦戦しています。
理想としては、
1.ある年度以降のデータのみ抽出して新しいファイル作成
2.同じ時期以降の顧客データを1にくっつける

発生している問題・エラーメッセージ

エラーメッセージ

該当のソースコード

ソースコード

試したこと

ここに問題に対して試したことを記載してください。

補足情報(FW/ツールのバージョンなど)

ここにより詳細な情報を記載してください。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

TakaiY

2022/12/01 09:54

質問にはコードもデータのサンプルも無いので手法についての回答が付いてますが、いきなりプログラムのエラーメッセージを出されても対応できません。 - 書いてみたコードがあるのであれば。 - 実際のデータのサンプルを提示しましょう。 実データとくっつけたい顧客データ。 - どのような出力/結果が欲しいのかの内容。 あたりを、質問に追記していただけますか。
meg_

2022/12/02 00:38

> データをまず全部読み込むことができないため苦戦しています。 データが小さければ処理自体はできる(抽出するコードは書ける)ということで良いですね?
guest

回答2

0

全部読み込まずとも、テキストファイルとして1行読み込み、それをCSVとして変換し、処理する、ってのでどうでしょう

投稿2022/12/01 09:02

y_waiwai

総合スコア88180

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

Cherry

2022/12/01 09:06

テキストファイルとして読み込んだ後に、必要なデータを抽出し、それをcsvに変換するということでしょうか?
y_waiwai

2022/12/01 09:14

CSVファイルってのは基本テキストファイルなので、1行づつ、あるいは一定行数づつ読むってのはできるでしょう そうやってファイルが尽きるまで、読み込み>処理を繰り返せばいいかと
Cherry

2022/12/01 09:27

charmap' codec can't decode byte 0x8d in position 772: character maps to <undefined> というエラーが出てしまいました
Cherry

2022/12/01 10:02

試してみたコードはこちらです。 import csv #csvファイルを指定 Sales = "C:/Users/sakur/OneDrive/ドキュメント/卒業研究/sales_data (1).csv" #csvファイルを読み込み rows = [] with open(Sales) as f: reader = csv.reader(f) for row in reader: rows.append(row)
y_waiwai

2022/12/01 11:14

文字コードがあってないというエラーなんで、Shiftjisでも指定してみては
guest

0

ベストアンサー

※日付が順番に並んでる場合に限ります
とりあえず方法はいくつか見つかったので提案とサイトの紹介を。
方法1:chunksizeでファイルを分割して読み込む→指定年度以降のデータだけ利用する
結合前に前処理とかもやってしまえば結合時のメモリ使用量も抑えられるかも

方法2:usecolsで日付だけ取得→skip_rowsで必要なところまで読み飛ばしてから取得
1列だけの読み込みなら耐えられる場合。日付比較でindexが取得できると思うので、その行までskip_rowsで読み込みを飛ばす作戦

そのほかもいろいろ調べたら出てくるとは思いますが、とりあえず軽く調べて目についた二つを提案してみます。

こちらのサイトが参考になると思います。
pandas でメモリに乗らない 大容量ファイルを上手に扱う
【Python】Pandasで大きなcsvファイルを読み込む

投稿2022/12/01 10:08

pig_vba

総合スコア808

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

Cherry

2022/12/01 10:41

提案していただいた、方法1を試したところ。50万件ずつ読み込み、中身をみてみました。 2020年以降のデータを用いたいのですが、300万から350万件目の間に2020年の最初のデータがあることがわかりました。 ここから、具体的に何番目のデータに2020年1月1日のでーたがあるのか調べられるのでしょうか。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.30%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問