質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.47%
深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

NumPy

NumPyはPythonのプログラミング言語の科学的と数学的なコンピューティングに関する拡張モジュールです。

メモリリーク

メモリリークは、プログラムファイルがメモリの解放に失敗した時に起こります。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

1回答

3295閲覧

Python 大量の画像ファイルの読み込み中、メモリ不足になる

shunyaI

総合スコア1

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

NumPy

NumPyはPythonのプログラミング言語の科学的と数学的なコンピューティングに関する拡張モジュールです。

メモリリーク

メモリリークは、プログラムファイルがメモリの解放に失敗した時に起こります。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2021/11/21 03:31

前提・実現したいこと

Python初心者です。
気か学習のyoutube見て、Pythonを使って画像認識ができるということを知り、オリジナルの画像分類を作ろうと考えています。
youtubeに記載していたコードをそのまま利用し、画像を4万枚ほど集めて実行したところメモリ不足になり途中で落ちます。

再び実行し、タスクマネージャーでメモリを確認したところ2000MB以上利用しており、そのまま落ちました。

ソースコード➀では画像をリスト配列に格納していましたが、numpy配列を利用することでメモリ不足を解決できると記事を読み、➁のプログラムを作りましたが、読み込み速度が➀に比べ遅くなりメモリの消費量が多く使えたものではありませんでした。

これを解決する方法ご存じの方、ご教授お願い致します。

発生している問題・エラーメッセージ

エラーメッセージ

該当のソースコード

ソースコード ➀ import tensorflow as tf import glob from tqdm import tqdm x_train= [] x_test=[] y_train=[] y_test=[] for f in tqdm(glob.glob("D:/画像判定/対象/*/*/*.jpg")): img_data=tf.io.read_file(f) img_data=tf.io.decode_jpeg(img_data) img_data=tf.image.resize(img_data,[240,240]) if f.split("\")[1]=="train": x_train=x_train.append(img_data) y_train=y_train.append(int(f.split("\")[2].split("_")[0])) elif f.split("\")[1]=="Test": x_test=x_train.append(img_data) y_test=y_train.append(int(f.split("\")[2].split("_")[0])) ➁ x_train= np.empty((0,240,240,3)) x_test=np.empty((0,240,240,3)) y_train=np.empty((0),int) y_test=np.empty((0),int) for f in tqdm(glob.glob("D:/画像判定/対象/*/*/*.jpg")): img_data=tf.io.read_file(f) img_data=tf.io.decode_jpeg(img_data) img_data=np.expand_dims(img_data,axis=0) if f.split("\")[1]=="train": category=np.expand_dims(np.array(int(f.split("\")[2].split("_")[0])),axis=0) x_train=np.append(x_train, img_data,axis=0) Y_train=np.append(y_train, category,axis=0) elif f.split("\")[1]=="Test": category=np.expand_dims(np.array(int(f.split("\")[2].split("_")[0])),axis=0) x_test=np.append(x_test, img_data,axis=0) y_test=np.append(y_test, category,axis=0)

試したこと

ここに問題に対して試したことを記載してください。
画像をリスト配列ではなくnumpy配列に格納するコードに修正

補足情報(FW/ツールのバージョンなど)

ここにより詳細な情報を記載してください。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

BeatStar

2021/11/21 05:06

メモリ増設しかないかと。それか他の方も仰っているように「小さい画像を使う」とかか。 メモリ上に配置している以上、メモリが足りなくなるのは当たり前です。 なので、メモリ増設しかないかと。(それでも足りなくなるとは思うが)
HRCo4

2021/11/21 08:08

データセットの定義の段階では BATCHxWxHxCH の空配列を用意してメモリを確保しておき、バッチ毎でそこに画像をロードすればよいのではないかと。 ただしこの場合、バッチ毎で画像ロードやら正規化やらの前処理が入るのでその分時間がかかります。
guest

回答1

0

python

1>>> (240 * 240 * 50000) / 1e6 22880.0

240 × 240 のモノクロ8ビット画像5000枚のメモリは単純計算して2880MByteです。
実際には、リサイズ前の画像やらモデルが使う画像やらもあります。

もっと小さな画像にしましょう。

メモリを増設すべきとにコメントが付いているようですね。

NNの学習で必要なGPUメモリを算出するの記事を参考にすると、

224×224の画像を処理するモデルが必要とするメモリは、約2391971436バイト、つまり約2.4GByteです。これと別に入力データ用のメモリが必要で、それは最初に書いたように約2.9GByteです。しかしそれらを動かすためにPythonもメモリを使っていますし、読み込んだ縮小前の画像もメモリを使っていますので、8GByteでは厳しいでしょう。
メモリを16BByteにすれば何とかなりそうですが、やってみないとわからないですね。

投稿2021/11/21 04:02

編集2021/11/21 08:20
ppaul

総合スコア24666

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだベストアンサーが選ばれていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.47%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問