🎄teratailクリスマスプレゼントキャンペーン2024🎄』開催中!

\teratail特別グッズやAmazonギフトカード最大2,000円分が当たる!/

詳細はこちら
Jupyter

Jupyter (旧IPython notebook)は、Notebook形式でドキュメント作成し、プログラムの記述・実行、その実行結果を記録するツールです。メモの作成や保存、共有、確認などもブラウザ上で行うことができます。

CUDA

CUDAは並列計算プラットフォームであり、Nvidia GPU(Graphics Processing Units)向けのプログラミングモデルです。CUDAは様々なプログラミング言語、ライブラリ、APIを通してNvidiaにインターフェイスを提供します。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

2回答

14216閲覧

tensorflowでGPUメモリの使用量を抑えたいが上手くいかない

koyamashinji

総合スコア45

Jupyter

Jupyter (旧IPython notebook)は、Notebook形式でドキュメント作成し、プログラムの記述・実行、その実行結果を記録するツールです。メモの作成や保存、共有、確認などもブラウザ上で行うことができます。

CUDA

CUDAは並列計算プラットフォームであり、Nvidia GPU(Graphics Processing Units)向けのプログラミングモデルです。CUDAは様々なプログラミング言語、ライブラリ、APIを通してNvidiaにインターフェイスを提供します。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

1クリップ

投稿2020/11/30 13:27

編集2020/12/02 13:04

tensorflowを実行するとGPUメモリの殆どを確保してしまうので、それを抑えたく、tfのバージョンに合わせて
tf.config.experimental.set_memory_growthや、gpu_options.allow_growth = True等を試しましたが、
どうしても大部分(3.7/4.0GB程度)が確保されてしまい、制限できません。

ちなみに、Jupyter Notebookを使用しています。

環境

  • windows 10

  • GPU : NVIDIA GeForce GTX 1650(専用メモリは4G)

  • python 3.7.9 + TensorFlow-GPU 1.15.0 (python 3.6.12 + TensorFlow-GPU 2.0.0)

  • Kerasはインストールしてない

  • Visual Studio Community 2017

  • CUDA 10.0

  • cuDNN 7.6.0


tensorflowのメモリ使用量を抑制するコード(エラーは出ず、正常に実行されます)

tensorflow-gpu=2.0.0の環境と、tensorflow-gpu=1.15の環境を、Anacondaで作成し、
それぞれ実行しましたが、どうしてもメモリを抑えられません。

import tensorflow as tf print("Tensorflow Ver: ", tf.__version__) if tf.test.gpu_device_name(): print('Default GPU Device: {}'.format(tf.test.gpu_device_name())) else: print("Please install GPU version of TF") gpu_id = 0 print(tf.__version__) if tf.__version__ >= "2.1.0": physical_devices = tf.config.list_physical_devices('GPU') tf.config.list_physical_devices('GPU') tf.config.set_visible_devices(physical_devices[gpu_id], 'GPU') tf.config.experimental.set_memory_growth(physical_devices[gpu_id], True) elif tf.__version__ >= "2.0.0": physical_devices = tf.config.experimental.list_physical_devices('GPU') tf.config.experimental.set_visible_devices(physical_devices[gpu_id], 'GPU') tf.config.experimental.set_memory_growth(physical_devices[gpu_id], True) else: from tensorflow.keras.backend import set_session config = tf.ConfigProto( gpu_options=tf.GPUOptions( visible_device_list=str(gpu_id), # specify GPU number allow_growth=True ) ) set_session(tf.Session(config=config))

検証に使用したCNNモデル

from tensorflow.keras import datasets, layers, models (train_images, train_labels), (test_images, test_labels) = datasets.cifar10.load_data() train_images, test_images = train_images / 255.0, test_images / 255.0 model = models.Sequential() model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(32, 32, 3))) #Conv2D(32, (3, 3)):2次元畳み込み層、「3x3」の大きさのフィルタを32種類使用 model.add(layers.MaxPooling2D((2, 2))) model.add(layers.Conv2D(64, (3, 3), activation='relu')) #Conv2D(64, (3, 3)):2次元畳み込み層、「3x3」の大きさのフィルタを64種類使用 model.add(layers.MaxPooling2D((2, 2))) model.add(layers.Conv2D(64, (3, 3), activation='relu')) # Dense Layerの追加(全結合)- Classifier(分類) model.add(layers.Flatten()) model.add(layers.Dense(units=64, activation='relu')) model.add(layers.Dense(units=10)) #10個のアウトプット model.compile(optimizer='adam', loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True), metrics=['accuracy']) model.fit(train_images, train_labels, batch_size=64, epochs=1, validation_data=(test_images, test_labels))

### (参考)↓学習実行と同時にメモリを取りに行く
イメージ説明

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答2

0

ベストアンサー

Anaconda Promptで
set TF_FORCE_GPU_ALLOW_GROWTH=true
python プログラムのファイル名.py
としたら、メモリー使用量が減りました

環境変数 TF_FORCE_GPU_ALLOW_GROWTH の設定をせずに、ご提示のコード(allow_growth=True とか実行している方)をプログラムのファイルの先頭に追加しても、効果はありませんでした

投稿2020/12/01 00:14

jbpb0

総合スコア7653

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

koyamashinji

2020/12/01 13:25

毎度回答ありがとうございます。 (Jupyter Notebookを使っていますが)set TF_FORCE_GPU_ALLOW_GROWTH=true python プログラムのファイル名.ipynb としても、やはりメモリを取りに行ってしまうようです・・・(tf2.0.0とtf1.15どちらの環境でも同じ結果となりました) 調べても原因がわからず・・Jupyterを使用していることに関係あるでしょうか。
jbpb0

2020/12/01 15:11

ipynb ではなく、それを py に変換して、set ...=true を実行した直後に、同じアナコンダプロンプトで、 python ***.py で実行してみてください それなら、当方と同じ実行方法なので、おそらく効果あると思います また、Windowsのデスクトップの「PCアイコン」を右クリック→プロパティ→システムの詳細設定→環境変数 で、「TF_FORCE_GPU_ALLOW_GROWTH」を新規作成して、値に「true」を設定してみてください そうすれば、Jupyterでも効果あるかもしれません
jbpb0

2020/12/02 05:20 編集

ipynb ファイルに import os print(os.getenv('TF_FORCE_GPU_ALLOW_GROWTH')) を追加したら、何て表示されますでしょうか? true なら環境変数が正常に反映されてますが、None だと反映されてません もし None なら、import tensorflow... より前に下記を追加してみるとか import os os.environ['TF_FORCE_GPU_ALLOW_GROWTH'] = 'true'
koyamashinji

2020/12/02 12:33 編集

print(os.getenv('TF_FORCE_GPU_ALLOW_GROWTH'))の結果がNoneだった為、 import tensorflow... より前にimport os os.environ['TF_FORCE_GPU_ALLOW_GROWTH'] = 'true'を実行したところ、 tensorflowのバージョン1.15の環境では正常にメモリが制限されました!有難うございます。 (それでも1.2/4.0GB使ってしまうようですが・・・) 同じコードをtensorflow2.0.0の環境で実行した場合も、正常にメモリ制限されました!! 大変助かりました。毎度、有難うございます。感謝致します。
guest

0

jbpb0様のご提案に基づき、以下のとおりコードを書くと、無事解決できました。

ポイントは、

  • os.environ["TF_FORCE_GPU_ALLOW_GROWTH"]= "true" を、import tensorflowの前に実行すること

正直、(★)以降のコードについては、かなり色んなサイトやブログで紹介されていますが
(★)以降のコードを実行せずとも、tensorflowをimportする前に 環境変数 TF_FORCE_GPU_ALLOW_GROWTHをTrueに設定すれば、正常にメモリ抑制できました。

Code

1# この部分は必ずTensorflowをimportする前に実行する 2import os 3os.environ["TF_FORCE_GPU_ALLOW_GROWTH"]= "true"  4 5# tensorflowをインポートし、バージョンを確認 6import tensorflow as tf 7print("Tensorflow Ver: ", tf.__version__) 8 9# GPUを認識しているか確認 10if tf.test.gpu_device_name(): 11 print('Default GPU Device: {}'.format(tf.test.gpu_device_name())) 12else: 13 print("Please install GPU version of TF") 14 15# TFのメモリ制限が有効か確認(trueが返ったら有効、Noneが返ったら無効) 16print(os.getenv('TF_FORCE_GPU_ALLOW_GROWTH')) 17 18#(★) 19# Tensorflowのバージョンに応じて、メモリ使用量を抑えるコードを実行 20# gpu_id = 0 21# print(tf.__version__) 22# if tf.__version__ >= "2.1.0": 23# physical_devices = tf.config.list_physical_devices('GPU') 24# tf.config.list_physical_devices('GPU') 25# tf.config.set_visible_devices(physical_devices[gpu_id], 'GPU') 26# tf.config.experimental.set_memory_growth(physical_devices[gpu_id], True) 27 28# elif tf.__version__ >= "2.0.0": 29# #TF2.0 30# physical_devices = tf.config.experimental.list_physical_devices('GPU') 31# tf.config.experimental.set_visible_devices(physical_devices[gpu_id], 'GPU') 32# tf.config.experimental.set_memory_growth(physical_devices[gpu_id], True) 33 34# else: 35# from tensorflow.keras.backend import set_session 36# config = tf.ConfigProto( 37# gpu_options=tf.GPUOptions( 38# visible_device_list=str(gpu_id), # specify GPU number 39# allow_growth=True 40# ) 41# ) 42# set_session(tf.Session(config=config))

投稿2020/12/02 13:01

編集2020/12/02 13:36
koyamashinji

総合スコア45

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

jbpb0

2020/12/02 13:08

(★)以降のコードも要ります?
koyamashinji

2020/12/02 13:31

(★)以降のコードを消して実行したところ、うまくいきましたので、要らないようです。ご指摘有難うございました。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.36%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問