質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Q&A

1回答

4828閲覧

tensorflow-gpuでGPUの使用率が上がりません

oshikosan

総合スコア4

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

0グッド

0クリップ

投稿2020/04/26 03:05

現在tensorflow-gpu(version==2.0)を使ってGPUによるコードの実行を試しているのですが、実行中のGPU使用率がほとんど上がりません。
具体的にはソースコード実行前のGPU使用率は0%なのに対し、実行中は10%~15%を推移しています(使用率はanaconda promptでnvidia-smiコマンドを実行して確認しました)。
さらに通常のtensorflow(GPUを使わないやつ)で同一のコードを実行した結果、コード実行中のGPU使用率が4%~12&を推移していることが確認できました(コード実行前は0%だったことも確認済みです)。

疑問点は以下の2点です。

①なぜGPUバージョンのtensorflowを使用しているのにも関わらずGPUの使用率がそこまで上がらないのか。
②なぜ通常のtensorflowを使用しているのに少しだけGPUの使用率が上がってしまうのか。

因みにコード実行中はどちらの場合も専用GPUメモリの使用率はしっかり消費されています(3.9GB/4.0GB)
原因がわかる方がいたらご教授願います。

⊡環境:
カッコ内のものはcpu環境の情報です。
・tensorflow-gpu 2.0(tensorflow 2.0)
・CUDAのバージョン:10.0
・cudnnのバージョン:7.4.1
・使用os:windows10
・実行環境:Python3.6.10(python3.6.8)
⊡ソースコード
※GPU使用の有無にかかわらず下記のコードを実行しました
※研究で使用しているデータが含まれているため、使用データのファイルは載せられませんがご了承ください。

%matplotlib inline
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Dropout, Activation
from tensorflow.keras.callbacks import TensorBoard
from tensorflow.keras.callbacks import ModelCheckpoint
from tensorflow.keras.optimizers import SGD,Adam

#訓練データファイルの読み込み
x_train = np.array(pd.read_excel(r'ファイル名.xlsx', header=None, index_col=None, sheet_name=0))
#正規化処理
x_train=x_train/100

#教師データファイルの読み込み
t_train = np.array(pd.read_excel(r'ファイル名.xlsx', header=None, index_col=None, sheet_name=1))

#テストデータファイルの読み込み
x_test = np.array(pd.read_excel(r'ファイル名.xlsx', header=None, index_col=None, sheet_name=2))
#正規化処理
x_test =x_test/100

#教師データファイルの読み込み
t_test = np.array(pd.read_excel(r'ファイル名.xlsx', header=None, index_col=None, sheet_name=3))

epoch_size = 1000
layer = []
for i in range(5):
layer.append(300)
output_num = 6

layer_2 = []
for i in range(5):
layer_2.append(300)

layer_3 = []
for i in range(5):
layer_3.append(300)

layer_num = 3
#モデルの構築
model_sgd = Sequential()
model_sgd.add(Dense(layer[0], activation='relu', input_dim=121))
for n in range(1,layer_num):
model_sgd.add(Dense(layer[n],activation='relu'))

model_sgd.add(Dense(output_num, activation='softmax'))

sgd = SGD(lr=0.001, decay=0.0, momentum=0.0, nesterov=False)

model_sgd.compile(loss='categorical_crossentropy',
optimizer=sgd,
metrics=['accuracy'])

stack_sgd = model_sgd.fit(x_train, t_train,
epochs=epoch_size,
batch_size=7,
validation_split=0.125)
score_sgd = model_sgd.evaluate(x_test, t_test, batch_size=5)

print(score_sgd)

x = range(epoch_size)
plt.figure(figsize=(11,7), dpi=70)
plt.plot(x, stack_sgd.history['loss'], label="SGD", color='blue')
plt.xlabel("epoch",fontsize=20)
plt.ylabel("Loss function",fontsize=20)
plt.legend(loc='upper right',fontsize=20)
plt.tick_params(labelsize=20)
plt.grid(True)
plt.show()

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

疑問点②について。

tensorflow 1.x 系は tensorflow-gpu で GPU 版がインストールされますが、2.x 系は -gpu をつけなくても GPU 版が入ります。
というより、2.x 系では CPU 版と GPU 版の区別がなくなって、普通に tensorflow を入れると GPU サポートを含んだバージョンがインストールされるようです。
これをインストールしているために GPU が使われているということではないでしょうか。

以下 URL をご参照ください。
https://www.tensorflow.org/install/gpu?hl=ja

投稿2020/04/26 07:10

kaijism

総合スコア2

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

oshikosan

2020/04/26 08:20

本当ですね、知りませんでした。 だとするとおそらくgpuを使っている方の仮想環境には通常のものとgpuバージョンの2種類のtensorflowが入っているかもしれないので見直してみたいと思います。tensorflowって本当にややこしい、、 情報ありがとうございます。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだベストアンサーが選ばれていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問