現在tensorflow-gpu(version==2.0)を使ってGPUによるコードの実行を試しているのですが、実行中のGPU使用率がほとんど上がりません。
具体的にはソースコード実行前のGPU使用率は0%なのに対し、実行中は10%~15%を推移しています(使用率はanaconda promptでnvidia-smiコマンドを実行して確認しました)。
さらに通常のtensorflow(GPUを使わないやつ)で同一のコードを実行した結果、コード実行中のGPU使用率が4%~12&を推移していることが確認できました(コード実行前は0%だったことも確認済みです)。
疑問点は以下の2点です。
①なぜGPUバージョンのtensorflowを使用しているのにも関わらずGPUの使用率がそこまで上がらないのか。
②なぜ通常のtensorflowを使用しているのに少しだけGPUの使用率が上がってしまうのか。
因みにコード実行中はどちらの場合も専用GPUメモリの使用率はしっかり消費されています(3.9GB/4.0GB)
原因がわかる方がいたらご教授願います。
⊡環境:
カッコ内のものはcpu環境の情報です。
・tensorflow-gpu 2.0(tensorflow 2.0)
・CUDAのバージョン:10.0
・cudnnのバージョン:7.4.1
・使用os:windows10
・実行環境:Python3.6.10(python3.6.8)
⊡ソースコード
※GPU使用の有無にかかわらず下記のコードを実行しました
※研究で使用しているデータが含まれているため、使用データのファイルは載せられませんがご了承ください。
%matplotlib inline
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Dropout, Activation
from tensorflow.keras.callbacks import TensorBoard
from tensorflow.keras.callbacks import ModelCheckpoint
from tensorflow.keras.optimizers import SGD,Adam
#訓練データファイルの読み込み
x_train = np.array(pd.read_excel(r'ファイル名.xlsx', header=None, index_col=None, sheet_name=0))
#正規化処理
x_train=x_train/100
#教師データファイルの読み込み
t_train = np.array(pd.read_excel(r'ファイル名.xlsx', header=None, index_col=None, sheet_name=1))
#テストデータファイルの読み込み
x_test = np.array(pd.read_excel(r'ファイル名.xlsx', header=None, index_col=None, sheet_name=2))
#正規化処理
x_test =x_test/100
#教師データファイルの読み込み
t_test = np.array(pd.read_excel(r'ファイル名.xlsx', header=None, index_col=None, sheet_name=3))
epoch_size = 1000
layer = []
for i in range(5):
layer.append(300)
output_num = 6
layer_2 = []
for i in range(5):
layer_2.append(300)
layer_3 = []
for i in range(5):
layer_3.append(300)
layer_num = 3
#モデルの構築
model_sgd = Sequential()
model_sgd.add(Dense(layer[0], activation='relu', input_dim=121))
for n in range(1,layer_num):
model_sgd.add(Dense(layer[n],activation='relu'))
model_sgd.add(Dense(output_num, activation='softmax'))
sgd = SGD(lr=0.001, decay=0.0, momentum=0.0, nesterov=False)
model_sgd.compile(loss='categorical_crossentropy',
optimizer=sgd,
metrics=['accuracy'])
stack_sgd = model_sgd.fit(x_train, t_train,
epochs=epoch_size,
batch_size=7,
validation_split=0.125)
score_sgd = model_sgd.evaluate(x_test, t_test, batch_size=5)
print(score_sgd)
x = range(epoch_size)
plt.figure(figsize=(11,7), dpi=70)
plt.plot(x, stack_sgd.history['loss'], label="SGD", color='blue')
plt.xlabel("epoch",fontsize=20)
plt.ylabel("Loss function",fontsize=20)
plt.legend(loc='upper right',fontsize=20)
plt.tick_params(labelsize=20)
plt.grid(True)
plt.show()
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2020/04/26 08:20