質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.77%

tensorflow のgpu使用率が低いです どうすれば上げれますか?

解決済

回答 1

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 1,124

Flan.

score 32

tensorflow のgpu使用率が低いです 原因は不明

gpuを動かすとpc本体から高めのギギギ という音が鳴ります 
他でgpuに負荷をかけるようなことはしてないので 初めてなりました
これまずいやつ?

gpuは使えてます たぶん(二行ぐらいのコードのやつで試した)

環境
os win
tensorflow 2.2
cuda 10.1
cudnn 7.6.5
gpu rtx 2800 ti

使用率の低かった
コードに関しては大きめのモデルでランダムの行列をinputで2000回ほど動かすだけのものです

from tensorflow.python.client import device_lib
device_lib.list_local_devices()


結果
device_type: "CPU"
device_type: "XLA_CPU"
device_type: "GPU"

import tensorflow as tf
print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU')))


結果
Num GPUs Available:  1

試したこと
ググる→出てこない
他に何すればいいかわからない

何んで低いか教えてください

追記 コード 文字数制限のため一部省いてます

class QNetwork :
    def __init__(self,learning_rate, state_size, action_size):
        self.input1 = Input(shape=(state_size.shape))

        self.a=Conv2D(32,kernel_size=(3,3),padding='same',activation=LeakyReLU(alpha=0.01),
                      use_bias=True,kernel_initializer='he_normal',bias_initializer='zeros',kernel_constraint=max_norm(2.),
                      bias_constraint=max_norm(2.))(self.input1)
        self.a=Conv2D(32,(3,3),strides=1,padding='same',activation=LeakyReLU(alpha=0.01),
                      use_bias=True,kernel_initializer='he_normal',bias_initializer='zeros',kernel_constraint=max_norm(2.),
                      bias_constraint=max_norm(2.))(self.a)
        self.a=MaxPooling2D(pool_size=(2, 2))(self.a)

        self.a=Conv2D(64,kernel_size=(3, 3), padding='same', data_format=None, dilation_rate=(1, 1),activation=LeakyReLU(alpha=0.01),
                      use_bias=True,kernel_initializer='he_normal',bias_initializer='zeros',kernel_constraint=max_norm(2.),
                      bias_constraint=max_norm(2.))(self.a)
        self.a=Conv2D(64,kernel_size=(3, 3), padding='same', data_format=None, dilation_rate=(1, 1),activation=LeakyReLU(alpha=0.01),
                      use_bias=True,kernel_initializer='he_normal',bias_initializer='zeros',kernel_constraint=max_norm(2.),
                      bias_constraint=max_norm(2.))(self.a)
        self.a=MaxPooling2D(pool_size=(2, 2))(self.a)
        self.a=Flatten()(self.a)

          CNN 結構層数は多い

        self.a=Dense(200,activation='relu',
                     use_bias=True,kernel_initializer='he_normal',bias_initializer='zeros',kernel_constraint=max_norm(2.),
                     bias_constraint=max_norm(2.))(self.a)
        self.a=Dense(200,activation='relu',
                     use_bias=True,kernel_initializer='he_normal',bias_initializer='zeros',kernel_constraint=max_norm(2.),
                     bias_constraint=max_norm(2.))(self.a)
        self.a=Dense(850,activation='relu',
                     use_bias=True,kernel_initializer='he_normal',bias_initializer='zeros',kernel_constraint=max_norm(2.),
                     bias_constraint=max_norm(2.))(self.a)
        #-------------------------------------------------------------------------------
        # < Value function >
        self.ve=Dense(206,activation='relu',
                     use_bias=True,kernel_initializer='he_normal',bias_initializer='zeros',kernel_constraint=max_norm(2.),
                     bias_constraint=max_norm(2.))(self.a)
        self.ve=NoisyDense(1,
                     use_bias=True,kernel_initializer='he_normal',bias_initializer='zeros',kernel_constraint=max_norm(2.),
                     bias_constraint=max_norm(2.))(self.ve)
        self.dv=Dense(206,activation='relu'
                     ,use_bias=True,kernel_initializer='he_normal',bias_initializer='zeros',kernel_constraint=max_norm(2.),
                     bias_constraint=max_norm(2.))(self.a)   
        self.dv=NoisyDense(1,
                     use_bias=True,kernel_initializer='he_normal',bias_initializer='zeros',kernel_constraint=max_norm(2.),
                     bias_constraint=max_norm(2.))(self.dv)#Doring
        self.v = Concatenate()([self.ve,self.dv])#状態価値と行動価値結合
        self.v = Lambda(lambda a: K.expand_dims(a[:, 0], -1) + a[:, 1:] - K.mean(a[:, 1:], axis=1, keepdims=True), 
                        output_shape=(1,))(self.v)
        #--------------------------------------------------------------------------------
        # < Action Mean >
        self.mu=Dense(action_size,activation='relu',
                     use_bias=True,kernel_initializer='he_normal',bias_initializer='zeros',kernel_constraint=max_norm(2.),
                     bias_constraint=max_norm(2.))(self.a)
        #lllll
        self.l = Dense(int(action_size * (action_size + 1) / 2), activation="linear", name='l0')(self.a)
        self.l = Lambda(lambda x: tfp.math.fill_triangular(x))(self.l)
        self.l = Lambda(lambda x: tf.linalg.set_diag(x, tf.exp(tf.linalg.diag_part(x))))(self.l)
        self.l = Lambda(lambda x: tf.matmul(x,x))(self.l)
        # < Action function >
        self.u = Input(shape=(action_size,), name='action_input')
        self.u_mu = keras.layers.Subtract()([self.u, self.mu])
        self.u_mu_l = keras.layers.Dot(axes=1)([self.u_mu, self.l]) # transpose 自動でされてた
        self.u_mu_l = keras.layers.Dot(axes=1)([self.u_mu_l, self.u_mu])
        self.A = Lambda(lambda x: -1.0/2.0 * x)(self.u_mu_l)
        self.Q = keras.layers.Add()([self.A, self.v])
        # Input and Output -----------------------------------------------------
        self.net_q = Model(input=[self.input1,self.u], output=[self.Q])
        self.net_a = Model(input=[self.input1], output=[self.mu])
        self.net_v = Model(input=[self.input1], output=[self.v])

        self.adm = Adam(lr=learning_rate,beta_1=0.9, beta_2=0.999, amsgrad=False)  # 誤差を減らす学習方法はAdam
        # self.inputs.compile(loss='mse', optimizer=self.optimizer)
        self.net_q.compile(loss=huberloss, optimizer=self.adm,metrics=['accuracy'])

c=[np.random.rand(1,720,480,3),np.random.rand(1,2)]
print("uiiiiiiiiiiiiiiiiiiiiiiiiiiii")
a=QNetwork(0.001, np.zeros((720,480,3)),2)
print("uiiiiiiiiiiiiiiiiiiiiiiiiiiii")
for _ in range(4*5*10*5):
    a.net_q.predict_on_batch(c)
print("ok")
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • tiitoi

    2020/05/22 17:52

    検証に使用した動作するコードを追記できますか。
    あと、使用率をどのように確認したのか教えて下さい。

    キャンセル

  • Flan.

    2020/05/23 12:09

    使用率はタスクマネージャーです

    キャンセル

回答 1

checkベストアンサー

0

tensorflowがGPU対応ではない可能性はないでしょうか?

https://qiita.com/usagani/items/d047f8751db9b3042bc3

tensorflowには、CPU版とGPU版(tensorflow-gpu)があります。
インストールしているライブラリを見れるコマンドで確認してみてください。(pip listなど)
ギギギーとなっているということなので、CPUで動いているのではないかなと思っております。
2080tiで動かしていて音がなるというのは考えにくいです。

>使用率が低い
こちらは、タスクマネージャーで確認されましたでしょうか?GPUを2つ以上挿していたら、
tensorflow-gpuが片方でしか使われておらず、2080tiでは使われていないかもしれません。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2020/05/23 11:58

    一つしかないです gpu tensorflow2はgpuとcpuは一緒と聞いたのですが
    gpu版にするかしかないかで試したんですが一緒でした

    キャンセル

  • 2020/05/24 21:05

    調べてみると、そうみたいですね。1系しか使ったことがなかったので、知りませんでした。
    それではあまり良い回答ではないかもしれませんね。

    1系でtensorflow-gpuを使ってもダメでしょうか?
    mklやcudnnなどの必要なモジュールのバージョンが妥当である必要があるみたいです。
    何か参考になれば。。。

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.77%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る