質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.35%
深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

強化学習

強化学習とは、ある環境下のエージェントが現状を推測し行動を決定することで報酬を獲得するという見解から、その報酬を最大限に得る方策を学ぶ機械学習のことを指します。問題解決時に得る報酬が選択結果によって変化することで、より良い行動を選択しようと学習する点が特徴です。

PyTorch

PyTorchは、オープンソースのPython向けの機械学習ライブラリ。Facebookの人工知能研究グループが開発を主導しています。強力なGPUサポートを備えたテンソル計算、テープベースの自動微分による柔軟なニューラルネットワークの記述が可能です。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Q&A

解決済

1回答

2080閲覧

pytorch backward時に出てくるメッセージをoffにしたい

Flan.

総合スコア123

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

強化学習

強化学習とは、ある環境下のエージェントが現状を推測し行動を決定することで報酬を獲得するという見解から、その報酬を最大限に得る方策を学ぶ機械学習のことを指します。問題解決時に得る報酬が選択結果によって変化することで、より良い行動を選択しようと学習する点が特徴です。

PyTorch

PyTorchは、オープンソースのPython向けの機械学習ライブラリ。Facebookの人工知能研究グループが開発を主導しています。強力なGPUサポートを備えたテンソル計算、テープベースの自動微分による柔軟なニューラルネットワークの記述が可能です。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

0グッド

0クリップ

投稿2020/06/19 10:13

編集2020/06/19 10:30
mainQN.eval() for i in trin_x: optimizer.zero_grad() output = mainQN.forward(inputs[i],"net_q") loss = criterion(output,targets[i]) loss=loss*weights[i] with amp.scale_loss(loss, optimizer) as scaled_loss: scaled_loss.backward() # ここを変更 optimizer.step()

出てくるメッセージ

Gradient overflow. Skipping step, loss scaler 0 reducing loss scale to 6.162975822039155e-33

このメッセージをoffにしたいです なぜか出ないときがたまにあるのですが
学習時 これが大量にでて困ってます 
表示しないようにする方法はありませんか?
情報が足りなければいってください

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

Flan.

2020/06/19 18:32

治ったと思ったんですが うまくいってませんでした だから質問しなおしました
kabayan55

2020/06/21 13:20

質問文に、前の質問のリンクを貼った上で、質問し直した理由も書いておくと良いと思います。こちらの欄だと気づかない方がいらっしゃるかと思います。
guest

回答1

0

ベストアンサー

このメッセージをoffにしたいです 

おそらくできません。backwardの引数など確認しましたが、この部分のon, offをする引数は無さそうでした。

なぜか出ないときがたまにあるのですが

出てくるメッセージについて、検索したり意味を考えたりしてみましたか? 翻訳をするというのも一つの手段です。
もし既にされていたら、「〇〇のキーワードで調べたけど情報が得られなかった」「〇〇と解釈したが正しいかわからない」などと質問に添えておくといいと思います。

なぜ出るときと出ない時があるか、メッセージの意味を考えてみるとわかると思います。

Gradient overflow. Skipping step, loss scaler 0 reducing loss scale to 6.162975822039155e-33

Gradient overflow、勾配が発散しています。つまり、メッセージはloss関数の勾配が発散しているときに出ています。

勾配発散問題については、以下の記事が参考になりそうでした。
勾配の更新に関する問題

投稿2020/06/21 13:17

kabayan55

総合スコア389

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.35%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問