深層学習で損失関数が下がらない理由は何が考えられますか?
ちなみに構築した深層学習のモデルは、入力層が23、隠れ層が4つあります。1つの隠れ層あたり216個のニューロンがあり、活性化関数にはReLuを使い、その後ドロップアウト0.5をかませています。
時系列データが将来上昇するか、下降するかの二値分類にしているため、出力のニューロンは2個になっています。
流れとしてはLinear、ReLU、Dropoutの順に繰り返しています。
- リスト損失関数が下がらない理由
- より結果を向上させるための工夫
について、まだ改善できそうなところがあるはずなので、どなたかわかる方がいらっしゃいましたら教えていただきたいです。
あなたの回答
tips
プレビュー