ニューラルネットワークの活性化関数としてReLUがよく使われますが,いまいちメリットがわかりません.入力が0以上のとき,傾きが1なので勾配消失問題が解決されることは分かったのですが,それなら恒常関数ではダメなのですか?なぜわざわざ入力がマイナスのときの傾きを0としたほうがいいのですか?どうかご教授頂けると幸いです。よろしくお願いいたします。
回答1件
あなたの回答
tips
プレビュー
投稿2021/05/29 05:59
ニューラルネットワークの活性化関数としてReLUがよく使われますが,いまいちメリットがわかりません.入力が0以上のとき,傾きが1なので勾配消失問題が解決されることは分かったのですが,それなら恒常関数ではダメなのですか?なぜわざわざ入力がマイナスのときの傾きを0としたほうがいいのですか?どうかご教授頂けると幸いです。よろしくお願いいたします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2021/05/29 11:11
2021/05/29 14:57
2021/05/29 18:05