ニューラルネットワークで使われる活性化関数のReLUで、なぜ非線形の関数が表現できるのでしょうか?
確かに「xが0以下の時は0、0より大きい時はxそのものの値を出す」ので、ReLUの関数自体は非線形ですが、
実際の学習時には、zそのものが出力で返されるだけなので、非線形性を表現できないと思ったのですが、
なぜ、ReLUで非線形性を表現できるのか?を教えていただきたいです。
よろしくお願いいたします。

回答1件
あなたの回答
tips
プレビュー
投稿2019/04/25 11:09
ニューラルネットワークで使われる活性化関数のReLUで、なぜ非線形の関数が表現できるのでしょうか?
確かに「xが0以下の時は0、0より大きい時はxそのものの値を出す」ので、ReLUの関数自体は非線形ですが、
実際の学習時には、zそのものが出力で返されるだけなので、非線形性を表現できないと思ったのですが、
なぜ、ReLUで非線形性を表現できるのか?を教えていただきたいです。
よろしくお願いいたします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。