私は、0以上の値を出力する深層学習モデルを作りたいと考えています。
回帰問題では出力層の活性化関数に線形関数を使用することが一般的だと思いますが、負の値も出力してしまいます。
0以上の値を出力したい場合は、出力層の活性化関数にReLUを使用してもよろしいのでしょうか?
投稿2021/12/06 05:07
私は、0以上の値を出力する深層学習モデルを作りたいと考えています。
回帰問題では出力層の活性化関数に線形関数を使用することが一般的だと思いますが、負の値も出力してしまいます。
0以上の値を出力したい場合は、出力層の活性化関数にReLUを使用してもよろしいのでしょうか?
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2022/08/04 09:04