kerasの活性化関数はどのように使い分けますか?
「relu」「linear(恒等関数)」「elu」「selu」「relu」「softmax」「softplus」「spftsign」「tanh」「sigmoid」「hard_sigmoid」
質問1. 回帰問題の出力層の活性化関数は「linear」のみ使用可能だという認識ですが、他にありますか?
質問2. 分類問題の出力層で使用可能な活性化関数は上記のうちどれですか?
質問3. 中間層の活性化関数では、「linear」以外使用可能という認識ですが、間違いないでしょうか?それとも、回帰と分類で使用可能なものが異なりますか?
以上よろしくお願いいたします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。