階層型ニューラルネットワークでの活性化関数についての質問になります。
現在、活性化関数は中間層と出力層ともにシグモイド関数を用いているのですが、中間層のみReLU関数にしようと考えています。
tensorflowでの実装の仕方を調べたところ、ReLU関数の引数のところの書き方が様々あり、わからない状態にあります。
python
1#シグモイドのみ 2y1 = tf.sigmoid(tf.matmul(input, weights)) 3y2 = tf.sigmoid(tf.matmul(y1, weights1)) 4yhat = tf.sigmoid(tf.matmul(y2, weights2)) 5 6#変更後、中間層にReLUを適用 7y1 = tf.nn.relu((tf.matmul(input, weights))) 8y2 = tf.nn.relu(tf.matmul(y1, weights1))) 9yhat = tf.sigmoid(tf.matmul(y2, weights2))
このようなコードでやろうとしているのですが、いくつかのサイトでこのようなコードをみました。
python
1y1 = tf.nn.relu(tf.matmul(input, weights)+bias)
これはbiasを使っているときのみこのような引数を与えるのでしょうか?
私自身、ニューラルネットワークを学んでから数ヶ月の段階ですので、簡単な質問かもしれませんが、ご回答いただけるとありがたいです。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2018/07/07 09:18 編集
2018/07/07 12:22
2018/07/08 04:39