畳み込み層のあとにbatch normalizationを挟みたいのですが、tensorflowでどのように実装したら良いかわからず困っています。
公式ドキュメントにはtf.nn.batch_normalizationとtf.layers.batch_normalizationがあり前者を使えば良さそうな気がしているのですが、違いは何でしょうか?
また、tf.nn.batch_normalizationの公式ドキュメントには各引数が以下で定義されていますが、具体的にどのような値を渡せばよいのでしょうか?
batch normalizationが平均0,分散1にする処理なのであれば
mean=0, variance=1として渡せばよいのでしょうか?
batch_normalization(
x,
mean,
variance,
offset,
scale,
variance_epsilon,
name=None
)
初歩的な質問で恐縮ですがよろしくお願いします。
回答2件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2017/10/15 06:50