下記のようなプログラムの場合、それぞれの層でのベクトルのshapeがどんな構造になっているのかわかりません。
元々の入力は、(60000, 28, 28,1)です(グレースケール)
Python
1# 基本モデル作成 2model = Sequential() 3 4# Conv2Dレイヤーの追加 5model.add( 6 Conv2D( 7 filters=32, 8 kernel_size=(3, 3), 9 ) 10) 11 12 13# 2*2のmaxプーリング層追加 14model.add( 15 MaxPooling2D( 16 pool_size=(2, 2) 17 ) 18) 19 20# ドロップアウト層の追加 21model.add( 22 Dropout(0.2) 23) 24 25# フラット層の追加 26model.add( 27 Flatten() 28) 29 30# 全結合層の追加 31model.add( 32 Dense( 33 128, 34 activation='relu') 35) 36 37# ドロップアウト層の追加 38model.add( 39 Dropout(0.3) 40) 41 42# 出力層 43model.add( 44 Dense( 45 10, 46 activation='softmax' 47 ) 48)
Python
1> model.summary() 2Model: "sequential_6" 3_________________________________________________________________ 4Layer (type) Output Shape Param # 5================================================================= 6conv2d_4 (Conv2D) (None, 26, 26, 32) 320 7_________________________________________________________________ 8max_pooling2d_4 (MaxPooling2 (None, 13, 13, 32) 0 9_________________________________________________________________ 10dropout_7 (Dropout) (None, 13, 13, 32) 0 11_________________________________________________________________ 12flatten_4 (Flatten) (None, 5408) 0 13_________________________________________________________________ 14dense_7 (Dense) (None, 128) 692352 15_________________________________________________________________ 16dropout_8 (Dropout) (None, 128) 0 17_________________________________________________________________ 18dense_8 (Dense) (None, 10) 1290 19================================================================= 20Total params: 693,962 21Trainable params: 693,962 22Non-trainable params: 0 23_________________________________________________________________ 24
・入力ベクトルの、(60000, 28, 28,1)の1はグレースケールで、RGBなら3になるという認識でよろしいですか?
・そもそも入力ベクトルは、(60000, 28, 28,1)なのに、なぜ、(None, 26, 26, 32)のように深さが32層にも増えているのでしょうか? ここ を見ると、畳み込み層では縦×横の長さを減らす層で、深さ(32の部分)が増えるという認識がありませんでした。
そもそもの畳み込み層に関する認識が間違っている場合、ご指摘お願いいたします。
回答2件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。