質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.50%
Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

Keras-RL

Keras-RLは、Kerasを用いてDQNなどの深層強化学習アルゴリズムを実装したライブラリです。学習する強化学習の環境をOpenAI Gymのインターフェースに準じて作成することが必要です。

Python 2.7

Python 2.7は2.xシリーズでは最後のメジャーバージョンです。Python3.1にある機能の多くが含まれています。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

2回答

2109閲覧

kerasの画像認識(Conv2D)に関する質問

yamato_user

総合スコア2321

Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

Keras-RL

Keras-RLは、Kerasを用いてDQNなどの深層強化学習アルゴリズムを実装したライブラリです。学習する強化学習の環境をOpenAI Gymのインターフェースに準じて作成することが必要です。

Python 2.7

Python 2.7は2.xシリーズでは最後のメジャーバージョンです。Python3.1にある機能の多くが含まれています。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2019/12/29 10:23

下記のようなプログラムの場合、それぞれの層でのベクトルのshapeがどんな構造になっているのかわかりません。
元々の入力は、(60000, 28, 28,1)です(グレースケール)

Python

1# 基本モデル作成 2model = Sequential() 3 4# Conv2Dレイヤーの追加 5model.add( 6 Conv2D( 7 filters=32, 8 kernel_size=(3, 3), 9 ) 10) 11 12 13# 2*2のmaxプーリング層追加 14model.add( 15 MaxPooling2D( 16 pool_size=(2, 2) 17 ) 18) 19 20# ドロップアウト層の追加 21model.add( 22 Dropout(0.2) 23) 24 25# フラット層の追加 26model.add( 27 Flatten() 28) 29 30# 全結合層の追加 31model.add( 32 Dense( 33 128, 34 activation='relu') 35) 36 37# ドロップアウト層の追加 38model.add( 39 Dropout(0.3) 40) 41 42# 出力層 43model.add( 44 Dense( 45 10, 46 activation='softmax' 47 ) 48)

Python

1> model.summary() 2Model: "sequential_6" 3_________________________________________________________________ 4Layer (type) Output Shape Param # 5================================================================= 6conv2d_4 (Conv2D) (None, 26, 26, 32) 320 7_________________________________________________________________ 8max_pooling2d_4 (MaxPooling2 (None, 13, 13, 32) 0 9_________________________________________________________________ 10dropout_7 (Dropout) (None, 13, 13, 32) 0 11_________________________________________________________________ 12flatten_4 (Flatten) (None, 5408) 0 13_________________________________________________________________ 14dense_7 (Dense) (None, 128) 692352 15_________________________________________________________________ 16dropout_8 (Dropout) (None, 128) 0 17_________________________________________________________________ 18dense_8 (Dense) (None, 10) 1290 19================================================================= 20Total params: 693,962 21Trainable params: 693,962 22Non-trainable params: 0 23_________________________________________________________________ 24

・入力ベクトルの、(60000, 28, 28,1)の1はグレースケールで、RGBなら3になるという認識でよろしいですか?
・そもそも入力ベクトルは、(60000, 28, 28,1)なのに、なぜ、(None, 26, 26, 32)のように深さが32層にも増えているのでしょうか? ここ を見ると、畳み込み層では縦×横の長さを減らす層で、深さ(32の部分)が増えるという認識がありませんでした。

そもそもの畳み込み層に関する認識が間違っている場合、ご指摘お願いいたします。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答2

0

・そもそも入力ベクトルは、(60000, 28, 28,1)なのに、なぜ、(None, 26, 26, 32)のように深さが32層にも増えているのでしょうか?

フィルタが1つある場合、フィルタリングを行った結果、 (H, W, 1) の1チャンネルの特徴マップができます。

イメージ説明

1つのフィルタが特徴マップを1枚生成する様子


例えば、32種類の異なるフィルタがあった場合、(H, W, 1) の1チャンネルの特徴マップが32枚できるので、それをチャンネル方向に結合した結果 (H, W, 32) が最終的なその畳み込み層の出力結果になります。
フィルタの数は出力数と言うこともあり、この値をいくつにするかが畳み込み層のハイパーパラメータの1つです。

各ライブラリでの呼び方

  • Keras の場合: filters
  • Pytorch の場合: out_channels

投稿2019/12/29 18:46

編集2019/12/29 18:47
tiitoi

総合スコア21956

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

0

ベストアンサー

・入力ベクトルの、(60000, 28, 28,1)の1はグレースケールで、RGBなら3になるという認識でよろしいですか?

はい、の部分は入力データのチャネルの値になりますので、RGBであれば3になります。

・そもそも入力ベクトルは、(60000, 28, 28,1)なのに、なぜ、(None, 26, 26, 32)のように深さが32層にも増えているのでしょうか? ここ を見ると、畳み込み層では縦×横の長さを減らす層で、深さ(32の部分)が増えるという認識がありませんでした。

英語の説明ではモノによっては(None, 26, 26, 32)の32をDepth(深さ)と表現しているものがありますが、基本的にはFilter(特徴マップ)と理解した方が良いと思います。
浅い層で具体的なエッジ情報を吸い上げていく中で、エッジ情報をその「特徴マップ」に従って深い層になるにつれて抽象化していくイメージでしょうか。

畳み込み層では縦×横の長さを減らす層で、深さ(32の部分)が増えるという認識がありませんでした。

上記のように考えると、「畳み込み層では縦×横の長さを減らす層で、縦横の情報を小さく圧縮しながら抽象化した特徴に仕分ける」、というような表現ができると思います。

より分かりやすい情報がありましたら追って更新します。


追補:
seraphyの日記にほぼ同じコードがありましたので、説明を含めこちらが参考になるかと思います。

投稿2019/12/29 11:32

編集2019/12/29 11:42
退会済みユーザー

退会済みユーザー

総合スコア0

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.50%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問