質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.37%
深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

Q&A

0回答

688閲覧

畳み込み層の計算と重みの勾配の計算方法【深層学習青本】

asvv4197

総合スコア0

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

0グッド

0クリップ

投稿2021/07/06 09:56

編集2021/07/06 11:26

畳み込み層のイメージ(図6.7)
勾配の計算方法コード方法

1つ目の質問ですが、畳み込み層の計算(入力サイズと出力サイズの関係)についてです。
図6.7に関する解説に、
「つまり、入力のサイズがW×W×Kのとき、出力のサイズはW×W×Mとなる」という一文があります。
KがMになるのは理解できるのですが、出力のサイズもW×Wとなることが理解できません(出力サイズはWよりも小くなるのではないでしょうか?)入力画像に出力サイズがW×Wとなるようにあらかじめパディングが施されているのではないかと考えましたが、そうすると入力のサイズがW×Wよりも大きくなってしまうので困惑しております。この部分をどのように理解すればよいか教えていただきたいです。

2つ目の質問についてですが、畳み込みにおける勾配の計算です。
大変抽象的な質問となり申し訳ないのですが、ユニットi,j間で重みを与えるベクトルtjiを定義し、
wji=tji×h という式が出てきて以降以降、hの勾配を求める式までの流れを理解するのに苦しんでいます。

フィルターの係数hpqkmが重みwjiそのものに対応すると思っていたのですが、ここでtjiを定義してwjiを改めて求める理由は何なのでしょうか?また、そこから派生してTrという行列が出てきますが、Trがどのような行列なのか(成分数など)、Trを求める意味、そしてwの勾配とhの勾配の求め方について、理解できておりません。

根本で理解が間違っており、見当違いなことを言っている可能性もありますので、その部分も指摘していただけますと幸いです。以上2点、ご教示のほどよろしくお願いいたします。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

toast-uz

2021/07/06 11:11

教科書?のページをまるごと貼り付けていをように見えますが、著作権は大丈夫ですか?
asvv4197

2021/07/06 11:21

こんにちは、ご連絡いただきありがとうございます。大学側から配布されている資料なので大丈夫かと思いますが、念のため自作した資料に画像を変更致します。ご指摘ありがとうございました。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだ回答がついていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.37%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問