Youtubeに分かり易い動画があり、それを見てDeep Learningの勉強しています。
引用で添付させて頂いた、以下の動画のスクリーンショット(8:03秒あたり)に、2層めの『重み付き和(z)』の計算例が記載されています。
(以下、引用動画のリンクを追加させて頂きました、失礼致しました)
【深層学習】誤差逆伝播法|バックプロパゲーション_youtube
これで、一番最初にくる重みが理解出来ません(赤枠で表示した重み)
これは何ですか?
各重みとニューロンを足して行って、重み付き和になるのですが、一番最初の重みだけっていうのが理解出来ません、しかも、2層めの0ニューロンから1ニューロンと表示されています。
動画の6:18秒あたりから始まるニューロンの図では、最初は1入力層(x1)から1層めの1ニューロン(a11)という風になっています(赤枠で表示した重み)
図中のどこにも『0番目のニューロン』などと表示されていません。
なぜ0番目のニューロンなどというものが、いきなり現れるのでしょうか?
それと、この不思議な重みの必要性とは一体、なんでしょうか?
他のサイトで、左から右へと、ニューラルネットワークが伝播して行くときに、入力層の一番最後に『1と言う数字のバイアス』というものがあり、これもよく理解出来ませんでした。
これと何か関係があったりするのでしょうか?
と言う事で、この最初の重みについて、すいませんが教えて頂きたく、どうぞよろしくお願いいたします。
直接のご教授でも、参考サイトのご紹介でも歓迎です。
併せて、どうぞよろしくお願いいたします。
回答2件
あなたの回答
tips
プレビュー