「ゼロから作るDeep Learning」と「ニューラルネットワーク自作入門」を読んでいて、2つの図書で反対のことが書かれているように思えました。
私の勘違いだと思いますが、その違いが理解できません。
うまく説明できないのですが
「ニューラルネットワーク自作入門」では
ノードAとBが合わさってノードCに情報で伝達され、答えとの誤差が計算される。
その誤差を逆方向に伝播させていくが、入力が大きいほうに大きい割合で誤差を割り振っていく
例えばA(400)、B(100)であれば、誤差の80%はAのほうから発生している
誤差の20%はBのほうから発生している
として逆伝播していくように書いていたと思います。
「ゼロから作るDeep Learning」では
誤差を逆伝播する際に、入力AとBの反対の割合で値をかけていく
例えばA(400)、B(100)であれば、誤差EとしてAには100E、Bには400Eと
逆の値がかけられています。
これはどちらの考え方が正しいのでしょうか?2つとも正しいことを言っていて
説明していることがそもそも違うのでしょうか?
文章がめちゃくちゃなので、2つの書籍を読んだ方で
質問の内容を推測していただけるかたいないでしょうか。
勝手なこと言ってますが・・・
回答2件
あなたの回答
tips
プレビュー