質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.33%

LSTM の定義方法

解決済

回答 2

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 137

reiwa2277

score 2

LSTMの定義のコードで重みwとバイアスbの定義方法がなぜそうなるか分かりません。
重みはなぜ入力層と隠れ層を足すのか分かりません
要するに3・4行目の数式がなぜそうなるかわからないとのことです。
教えてください

n_input = 32
n_hidden = 64
w =np.random.randn(n_inputs+n_hidden,n_hidden*4)
b = np.zeros(n_hidden*4)

def lstm(x, h, c):
   z = ...i  = ...f = ...o = ...

イメージ説明

参考書にこのような記載しかされておらずどなたか力を貸してください!

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 2

checkベストアンサー

+1

LSTM はいくつかバージョンがあるのですが、おそらく忘却ゲートがあるバージョンかと思います。

わかるLSTM ~ 最近の動向と共に - Qiita

重みはなぜ入力層と隠れ層を足すのか分かりません

LSTM ブロックの入力は1つ前の層の出力 (n_inputs 次元) と LSTM ブロックの1つ前の時刻の出力 (n_hidden 次元) なので、入力の次元は合わせて、n_inputs + n_hidden 次元になります。

また、1つの LSTM ブロックには input gate、output gate、forget gate と LSTM の入力で4つの隠れ層があるので、出力数は合わせて、n_hidden * 4 となります。

※ 画像は上記 Qitta の記事の図を引用

同様に4つの隠れ層があるので、バイアスの次元も合わせて n_hidden * 4 です。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2019/08/14 20:42

    お二方のおかげで理解できました!
    ありがとうございます!

    キャンセル

0

重みはなぜ入力層と隠れ層を足すのか

提示されている部分のコードは、
w の 定義として入力層と隠れ層(の重みの値)を足しているのではなく、
w の 重みのノード数を 「入力層のノード数 + 隠れ層のノード数」として、randomに初期化する、ということだと思います。
b は 隠れ層の4倍のノード数で0に初期化される、ということですね。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2019/08/11 18:53 編集

    これがLSTMの実装の全体でしょうか?
    LSTMのおおよそ全体かな、と思う部分を記載してもらいたいです。
    その中で w, b がどのように作用しているかをみると、
    LSTMの仕組みがコード中でどのように再現され、
    wの役割が何かがはっきりする可能性があると思うのです。

    一応、書いておくと、今書かれているコードだと、wは一切(再)登場しないのでコメントできないです。

    キャンセル

  • 2019/08/11 19:37

    実際 raiwa2277 さんのコード中の w の役割は私にはまだわからないですが、
    私は さっきのURLの中の W, R を合わせた(連結した)のが、w なのだと思っています。
    そういう風にみたら理解できないでしょうか?

    キャンセル

  • 2019/08/13 19:58

    参考書見たらこれしかなくて・・・
    「入力層のノード数 + 隠れ層のノード数」のノード数をなぜ足すのか書いていないですし理解できないですよね…

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.33%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

同じタグがついた質問を見る