質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.33%

attentionが適用される箇所について

受付中

回答 0

投稿

  • 評価
  • クリップ 1
  • VIEW 522

g4evo

score 13

現在、深層学習について勉強中です。
Attention機構について理解につまっている部分があります。

Seq2Seqモデルにおいて利用されるAttention機構という前提でお伺いしたいのですが、
時刻tにおけるDecoderの出力Y(t)を計算する際、これはどのように計算されるのでしょうか。
私の現状の理解では、Encoderの出力O(1~N)(NはEncoderの系列長)とDecoderの出力Y(t)を利用してAttention機構からC(t)を計算し、再びC(t)Y(t)を結合してからtanhなどの活性化関数にかけるものだと思っていました。

しかし、TensorflowのAttentionのチュートリアルではどうも違うように実装されているように思えます。チュートリアルページ(英語)

上記のページではC(t)を計算する際にY(t-1)を用いており、また、GRU層に入力する前にC(t)と入力を結合しています。

つまり、時刻tの出力Y(t)を得る時、Attentionの計算は時刻tのGRUの出力Y(t)を利用するのか、前時刻(t-1)のGRUの出力Y(t-1)を利用するのかを知りたいです。
以下に現状の理解の齟齬を画像にしたので載せておきます。上が自分の中での理解で、下がTensorflowのチュートリアルにあったものを自分なりに図にしたものです。
自分の中でのAttention
TensorflowのAttention
線の色に特に意味はないです。

また、RNN系のネットワークでは前時刻の状態h(t-1)を時刻tの入力に用いるという風に理解しているのですが、ここでいうh(t-1)というのは前時刻のRNNの出力であるY(t-1)と同義でしょうか。

稚拙な質問で申し訳ないですが、ご存知の方がいらっしゃったら、ご教授いただけると幸いです。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

まだ回答がついていません

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.33%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る