質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.04%

Encoder Decoder Modelのソフト注意機構について質問します

解決済

回答 1

投稿

  • 評価
  • クリップ 0
  • VIEW 924

score 47

私は現在、chainerのLSTMを使って自然言語処理のプログラムを作成しようとしています。
Encoder Decoder Modelのソフト注意機構について、質問したいことがあります。

現在、AttentionDecoderのmodelを次のように定義しています。

class AttentionDecoder(Chain):
    def __init__(self, vsize, esize, hsize):
        # Attention ModelのためのDecoderのインスタンス化
        # :param vsize: 語彙数
        # :param esize: 単語ベクトルのサイズ
        # :param hsize: 隠れ層のサイズ
        super(AttentionDecoder, self).__init__(
            ye=L.EmbedID(vsize, esize, ignore_label=-1),  # 単語を単語ベクトルに変換する層
            eh=L.Linear(esize, 4 * hsize),  # 単語ベクトルを隠れ層の4倍のサイズのベクトルに変換する層
            hh=L.Linear(hsize, 4 * hsize),  # Decoderの中間ベクトルを隠れ層の4倍のサイズのベクトルに変換する層
            fh=L.Linear(hsize, 4 * hsize),  # 順向きEncoderの中間ベクトルの加重平均を隠れ層の4倍のサイズのベクトルに変換する層
            bh=L.Linear(hsize, 4 * hsize),  # 順向きEncoderの中間ベクトルの加重平均を隠れ層の4倍のサイズのベクトルに変換する層
            he=L.Linear(hsize, esize),  # 隠れ層サイズのベクトルを単語ベクトルのサイズに変換する層
            ey=L.Linear(esize, vsize)  # 単語ベクトルを語彙数サイズのベクトルに変換する層

ここで質問ですが、すべての隠れ層において、出力ベクトルサイズを入力ベクトルサイズの4倍にしています。通常は、出力ベクトルサイズは次の層の入力ベクトルサイズにしていると思います。この場合、ネットワークはどのようになっていると考えられますでしょうか。

よろしくお願いします。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

checkベストアンサー

0

前後のコードが不明で憶測で答えますが、おそらくこのコードのEncoderではLSTMが使われているように思えます。
LSTMのパラメータは

  • 入力ゲート
  • 忘却ゲート
  • 出力ゲート
  • メモリ

がそれぞれありますので、この4つに合わせてAttentionを計算しているかもしれません。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.04%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る