上の例を具体的にしてみます。
- 問題:猫の耳の形は?
- テキスト:猫の耳の形は三角形である
- 定義された語彙:丸, 三角, 四角,
- 答え:三角
ある程度は統語的な情報を取り扱えないと、自然言語の文の意味していることはわかりません。「猫の耳・・・ではなく足の形は?」とか「猫の耳を半分にした形は?」とか「猫の耳の形は三角形ではない」とか「犬の耳の形は四角形だが、猫の耳の形は三角形である」とかが来ちゃう可能性がある訳です。なので、問題とテキストを読むためにLSTMを使います。
このタスクでは定義された語彙のembeddingを予測させれば良いので、1層のLSTMによってencodeした結果がそれになるように訓練するということでしょう(もう少し間になにか挟むのかもしれませんが)。
下の例を具体的にしてみます。年齢と性別を予測するというタスクに変えておきます。
テキスト:はなちゃんとディズニーランドに行った! 楽しかった♡
年齢:18歳
性別:女性
すぐに思いつかなかったので以下割愛
単語や言葉遣いなどがわかればだいたい予測できるので、統語的な情報は要らないことがわかります。doc2vecや単語ベクトルを平均するなどの方法を用いて文全体の分散表現を得て、それから機械学習を使って回帰問題を解けば良いとわかります。
(もっと言えば、この手の問題は分散表現が使えるようになる前からBag of Wordsなどでそれなりに解けていたはずです)
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2019/03/02 08:16 編集