回答編集履歴

2

2021/11/12 21:40

投稿

退会済みユーザー
test CHANGED
@@ -26,11 +26,11 @@
26
26
 
27
27
  ですので、この例は
28
28
 
29
- - 文章をハンドリングしやすくするために、画像認識でも使うような手法を使えるように変換する方法としてLSTMを使ったよ。
29
+ - 文章をハンドリングしやすくするために、画像認識でも使うような手法を使えるようにする(確率の計算ができるようにお膳立てする)方法としてLSTMを使ったよ。
30
30
 
31
- - 結果、画像をベクトル化(Embeddingsに変換)して表現するように、文章もベクトル化できたよ。
31
+ - 結果、画像をベクトル化(Embeddingsに変換)して表現するように、文章もベクトル化(Embeddingsに変換)できたよ。
32
32
 
33
- - だから画像認識で画像を確率で表現するように、CoLAでも文章を確率で表現できるようになったよ。
33
+ - だから画像認識で画像を確率で表現(Sigmoidで変換)するように、CoLAでも文章を確率で表現(Sigmoid変換)できるようになったよ。
34
34
 
35
35
  - ね、だから偽物っぽいか本物っぽいか評価できるよね?
36
36
 

1

2021/11/12 21:40

投稿

退会済みユーザー
test CHANGED
@@ -15,3 +15,25 @@
15
15
  - A:については、エンコーダでは**順方向の隠れ層(f)**と**逆方向の隠れ層(b) **があり、それぞれの結果が結合されてツラツラと繋がった言葉の特徴ができあがり、それをMaxpoolingして**Embeddingsを構成**する。
16
16
 
17
17
  - B:については、sigmoidによってEmbeddingsを0-1の**確率分布に変換**する。
18
+
19
+
20
+
21
+ ---
22
+
23
+
24
+
25
+ Embeddingsを使って○○か判定、は画像認識でもよくある手法です。
26
+
27
+ ですので、この例は
28
+
29
+ - 文章をハンドリングしやすくするために、画像認識でも使うような手法を使えるように変換する方法としてLSTMを使ったよ。
30
+
31
+ - 結果、画像をベクトル化(Embeddingsに変換)して表現するように、文章もベクトル化できたよ。
32
+
33
+ - だから画像認識で画像を確率で表現するように、CoLAでも文章を確率で表現できるようになったよ。
34
+
35
+ - ね、だから偽物っぽいか本物っぽいか評価できるよね?
36
+
37
+
38
+
39
+ と考えるとすんなりいくと思います。