回答編集履歴
1
追記
answer
CHANGED
@@ -10,4 +10,11 @@
|
|
10
10
|
「単語」という単位で見ないで、たとえば2単語つながったもの(リンゴ-ください, ください-。等)を数え上げるのがbigram, 一般化してn個の単語がつながったものを数え上げるのがn-gram。
|
11
11
|
それを特定の品詞に絞ってみたり、品調ラベルを使ってみたり、似たような手法は色々あります。いずれも何らかの要素列に変換し、インデックスを作って数え上げるという点ではBag of Wordsと共通しています。
|
12
12
|
|
13
|
-
word2vec, doc2vec, DNN(LSTM等)による自然言語処理等はまた異なったアプローチで処理しています。
|
13
|
+
word2vec, doc2vec, DNN(LSTM等)による自然言語処理等はまた異なったアプローチで処理しています。
|
14
|
+
|
15
|
+
### 追記
|
16
|
+
なんか、回答書いてから言いたいことがわかったような気が・・・。
|
17
|
+
one-hot表現にしないで、1次元の数値で、たとえば100000単語あったら0~99999で表現しようということですか。
|
18
|
+
いろいろな欠点があります。
|
19
|
+
- 単語はともかく、文書は1次元では表現できない。BoWならone-hot表現の加算とみなせます。
|
20
|
+
- これも同じことですが、「似ている単語」と「そうでない」単語をどう区別しましょうか。数字が近いと似ている単語という扱いになってしまいそうです。one-hot表現であれば、すべて等しく似ている(似ていない)単語と解釈できます。分散表現系であれば、ベクトル空間内の距離で表せます。
|