teratail header banner
teratail header banner
質問するログイン新規登録

回答編集履歴

1

追記

2018/05/22 10:01

投稿

hayataka2049
hayataka2049

スコア30939

answer CHANGED
@@ -10,4 +10,11 @@
10
10
  「単語」という単位で見ないで、たとえば2単語つながったもの(リンゴ-ください, ください-。等)を数え上げるのがbigram, 一般化してn個の単語がつながったものを数え上げるのがn-gram。
11
11
  それを特定の品詞に絞ってみたり、品調ラベルを使ってみたり、似たような手法は色々あります。いずれも何らかの要素列に変換し、インデックスを作って数え上げるという点ではBag of Wordsと共通しています。
12
12
 
13
- word2vec, doc2vec, DNN(LSTM等)による自然言語処理等はまた異なったアプローチで処理しています。
13
+ word2vec, doc2vec, DNN(LSTM等)による自然言語処理等はまた異なったアプローチで処理しています。
14
+
15
+ ### 追記
16
+ なんか、回答書いてから言いたいことがわかったような気が・・・。
17
+ one-hot表現にしないで、1次元の数値で、たとえば100000単語あったら0~99999で表現しようということですか。
18
+ いろいろな欠点があります。
19
+ - 単語はともかく、文書は1次元では表現できない。BoWならone-hot表現の加算とみなせます。
20
+ - これも同じことですが、「似ている単語」と「そうでない」単語をどう区別しましょうか。数字が近いと似ている単語という扱いになってしまいそうです。one-hot表現であれば、すべて等しく似ている(似ていない)単語と解釈できます。分散表現系であれば、ベクトル空間内の距離で表せます。