1000次元程度の単語ベクトルのデータがほしいです。英単語です。
一番オーソドックスなのがword2vecだと思います。
ただし学習を行いたいのではなく、単語の埋め込みデータがダウンロードできればそれでいいんですけど、ネット上だと300次元ぐらいのデータしか見つかりませんでした。
私がほしいのは1000次元程度のもので、その場合、自分でモデルをダウンロードして、1000次元の単語になるように学習する必要があるのでしょうか?
また、そうする必要がある場合、どのモデルを使うのがいいんでしょうか?
※「github word2vec」とググったら、いくつかヒットしてどれがいいのかわかりません。
もし、自分で学習する必要がある場合は、kerasで実装されたものがうれしいです。
OSはubuntu16.04です。
どなたか、教えていただきたいです。よろしくお願いします。
あなたの回答
tips
プレビュー