質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.37%

byteオブジェクトへの変換

解決済

回答 2

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 579

jyon

score 13

前提・実現したいこと

int foundというエラーをなくしたいです。

発生している問題・エラーメッセージ

---------------------------------------------------------------------------
TypeError                                 Traceback (most recent call last)
<ipython-input-55-b3b1a98eecac> in <module>
----> 1 vec = dictionary.doc2bow(words)
TypeError: decoding to str: need a bytes-like object, int found

該当のソースコード

import MeCab
from gensim.corpora.dictionary import Dictionary
from gensim.models import LdaModel
from gensim.models import HdpModel
from collections import defaultdict

# MeCabオブジェクトの生成
mt = MeCab.Tagger('')

mt.parse('')

# トピック数の設定
NUM_TOPICS = 3
hdp_num_topics = 10

if __name__ == "__main__":
    # トレーニングデータの読み込み
    # train_texts は二次元のリスト
    # テキストデータを一件ずつ分かち書き(名詞、動詞、形容詞に限定)して train_texts に格納するだけ
    train_texts = []
    with open('train.txt', 'r',encoding='utf-8') as f:
        for line in f:
            text = []
            node = mt.parseToNode(line.strip())
            while node:
                fields = node.feature.split(",")
                if fields[0] == '名詞':
                    text.append(node.surface)
                node = node.next
            train_texts.append(text)
    words = Dictionary(train_texts)
print(words)

from gensim import corpora

# words はさっきの単語リスト
dictionary = corpora.Dictionary(train_texts)
print(dictionary.token2id)

# no_above: 使われてる文章の割合がno_above以上の場合無視
dictionary.filter_extremes(no_below=20, no_above=0.3)

dictionary.save_as_text('train.txt')
words = bytes('words', 'UTF-8')
dictionary = corpora.Dictionary.load_from_text('train.txt')
type(words)

vec = dictionary.doc2bow(words)
print(vec)

試したこと

エラーでbyteのオブジェクトが必要とのことだったので、1行目でwordsをbyteに変換しましたが治りませんでした。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • can110

    2019/07/18 20:18

    corporaとは何かが不明です。import文も含めて第三者が検証できるコードを提示ください。

    キャンセル

  • jyon

    2019/07/18 20:25

    すみませんでした。
    ただいま、コードを更新しました。
    よろしくお願いいたします。

    キャンセル

回答 2

checkベストアンサー

+1

以下のコードで動作を確認しました。ご確認ください。

import MeCab
from gensim.corpora.dictionary import Dictionary
from gensim.models import LdaModel
from gensim.models import HdpModel
from collections import defaultdict

# MeCabオブジェクトの生成
mt = MeCab.Tagger('')

mt.parse('')

# トピック数の設定
NUM_TOPICS = 3
hdp_num_topics = 10

if __name__ == "__main__":
    # トレーニングデータの読み込み
    # train_texts は二次元のリスト
    # テキストデータを一件ずつ分かち書き(名詞、動詞、形容詞に限定)して train_texts に格納するだけ
    train_texts = []
    with open('data.txt', 'r',encoding='utf-8') as f:
        for line in f:
            text = []
            node = mt.parseToNode(line.strip())
            while node:
                fields = node.feature.split(",")
                if fields[0] == '名詞':
                    text.append(node.surface)
                node = node.next
            train_texts.append(text)
    words = Dictionary(train_texts)

print(words)

from gensim import corpora

# words はさっきの単語リスト
dictionary = corpora.Dictionary(train_texts)
print(dictionary.token2id)

# no_above: 使われてる文章の割合がno_above以上の場合無視
# コメントアウト
# dictionary.filter_extremes(no_below=20, no_above=0.3)

dictionary.save_as_text('train.txt')
words = bytes('words', 'UTF-8')
dictionary = corpora.Dictionary.load_from_text('train.txt')
type(words)

vec = dictionary.doc2bow(train_texts[0])
print(vec)

data.txt

吾輩は猫である。
名前はまだない。
にゃーん。

結果

Dictionary(4 unique tokens: ['猫', 'ー', '名前', '吾輩'])
{'猫': 1, 'ー': 3, '名前': 2, '吾輩': 0}
[(0, 1), (1, 1)]

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2019/07/18 21:49

    ありがとうございます!今は[0]の部分のみしか行っていませんが、すべての単語に対して出力したい場合はどのようにしたらよいでしょうか。

    キャンセル

  • 2019/07/18 21:56 編集

    すべての文書に対して出力したい、ということでよろしいですか?
    今はデータが2重リストになっていますが内包表記で1重リストに変換してあげて、
    vec = dictionary.doc2bow([y for x in train_texts for y in x])

    [(0, 1), (1, 1), (2, 1), (3, 1)]
    を得るということでしょうか。

    キャンセル

  • 2019/07/23 11:36

    そうです!!ありがとうございます。
    その後のクラスター分析の行い方など、お分かりでしたら教えていただきたいです。

    キャンセル

0

gensimの処理関係的にwordsはリストだと思います。
また、wordsにNaNは含まれていないでしょうか?

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2019/07/18 20:29

    NaNは含まれていません。
    byteに変換せずにtype(words)と実行すると、gensim.corpora.dictionary.Dictionaryとでてきました。

    キャンセル

  • 2019/07/18 20:54

    混乱しててすみません汗
    やってみたいのはwords.doc2bowとかではないですか?

    キャンセル

  • 2019/07/18 20:58

    WORDSにはリストのようなものが入っています。
    辞書には単語ごとに区切れたものが入っていて、辞書中の単語IDと、頻度のタプルを表示したいので、DICTIONARY.DOC2BOWかと思っていました、、、

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.37%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る