質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

91.36%

  • Python 3.x

    2425questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • Ubuntu

    848questions

    Ubuntuは、Debian GNU/Linuxを基盤としたフリーのオペレーティングシステムです。

  • Mecab

    100questions

    Mecabは、オープンソースの形態素解析エンジンです。 言語、辞書、コーパスに依存しない汎用的な設計を基本方針としています。 Mecabの由来は、開発者の好物である和布蕪(めかぶ)から名づけられました。

テストデータのコーパス生成でエラー

受付中

回答 1

投稿 2017/12/07 17:36

flag 質問者が3日前に「まだ回答を求めています」と言っています。

  • 評価
  • クリップ 0
  • VIEW 81

aoisj

score 16

困っていること

こちらを参考にして学習データから作成した辞書とLDAモデルを使って入力データのトピック分布を
求めるプログラムを作成したのですが、
以下に記すプログラムの

#既存の辞書を使用して、入力データのコーパスを作成
test_corpus = get_corpus(dictionary, test_texts)


↑この部分で

raise TypeError("doc2bow expects an array of unicode tokens on input, not a single string")

TypeError: doc2bow expects an array of unicode tokens on input, not a single string


↑このようなエラーが出てしまいました。
学習データのコーパス作成はうまくいっているので、原因が分かりません。
原因と解決策を教えていただきたいです。

実装中のコード

#!/usr/bin/env python3
# -*- coding: utf-8 -*-

"""
トピックモデル(入力:novel_setの全ての.txtファイル)
各ファイルの管理可能
形態素解析対象:名詞(代名詞,非自立名詞,数,固有名詞を除く)
NGワード:あり
"""

import time
import glob
import MeCab
from gensim import corpora, models

def get_files(path):
    return glob.glob(path)

#形態素解析
def get_texts(file_list, NG_WORDS):
    mecab = MeCab.Tagger ("-Ochasen")

    texts = []

    for file in file_list:
        f = open(file, "r",encoding = "utf-8")
        text = f.read()
        f.close()
        #形態素解析(文字列を改行位置で区切って分割)
        chunks = mecab.parse(text).splitlines()

        #絞り込み
        sels = []
        for chunk in chunks:
            cols = chunk.split('\t')
            if len(cols) >= 4:
                parts = cols[3].split('-')
                #指定した品詞で始まっている場合 → true
                if parts[0].startswith('名詞'):
                    #代名詞,非自立名詞,固有名詞,数を含めない
                    if parts[1] in ['代名詞','非自立','固有名詞','数']:
                        continue
                    #NGワードを含めない
                    if cols[2] in NG_WORDS:
                        continue
                    #形態素を追加
                    sels.append(cols[2])
        texts.append(sels)
    return texts

def get_test_texts(test_documents,NG_WORDS):
    mecab = MeCab.Tagger ("-Ochasen")
    f = open(test_documents, "r",encoding = "utf-8")
    text = f.read()
    f.close()

    chunks = mecab.parse(text).splitlines()

    sels = []

    #絞り込み
    for chunk in chunks:
        #chunk:形態素解析結果(1行の文字列)
        #タブ(\t)で区切り、文字列リストを作成
        cols = chunk.split('\t')
        if len(cols) >= 4:
            #parts[0]:品詞の種類
            parts = cols[3].split('-')
            #指定した品詞で始まっている場合 → true
            if parts[0].startswith('名詞'):
                #代名詞,非自立名詞,固有名詞,数を含めない
                if parts[1] in ['代名詞','非自立','固有名詞','数']:
                    continue
                #NGワードを含めない
                if cols[2] in NG_WORDS:
                    continue
                #形態素を追加
                sels.append(cols[2])
            return sels

def get_dictionary(texts):
    dictionary = corpora.Dictionary(texts)
    return dictionary

def get_corpus(dictionary, texts):
    corpus = [dictionary.doc2bow(text) for text in texts]
    return corpus

def get_lda_model(corpus, dictionary, num_topics=10):
    lda = models.LdaModel(corpus=corpus, id2word=dictionary, num_topics=num_topics)
    return lda

#入力ファイル指定
test_documents = input('select file(ex, ○○.txt):')

t0 = time.time()

#file_list[file_no]:ファイル番号file_noのファイル名
file_list = get_files('hosizora/*.txt')

NG_WORDS = ['「','」','『','』']

texts = get_texts(file_list, NG_WORDS)

#辞書作成
dictionary = get_dictionary(texts)

#辞書加工
"""
no_below:出現回数no_below回以下の単語を無視
no_above:全体のno_above以上に出現した単語を無視(no_above = 0.3 ➝ 30%)
"""
dictionary.filter_extremes(no_below = 5, no_above = 0.3)

#学習データのコーパス作成
corpus = get_corpus(dictionary, texts)

t1 = time.time()

#LDAモデルに投入
lda = get_lda_model(corpus, dictionary)

#入力データを形態素解析
test_texts = get_test_texts(test_documents,NG_WORDS)

#既存の辞書を使用して、入力データのコーパスを作成
test_corpus = get_corpus(dictionary, test_texts)

t2 = time.time()

print(lda)

#各トピックにおける各トークンの出現確率を係数で表示
for topic in lda.show_topics(-1):
    print(topic)

print('ファイル数:%d'%len(file_list))

corpus_time = t1 - t0
print('コーパス生成時間:%f秒'%corpus_time)

lda_time = t2 -t1
print('LDAモデル生成時間:%f秒'%lda_time)

total_time = t2 - t0
print('合計時間:%f秒'%total_time)
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

+1

2点ほど

(1)
get_test_texts() の動作をちゃんとテストしてますか?
実際にファイルを指定して、戻り値を確認してますか?

return sels

のインデントは、それで問題ないのですか?

(2)
get_test_texts() の戻り値の形式はどうなってますか?

https://teratail.com/questions/96679

と全く同じ間違いをしていませんか?

投稿 2017/12/07 19:13

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2017/12/08 15:47

    回答ありがとうございます。
    実際にget_test_texts()が正常に動いているのか確認してみたところ、
    return selsのインデント間違いに気づきました。
    get_test_texts()内におけるfor文と同じインデントに書くことで解決できたと思います。

    しかし、test_corpus = get_corpus(dictionary, test_texts)
    の部分で質問文と同じエラーが出てしまいます。
    corpusとtest_corpusはどちらもリスト型なので戻り値の形式に問題はないと思っているのですが・・・。
    以前の質問と同じようなミスであれば大変申し訳ありません。
    プログラムが長くなってきていて、全体をよく見れていないところがあると思うので
    教えていただけると非常にありがたいです。

    キャンセル

  • 2017/12/08 20:26 編集

    get_corpus()関数内の
    dictionary.doc2bow()
    は引数として "Word List" を受け取ります。がここでは内包表記でループしてますので、get_corpus()関数の第2引数である texts は "Word List の List" を渡す必用があります。
    一方、
    get_test_texts()
    の戻り値は "Word List" であるようですのでエラーが出ております。

    キャンセル

  • 2017/12/08 22:57

    回答ありがとうございます。

    学習データとテストデータの両方でget_corpus()を使えるようにするためには
    内包表記ではなく、普通のfor文で記述すれば解決できるということでしょうか?

    キャンセル

  • 2017/12/09 01:47

    内包表記であろうとfor文であろうとループを回している事には変わりがないので同じ結果でしょう。
    とりあえず動作するようにするのであれば、get_test_texts()の戻り値を
    return [sel]
    などとして、Listで囲ってあげるとよいのではないでしょうか?

    キャンセル

  • 2017/12/11 03:07

    回答ありがとうございます。
    いただいたアドバイス通りに実装してみたところ、テストデータのトピック分布を見ることができました。
    学習データのトピック分布の上位3つを取り出す(扱う)場合は
    topics_per_document[]を降順に並び替え、
    topics_per_document[0],topics_per_document[1],topics_per_document[2]
    を見ればよいということでしょうか?

    キャンセル

  • 2017/12/11 03:28

    for topics_per_document in lda[test_corpus]:
    print(topics_per_document)

    topics_per_document.sort(key = lambda x:x[1])
    topics_per_document.reverse()

    このような感じで並び替えることはできたのですが、
    topics_per_document[]をprint文使わず生成できますか?

    キャンセル

  • 2017/12/11 20:57

    「printを使わず」の意味がよくわからないのですが、test_corpus に1つのドキュメントの corpusしか格納していない(get_test_texts()が1つのドキュメントのWord Listを返す)のであれば、for文でまわす必用がないので

    lda_of_test_doc = lda[test_corpus[0]]
    top3 = [no for no, rate in sorted(lda_of_test_doc, key=lambda d:d[1], reverse=True)][:3]

    などとしてTOP3を導きけるのではないでしょうか

    キャンセル

  • 2017/12/14 14:18

    返事が遅くなってしまい、申し訳ありません。
    頂いたアドバイスを元に
    lda_of_test_doc = lda[test_corpus[0]]
    print(lda_of_test_doc)

    lda_of_test_doc.sort(key = lambda x:x[1])
    lda_of_test_doc.reverse()

    top3 = []
    for i in range(3):
    top3.append(lda_of_test_doc[i])
    print(top3)
    自分で理解できるようにこのように書いてみました。
    ありがとうございました。

    キャンセル

  • 2017/12/14 14:58

    はい。それで問題ないかと思います。
    自分で理解できるコードを書くことは大事なことなのですね。

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

ただいまの回答率

91.36%

関連した質問

  • 受付中

    形態素解析の結果の際pydotplus、graphvizの結果が白紙出力

    いつもお世話になっております。質問です。 実現したいこと 以下のコードの実行結果がgraph().jpgで出力されるが、真っ白で出力。 しかし画像サイズはそれぞれ別々のサイズで

  • 解決済

    pythonのコードについての質問

    pythonについての質問です gensimのチュートリアルのコードです >>>from gensim import corpora, models, similariti

  • 解決済

    pythonでMecabを利用した語彙解析がうまくできない。

    ●環境 ・Windows Edition:Windows 7 Professional  Service Pack 1 ・pythonバージョン:Python 3.6.2 (v3.

  • 解決済

    mecab 品詞 選択

    やりたいこと 選択したテキストファイル内の文章をmecabを用いて形態素解析し、 品詞(名詞、動詞など)を絞り込みたいと考えています。 現在、テキストファイルの文章を形態素解析する

  • 解決済

    複数のテキストファイルをLDAモデルに

    やりたいこと 複数のテキストファイルを入力とし、指定したトピック数に分類するプログラムを作成したいと考えています。 現在、一つのテキストファイルをLDAモデルに投入するプログラムは

  • 解決済

    指定した言葉を排除したい

    やりたいこと テキストファイルからトピックモデルを作成するプログラムを実装中なのですが、コーパスを生成するのに用いる辞書に指示語(あれ、ここ、そちら)や、それ自体に重要な意味を持た

  • 解決済

    mecabでセリフのみを抽出したい

    やりたいこと mecabを用いて入力したテキストファイルのセリフ部分(「」や『』で囲まれている部分)の 名詞(代名詞,非自立名詞,数,固有名詞を除く)を取り出して行列selsに格納

  • 解決済

    テキストに番号を付けて管理したい

    困っていること 入力したファイルのトピックを抽出するための前段階として 指定したディレクトリ内の.txtファイルを用いてLDAモデルを作成するプログラムを実装したのですが、 現在の

同じタグがついた質問を見る

  • Python 3.x

    2425questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • Ubuntu

    848questions

    Ubuntuは、Debian GNU/Linuxを基盤としたフリーのオペレーティングシステムです。

  • Mecab

    100questions

    Mecabは、オープンソースの形態素解析エンジンです。 言語、辞書、コーパスに依存しない汎用的な設計を基本方針としています。 Mecabの由来は、開発者の好物である和布蕪(めかぶ)から名づけられました。