質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

91.34%

  • Python 3.x

    2414questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • Mecab

    100questions

    Mecabは、オープンソースの形態素解析エンジンです。 言語、辞書、コーパスに依存しない汎用的な設計を基本方針としています。 Mecabの由来は、開発者の好物である和布蕪(めかぶ)から名づけられました。

1つのファイルのトピックを調べたい(LDAモデル)

受付中

回答 1

投稿 2017/11/21 18:48 ・編集 2017/11/22 01:54

  • 評価
  • クリップ 0
  • VIEW 99

aoisj

score 16

質問

LDAモデルに詳しい方に質問です。

また、以下に記すプログラムで
複数の小説のテキストファイルからLDAモデルを作成したとき、その中に含まれる
1つの文書のトピックを参照できるライブラリはあるでしょうか?

コード内のnovel_set(ディレクトリ)には複数のテキストファイルが含まれていて、
files[file_no]でfile_no番目のテキストファイル名
参照できるようになっています。

実装中のプログラム

#!/usr/bin/env python3
# -*- coding: utf-8 -*-

"""
トピックモデル(入力:novel_setの全ての.txtファイル)
各ファイルの管理可能
形態素解析対象:名詞(代名詞,非自立名詞,数,固有名詞を除く)
"""

import time
import glob
import MeCab
from gensim import corpora, models

t0 = time.time()

"""
files:novel_set内のファイルリスト
files[file_no]:ファイル番号file_noのファイル名
"""
files = glob.glob('novel_set/*.txt')

#形態素解析(文字列を改行位置で区切って分割)
mecab = MeCab.Tagger ("-Ochasen")

texts = []
for file in files:
    f = open(file, "r",encoding = "utf-8")
    text = f.read()
    f.close()
    chunks = mecab.parse(text).splitlines()

    #絞り込み
    sels = []
    for chunk in chunks:
        cols = chunk.split('\t')
        if len(cols) >= 4:
            parts = cols[3].split('-')
            #指定した品詞で始まっている場合 → true
            if parts[0].startswith('名詞'):
                #代名詞,非自立名詞,固有名詞,数を含めない
                if parts[1] in ['代名詞','非自立','固有名詞','数']:
                    continue
                #形態素を追加
                #sels:形態素(原形)のみの行列
                sels.append(cols[2])
    texts.append(sels)

dictionary = corpora.Dictionary(texts)
corpus = [dictionary.doc2bow(text) for text in texts]

t1 = time.time()

#トピック数
num_topics = 10

#LDAモデルに投入
lda = models.LdaModel(corpus = corpus, id2word = dictionary,num_topics = num_topics)

t2 = time.time()

print(lda)

#各トピックにおける各トークンの出現確率を係数で表示
for topic in lda.show_topics(-1):
    print(topic)

corpus_time = t1 - t0
print('コーパス生成時間:%f秒'%corpus_time)

lda_time = t2 -t1
print('LDAモデル生成時間:%f秒'%lda_time)

total_time = t2 - t0
print('合計時間:%f秒'%total_time)
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

+1

gensim.model.Ldamodel

gensim.model.ldamodal.Ldamodel
の違いについての質問でしょうか?

であれば、gensim.model.ldamodal.Ldamodelはgensim/model/ldamodal.pyにあるLdamodelクラスで、gensim.model.Ldamodelはアクセスしやすくしているだけかと。


#!/usr/bin/env python3
# -*- coding: utf-8 -*-

import time
import glob
import MeCab
from gensim import corpora, models
import numpy as np

def get_files(path):
    return glob.glob(path)

def get_texts(files):
    mecab = MeCab.Tagger ("-Ochasen")
    texts = []
    for file in files:
        with open(file, "r",encoding = "utf-8") as f:
            text = f.read()
        chunks = mecab.parse(text).splitlines()
        sels = []
        for chunk in chunks:
            cols = chunk.split('\t')
            if len(cols) >= 4:
                parts = cols[3].split('-')
                if parts[0].startswith('名詞'):
                    if parts[1] in ['代名詞','非自立','固有名詞','数']:
                        continue
                    sels.append(cols[2])
        texts.append(sels)
    return texts

def get_dictionary(texts):
    dictionary = corpora.Dictionary(texts)
    return dictionary

def get_corpus(texts, dictionary):
    corpus = [dictionary.doc2bow(text) for text in texts]
    return corpus

def get_model(corpus, dictionary, num_topics=10):
    lda = models.LdaModel(corpus=corpus, id2word=dictionary, num_topics=num_topics)
    return model

def get_feature_vector(path, dictionary, model):
    f = get_files(path)
    t = get_texts(f)
    c = get_corpus(t, dictionary)
    return [p[1] for v in model[c] for p in v]

def metric_inverse_norm(a, b):
    return 1./np.max(np.linalg.norm(np.array(a)-np.array(b)), 1E-10)

def metric_projection(a, b):
    nb = np.array(b)
    return np.dot(np.array(a), nb)/np.linalg.norm(nb)

def normalize_score(d):
    s = sum([v for v in d.values()])
    return {k: v/s for k, v in d.items()}

if __name__ == '__main__':
    files = get_files('train_set/*.txt')
    texts = get_texts(files)
    dictionary = get_dictionary(texts)
    corpus = get_corpus(texts, dictionary)
    model = get_model(corpus, dictionary, num_topics=10)

    genres = {'A': [], 'B': []} # 既知のジャンルを与える
    for f in files:
        v = get_feature_vector(f, dictionary, model)
        genres[genre_for_f].append(v)

    ts_v = get_feature_vector('test_set/test.txt', dictionary, model)
    scores = {}
    metric = metric_inverse_norm # 距離を1つ選択
    for k, v in genres.items():
        scores[k] = sum([metric(ts_v, vv) for vv in v])
    scores = normalize(scores)
    print(scores)

投稿 2017/11/22 01:48

編集 2017/12/05 13:40

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2017/11/22 01:55

    回答ありがとうございます。
    ということは基本的にLdamodel
    の方を使う方が良いということでしょうか?

    キャンセル

  • 2017/11/22 02:31

    その通りかと思います。
    githubのコードを見る限り、クラスはLdamodelしかないように思います。
    他のモデルとファイルを分割するためにldamodel.pyがあり、わかりやすく実装しています。
    余裕があれば、importと__init__.pyを参考にするとわかりやすいかと思います。
    http://so-h.hatenablog.com/entry/2016/09/24/031813
    https://qiita.com/karadaharu/items/37403e6e82ae4417d1b3
    https://docs.python.org/ja/3.7/tutorial/modules.html

    キャンセル

  • 2017/11/22 03:40

    丁寧に解説していただきありがとうございます。
    フォローさせていただきます。

    キャンセル

  • 2017/11/22 03:44

    追加でmkgreiさんに質問させていただいてもよろしいでしょうか?

    gensimモジュールの中に
    複数の文書の中の1つの文書のトピックを参照できるライブラリはあるでしょうか?

    gensimのAPIを参照してみたりもしたのですが、
    書いてあることが難しく私には理解できませんでした…

    キャンセル

  • 2017/11/22 12:39

    そちらの質問の意図がいまいちピンときませんでいした。
    複数の文書をあわせてトピックスを抽出した後に、そのうちの1つの文章のトピックスを見たいということでしょうか?

    1つの文書のトピックスが知りたいのなら、その文書だけでLDAすればよいように思うのですが。

    そもそも質問の意図を勘違いしているのか、それとも複数の文書でLDAしたのでそれを再利用したいということでしょうか?

    APIで参照した部分を提示していただけると助けになれるかもしれません。

    キャンセル

  • 2017/11/30 19:09

    私が勉強不足で間違っていたら申し訳ありません。

    まず、私がやりたいことを伝えます。
    複数の学習データ(ジャンルが分かっている小説のテキストファイル)
    1つの入力データ(ジャンルが分かっていない小説のテキストファイル)
    の2種類のデータを使ってLDAモデル作成し、
    入力データのトピック分布と類似したトピック分布をもつ学習データのジャンルから
    入力データのジャンルを推定しようというものです。

    次にいただいたアドバイスについてお話します。
    LDAモデルのトピックは1つの文書でトピックを抽出する場合と複数の文書で抽出する場合とでは
    トピックの中身?特徴?が変わるのではないかと思いました。
    なので学習データ(ジャンルが分かっている)と入力データ(ジャンルが分かっていない)
    でLDAモデル作成し、最も入力データと類似している学習データのジャンルが入力データのジャンルに近いものに
    なるのではないかと考えました。

    キャンセル

  • 2017/11/30 19:38

    なるほど。
    そのアドバイスはよいベースラインになると思います。
    利点はジャンル判定する際に入力データだけに対してLDAモデルを作成すればよいことで、計算が軽く済みそうなところです。
    難点を強いてあげるとすれば、トピックスに重なりが小さい時、精度が落ちそうなことでしょうか。
    学習データ数を増やすと精度が向上しそうです。

    別の案を出すのであれば、まず既知未知データを全体でLDAモデル生成をします。
    このようにすれば、入力データも込みでトピックスを抽出できます。
    そこで、投票形式にしてジャンルを判定します。
    例えば入力データの上位10トピックスの一致具合に対して距離を定義して最短距離のジャンルを取り出すなど。
    難点は判定のたびに大量のデータでLDAモデルを生成しなければいけない点でしょう。

    キャンセル

  • 2017/12/01 11:07

    https://deepage.net/machine_learning/2017/01/08/doc2vec.html
    チュートリアルでmost_similarメソッドを使ったものもあるようですね。
    こちらではあまり精度は良くなかったのかもしれませんが…

    キャンセル

  • 2017/12/01 16:19

    丁寧な回答ありがとうございます。
    やろうとしていることが実現する可能性がありそうで少しホッとしました…。
    いただいたアドバイスに関して、
    mkgreiさんに追加の質問をさせていただいてもよろしいでしょうか。
    質問①入力データ(特定のデータ)のトピックを確認する関数
    質問②一致具合の距離の定義方法
    こちらの2つを教えていただきたいです。
    質問方法を変えて質問を何度かしているのですが、答えてもらうことができていないので、
    ここまで丁寧な回答をしてくださって大変申し訳ないのですが、教えていただきたいです。

    キャンセル

  • 2017/12/05 02:02

    少々時間が空いてしまって申し訳ありません。
    コメントをしようと思っていたのですが、リンクを失念していました。

    https://qiita.com/u6k/items/5170b8d8e3f41531f08a
    の最後を参考にするとわかりますが、特定のデータの各トピックごとのスコアを得ることができます。
    このうちスコアが最も高いものをトピックとするのが妥当と思われます。
    問題があるとすれば、同じジャンルなのに異なるトピックに分類された場合や、異なるジャンルなのに同じトピックに分類された場合です。
    これに対してトピック数をチューニングしてやる必要があります。

    このジャンルの振り分けが距離を定義する方法にもつながります。
    ここでの問題はトピックの生成はテキストの中身のみに依存しているのであって、ジャンルとは関係なく行われることです。

    1つ考えられるのはとにかくたくさんトピック数を増やして、排他的になるようにジャンル分けする方法です。
    文書ですので、共通するようなトピックもありえます。それらを排除してジャンル特有のトピックだけを抽出するわけです。
    ただこの方法だと、テストデータがどのジャンルトピックにも含まれなかった場合、どの確率でジャンルA、どの確率でジャンルBといったことを算出できなくなります。

    そこで別の方法として、例えばすべてのトピックに対してのスコアをベクトルとして考えてこれを特徴量とします。そうすると、過去のジャンルのわかっているそれぞれの文書に対して同様の特徴量を得ることができます。
    これらのベクトルの距離を比較することで1つの距離を定義することができます。厳密には数学的な距離の条件を満たしませんが…
    例えば文書Aとの距離が最短ならば、文書Aの属するジャンルに分類される確率は高いといえます。
    これをすべての既知の文書と比較して、規格化すると各ジャンルへの確率を計算することができます。

    ここに上げているのはただのアイディアであって、必ずしもうまくいくことは保証できませんので、あしからず。

    1つ気になることがあるとすれば、名詞だけでジャンル分けをどれほどの精度で予測できるのか不明です。
    青空文庫で試してみたところ、人とかかなり一般的なものがトピックに含まれるようです。

    キャンセル

  • 2017/12/05 12:59

    長文での回答ありがとうございます。

    自分の実装力でどれほどできるのかは不安ですが、
    できることからやってみようと思います。

    キャンセル

  • 2017/12/05 13:43

    擬似コードを追記しました。
    データが無いため実行していませんので、タイプミス等々がある確率が高いです。
    距離をどうやって定義するのかを例示するためのものです。
    具体的なものがあったほうがイメージが湧きやすいかと思いまして。

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

ただいまの回答率

91.34%

関連した質問

  • 受付中

    形態素解析の結果の際pydotplus、graphvizの結果が白紙出力

    いつもお世話になっております。質問です。 実現したいこと 以下のコードの実行結果がgraph().jpgで出力されるが、真っ白で出力。 しかし画像サイズはそれぞれ別々のサイズで

  • 解決済

    pythonでMecabを利用した語彙解析がうまくできない。

    ●環境 ・Windows Edition:Windows 7 Professional  Service Pack 1 ・pythonバージョン:Python 3.6.2 (v3.

  • 解決済

    Pythonのディレクトリ探索と該当するファイルのデータ保存について

    Python初心者です。 Pythonで以下仕様のプログラムを作成したいのですが、 ご教示いただけないでしょうか? よろしくお願いいたします。 仕様: ルートディレクトリの直下

  • 解決済

    mecab 品詞 選択

    やりたいこと 選択したテキストファイル内の文章をmecabを用いて形態素解析し、 品詞(名詞、動詞など)を絞り込みたいと考えています。 現在、テキストファイルの文章を形態素解析する

  • 解決済

    複数のテキストファイルをLDAモデルに

    やりたいこと 複数のテキストファイルを入力とし、指定したトピック数に分類するプログラムを作成したいと考えています。 現在、一つのテキストファイルをLDAモデルに投入するプログラムは

  • 解決済

    指定した言葉を排除したい

    やりたいこと テキストファイルからトピックモデルを作成するプログラムを実装中なのですが、コーパスを生成するのに用いる辞書に指示語(あれ、ここ、そちら)や、それ自体に重要な意味を持た

  • 解決済

    mecabでセリフのみを抽出したい

    やりたいこと mecabを用いて入力したテキストファイルのセリフ部分(「」や『』で囲まれている部分)の 名詞(代名詞,非自立名詞,数,固有名詞を除く)を取り出して行列selsに格納

  • 解決済

    テキストに番号を付けて管理したい

    困っていること 入力したファイルのトピックを抽出するための前段階として 指定したディレクトリ内の.txtファイルを用いてLDAモデルを作成するプログラムを実装したのですが、 現在の

同じタグがついた質問を見る

  • Python 3.x

    2414questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • Mecab

    100questions

    Mecabは、オープンソースの形態素解析エンジンです。 言語、辞書、コーパスに依存しない汎用的な設計を基本方針としています。 Mecabの由来は、開発者の好物である和布蕪(めかぶ)から名づけられました。