質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.38%

  • Python 3.x

    10729questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • Mecab

    239questions

    Mecabは、オープンソースの形態素解析エンジンです。 言語、辞書、コーパスに依存しない汎用的な設計を基本方針としています。 Mecabの由来は、開発者の好物である和布蕪(めかぶ)から名づけられました。

1つのファイルのトピックを調べたい(LDAモデル)

受付中

回答 1

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 714

aoisj

score 19

質問

LDAモデルに詳しい方に質問です。

また、以下に記すプログラムで
複数の小説のテキストファイルからLDAモデルを作成したとき、その中に含まれる
1つの文書のトピックを参照できるライブラリはあるでしょうか?

コード内のnovel_set(ディレクトリ)には複数のテキストファイルが含まれていて、
files[file_no]でfile_no番目のテキストファイル名
参照できるようになっています。

実装中のプログラム

#!/usr/bin/env python3
# -*- coding: utf-8 -*-

"""
トピックモデル(入力:novel_setの全ての.txtファイル)
各ファイルの管理可能
形態素解析対象:名詞(代名詞,非自立名詞,数,固有名詞を除く)
"""

import time
import glob
import MeCab
from gensim import corpora, models

t0 = time.time()

"""
files:novel_set内のファイルリスト
files[file_no]:ファイル番号file_noのファイル名
"""
files = glob.glob('novel_set/*.txt')

#形態素解析(文字列を改行位置で区切って分割)
mecab = MeCab.Tagger ("-Ochasen")

texts = []
for file in files:
    f = open(file, "r",encoding = "utf-8")
    text = f.read()
    f.close()
    chunks = mecab.parse(text).splitlines()

    #絞り込み
    sels = []
    for chunk in chunks:
        cols = chunk.split('\t')
        if len(cols) >= 4:
            parts = cols[3].split('-')
            #指定した品詞で始まっている場合 → true
            if parts[0].startswith('名詞'):
                #代名詞,非自立名詞,固有名詞,数を含めない
                if parts[1] in ['代名詞','非自立','固有名詞','数']:
                    continue
                #形態素を追加
                #sels:形態素(原形)のみの行列
                sels.append(cols[2])
    texts.append(sels)

dictionary = corpora.Dictionary(texts)
corpus = [dictionary.doc2bow(text) for text in texts]

t1 = time.time()

#トピック数
num_topics = 10

#LDAモデルに投入
lda = models.LdaModel(corpus = corpus, id2word = dictionary,num_topics = num_topics)

t2 = time.time()

print(lda)

#各トピックにおける各トークンの出現確率を係数で表示
for topic in lda.show_topics(-1):
    print(topic)

corpus_time = t1 - t0
print('コーパス生成時間:%f秒'%corpus_time)

lda_time = t2 -t1
print('LDAモデル生成時間:%f秒'%lda_time)

total_time = t2 - t0
print('合計時間:%f秒'%total_time)
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

+1

gensim.model.Ldamodel

gensim.model.ldamodal.Ldamodel
の違いについての質問でしょうか?

であれば、gensim.model.ldamodal.Ldamodelはgensim/model/ldamodal.pyにあるLdamodelクラスで、gensim.model.Ldamodelはアクセスしやすくしているだけかと。


#!/usr/bin/env python3
# -*- coding: utf-8 -*-

import time
import glob
import MeCab
from gensim import corpora, models
import numpy as np

def get_files(path):
    return glob.glob(path)

def get_texts(files):
    mecab = MeCab.Tagger ("-Ochasen")
    texts = []
    for file in files:
        with open(file, "r",encoding = "utf-8") as f:
            text = f.read()
        chunks = mecab.parse(text).splitlines()
        sels = []
        for chunk in chunks:
            cols = chunk.split('\t')
            if len(cols) >= 4:
                parts = cols[3].split('-')
                if parts[0].startswith('名詞'):
                    if parts[1] in ['代名詞','非自立','固有名詞','数']:
                        continue
                    sels.append(cols[2])
        texts.append(sels)
    return texts

def get_dictionary(texts):
    dictionary = corpora.Dictionary(texts)
    return dictionary

def get_corpus(texts, dictionary):
    corpus = [dictionary.doc2bow(text) for text in texts]
    return corpus

def get_model(corpus, dictionary, num_topics=10):
    lda = models.LdaModel(corpus=corpus, id2word=dictionary, num_topics=num_topics)
    return model

def get_feature_vector(path, dictionary, model):
    f = get_files(path)
    t = get_texts(f)
    c = get_corpus(t, dictionary)
    return [p[1] for v in model[c] for p in v]

def metric_inverse_norm(a, b):
    return 1./np.max(np.linalg.norm(np.array(a)-np.array(b)), 1E-10)

def metric_projection(a, b):
    nb = np.array(b)
    return np.dot(np.array(a), nb)/np.linalg.norm(nb)

def normalize_score(d):
    s = sum([v for v in d.values()])
    return {k: v/s for k, v in d.items()}

if __name__ == '__main__':
    files = get_files('train_set/*.txt')
    texts = get_texts(files)
    dictionary = get_dictionary(texts)
    corpus = get_corpus(texts, dictionary)
    model = get_model(corpus, dictionary, num_topics=10)

    genres = {'A': [], 'B': []} # 既知のジャンルを与える
    for f in files:
        v = get_feature_vector(f, dictionary, model)
        genres[genre_for_f].append(v)

    ts_v = get_feature_vector('test_set/test.txt', dictionary, model)
    scores = {}
    metric = metric_inverse_norm # 距離を1つ選択
    for k, v in genres.items():
        scores[k] = sum([metric(ts_v, vv) for vv in v])
    scores = normalize(scores)
    print(scores)

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2017/12/05 02:02

    少々時間が空いてしまって申し訳ありません。
    コメントをしようと思っていたのですが、リンクを失念していました。

    https://qiita.com/u6k/items/5170b8d8e3f41531f08a
    の最後を参考にするとわかりますが、特定のデータの各トピックごとのスコアを得ることができます。
    このうちスコアが最も高いものをトピックとするのが妥当と思われます。
    問題があるとすれば、同じジャンルなのに異なるトピックに分類された場合や、異なるジャンルなのに同じトピックに分類された場合です。
    これに対してトピック数をチューニングしてやる必要があります。

    このジャンルの振り分けが距離を定義する方法にもつながります。
    ここでの問題はトピックの生成はテキストの中身のみに依存しているのであって、ジャンルとは関係なく行われることです。

    1つ考えられるのはとにかくたくさんトピック数を増やして、排他的になるようにジャンル分けする方法です。
    文書ですので、共通するようなトピックもありえます。それらを排除してジャンル特有のトピックだけを抽出するわけです。
    ただこの方法だと、テストデータがどのジャンルトピックにも含まれなかった場合、どの確率でジャンルA、どの確率でジャンルBといったことを算出できなくなります。

    そこで別の方法として、例えばすべてのトピックに対してのスコアをベクトルとして考えてこれを特徴量とします。そうすると、過去のジャンルのわかっているそれぞれの文書に対して同様の特徴量を得ることができます。
    これらのベクトルの距離を比較することで1つの距離を定義することができます。厳密には数学的な距離の条件を満たしませんが…
    例えば文書Aとの距離が最短ならば、文書Aの属するジャンルに分類される確率は高いといえます。
    これをすべての既知の文書と比較して、規格化すると各ジャンルへの確率を計算することができます。

    ここに上げているのはただのアイディアであって、必ずしもうまくいくことは保証できませんので、あしからず。

    1つ気になることがあるとすれば、名詞だけでジャンル分けをどれほどの精度で予測できるのか不明です。
    青空文庫で試してみたところ、人とかかなり一般的なものがトピックに含まれるようです。

    キャンセル

  • 2017/12/05 12:59

    長文での回答ありがとうございます。

    自分の実装力でどれほどできるのかは不安ですが、
    できることからやってみようと思います。

    キャンセル

  • 2017/12/05 13:43

    擬似コードを追記しました。
    データが無いため実行していませんので、タイプミス等々がある確率が高いです。
    距離をどうやって定義するのかを例示するためのものです。
    具体的なものがあったほうがイメージが湧きやすいかと思いまして。

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.38%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

同じタグがついた質問を見る

  • Python 3.x

    10729questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • Mecab

    239questions

    Mecabは、オープンソースの形態素解析エンジンです。 言語、辞書、コーパスに依存しない汎用的な設計を基本方針としています。 Mecabの由来は、開発者の好物である和布蕪(めかぶ)から名づけられました。