質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.51%
Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Mecab

Mecabは、オープンソースの形態素解析エンジンです。 言語、辞書、コーパスに依存しない汎用的な設計を基本方針としています。 Mecabの由来は、開発者の好物である和布蕪(めかぶ)から名づけられました。

Q&A

解決済

1回答

1113閲覧

指定した言葉を排除したい

aoisj

総合スコア27

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Mecab

Mecabは、オープンソースの形態素解析エンジンです。 言語、辞書、コーパスに依存しない汎用的な設計を基本方針としています。 Mecabの由来は、開発者の好物である和布蕪(めかぶ)から名づけられました。

0グッド

2クリップ

投稿2017/11/08 14:39

###やりたいこと
テキストファイルからトピックモデルを作成するプログラムを実装中なのですが、コーパスを生成するのに用いる辞書に指示語(あれ、ここ、そちら)や、それ自体に重要な意味を持たない動詞(いる、ある)を含んでしまっているので精度があまりよくありません。
そこで決め打ちで指定した単語を辞書に含ませないようにする方法を教えていただきたいです。

以下に実装中のコードを記します。

python

1#!/usr/bin/env python3 2# -*- coding: utf-8 -*- 3 4#トピックモデル(入力:指定したディレクトリ内の.txtファイル) 5 6import time 7import os 8import glob 9import MeCab 10from gensim import corpora, models 11 12#ディレクトリ指定 13input_dir = input('select directory:') 14 15t0 = time.time() 16 17txt_list = glob.glob(input_dir + os.sep + '*.txt') 18 19texts = '' 20for file in txt_list: 21 with open(file, 'r', encoding='utf-8') as f: 22 texts += f.read() 23 24f.close() 25 26#文字列を改行位置で区切って分割する(形態素解析) 27m = MeCab.Tagger ("-Ochasen") 28chunks = m.parse(texts).splitlines() 29 30#絞り結果を格納 31sels = [] 32 33#絞り込み 34for chunk in chunks: 35 #chunk:形態素解析結果(1行の文字列) 36 #タブ(\t)で区切り、文字列リストを作成 37 cols = chunk.split('\t') 38 if len(cols) >= 4: 39 #parts[0]:品詞の種類 40 parts = cols[3].split('-') 41 #指定した品詞で始まっている場合 → true 42 if parts[0].startswith('名詞') or parts[0].startswith('動詞'): 43 #sels:形態素(原形)のみの行列 44 sels.append(cols[2]) 45 46#辞書作成 47dictionary = corpora.Dictionary([sels]) 48 49""" 50no_below:出現回数no_below回以下の単語を排除 51no_above:全体のno_above以上に出現した単語を排除(no_above = 0.3 ➝ 30%) 52""" 53#辞書加工 54#dictionary.filter_extremes(no_below = 1,no_above = 0.3) 55 56 57#[辞書の単語数]次元のベクトルに変換(コーパス作成) 58corpus = [dictionary.doc2bow(sels) for sel in sels] 59 60t1 = time.time() 61 62#LDAモデルに投入 63lda = models.LdaModel(corpus = corpus, 64 id2word = dictionary, 65 #トピック数 66 num_topics = 20) 67 68t2 = time.time() 69 70print(lda) 71 72#各トピックにおける各トークンの出現確率を係数で表示 73for topic in lda.show_topics(-1): 74 print(topic) 75 76""" 77#文書の推定トピック番号 , 推定の確信度を表示 78for topics_per_document in lda[corpus]: 79 print(topics_per_document) 80""" 81 82corpus_time = t1 - t0 83print('コーパス生成時間:%f秒'%corpus_time) 84 85lda_time = t2 -t1 86print('LDAモデル生成時間:%f秒'%lda_time) 87 88total_time = t2 - t0 89print('合計時間:%f秒'%total_time)

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

まず、絞り込みの箇所にて、現状ではparts[0] の値にて「動詞」および「名詞」の抽出をしておりますが、同時にparts[1]の値を使用して、「代名詞」「非自立名詞」「接尾動詞」「非自立動詞」あたりを含まないようにすることで問題がかなり低減されるのではないでしょうか。

次に 辞書に含ませたくない単語の処理ですが、まず
NG_WORDS = ['ほげ', 'HOGE']
のように 辞書に含ませたくない単語のリストを作成し、絞り込の処理の中にて

Python

1for chunk in chunks: 2 # (中略) 3 # target_word が NGワード 対象のときはスキップ 4 if target_word not in NG_WORDS : 5 continue

のように処理を行うとよいかと思います。

以上をまとめると以下のような感じになります。
(絞り込処理部のみの抜粋)

Pyton

1# 絞り結果を格納 2sels = [] 3 4# 辞書に含ませたくない単語のリスト 5NG_WORDS = ['[', ']', '(', ')', '-', '/', '.', ',', '='] 6 7# 絞り込み 8for chunk in chunks: 9 #chunk:形態素解析結果(1行の文字列) 10 #タブ(\t)で区切り、文字列リストを作成 11 cols = chunk.split('\t') 12 if len(cols) >= 4: 13 #parts[0]:品詞の種類 14 parts = cols[3].split('-') 15 #指定した品詞で始まっている場合 → true 16 if parts[0].startswith('名詞') or parts[0].startswith('動詞'): 17 # 「代名詞」、「非自立名詞」はスキップ 18 if parts[0].startswith('名詞') and parts[1] in ['代名詞', '非自立']: 19 continue 20 # 「接尾動詞」、「非自立動詞」はスキップ 21 if parts[0].startswith('動詞') and parts[1] in ['接尾', '非自立']: 22 continue 23 # NGワード対象をスキップ 24 if cols[2] in NG_WORDS : 25 continue 26 27 #sels:形態素(原形)のみの行列 28 sels.append(cols[2])

投稿2017/11/09 01:05

magichan

総合スコア15898

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

aoisj

2017/11/09 04:50

いつも回答していただいてありがとうございます。 自分が用いていた処理を利用して絞り込みができたので、非常にありがたいです。 実行時間も約半分にすることができました。 今後も回答依頼をさせていただくことがあると思うので、よろしくお願いいたします。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.51%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問