質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.51%

  • Python 3.x

    6416questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • Mecab

    170questions

    Mecabは、オープンソースの形態素解析エンジンです。 言語、辞書、コーパスに依存しない汎用的な設計を基本方針としています。 Mecabの由来は、開発者の好物である和布蕪(めかぶ)から名づけられました。

#Mecabで内容語のみを抽出したい

解決済

回答 1

投稿

  • 評価
  • クリップ 0
  • VIEW 746

aoisj

score 19

やりたいこと

mecabでの形態素解析結果のうち、内容語(名詞、動詞、形容詞)のみを配列に格納したいと考えています。
調べてみたところ、

http://kiyukuta.github.io/2013/09/05/mecab_wakati_content.html

こちらのサイトに書かれていたのですが、私は実装中のプログラムでは形態素解析に
MeCab.Tagger("-Ochasen")を用い、(-Owakati_content)を用いると辞書の
形式が変わってしまうため、その後の処理を行うことができなくなってしまいます。

以下に実装中のプログラムの記すのですが、
このプログラムに利用できる内容語のみに絞り込む方法を教えていただきたいです。

#!/usr/bin/env python3
# -*- coding: utf-8 -*-

#トピックモデル(入力:指定したディレクトリ内の.txtファイル)

import time
import os
import glob
import MeCab
from gensim import corpora, models

#ディレクトリ指定
input_dir = input('select directory:')

t0 = time.time()

txt_list = glob.glob(input_dir + os.sep + '*.txt')

texts = ''
for file in txt_list:
    with open(file, 'r', encoding='utf-8') as f:
        texts += f.read()

f.close()

#文字列を改行位置で区切って分割する(形態素解析)
m = MeCab.Tagger ("-Ochasen")
chunks = m.parse(texts).splitlines()

#絞り結果を格納
sels = []

#絞り込み
for chunk in chunks:
    #chunk:形態素解析結果(1行の文字列)
    #タブ(\t)で区切り、文字列リストを作成
    cols = chunk.split('\t')
    if len(cols) >= 4:
        #parts[0]:品詞の種類
        parts = cols[3].split('-')
        #指定した品詞で始まっている場合 → true
        if parts[0].startswith('名詞') or parts[0].startswith('動詞'):
            #sels:形態素(原形)のみの行列
            sels.append(cols[2])

#辞書作成
dictionary = corpora.Dictionary([sels])

"""
no_below:出現回数no_below回以下の単語を排除
no_above:全体のno_above以上に出現した単語を排除(no_above = 0.3 ➝ 30%)
"""
#辞書加工
#dictionary.filter_extremes(no_below = 1,no_above = 0.3)


#[辞書の単語数]次元のベクトルに変換(コーパス作成)
corpus = [dictionary.doc2bow(sels) for sel in sels]

t1 = time.time()

#LDAモデルに投入
lda = models.LdaModel(corpus = corpus,
                      id2word = dictionary,
                      #トピック数
                      num_topics = 20)

t2 = time.time()

print(lda)

#各トピックにおける各トークンの出現確率を係数で表示
for topic in lda.show_topics(-1):
    print(topic)

"""
#文書の推定トピック番号 , 推定の確信度を表示
for topics_per_document in lda[corpus]:
    print(topics_per_document)
"""

corpus_time = t1 - t0
print('コーパス生成時間:%f秒'%corpus_time)

lda_time = t2 -t1
print('LDAモデル生成時間:%f秒'%lda_time)

total_time = t2 - t0
print('合計時間:%f秒'%total_time)


出力例

select file(ex, ○○.txt):0.txt
LdaModel(num_terms=147, num_topics=20, decay=0.5, chunksize=2000)
(0, '0.060*"する" + 0.039*"俺" + 0.029*"ここ" + 0.025*"いる" + 0.024*"の" + 0.021*"ん" + 0.019*"すべて" + 0.016*"はず" + 0.015*"誰" + 0.014*"存在"')
(1, '0.049*"俺" + 0.049*"する" + 0.032*"ここ" + 0.029*"いる" + 0.028*"の" + 0.022*"すべて" + 0.016*"否定" + 0.015*"肯定" + 0.014*"誰" + 0.014*"神様"')
(2, '0.064*"する" + 0.061*"俺" + 0.029*"の" + 0.028*"いる" + 0.028*"ここ" + 0.022*"ん" + 0.017*"肯定" + 0.016*"否定" + 0.014*"はず" + 0.014*"すべて"')
(3, '0.045*"俺" + 0.043*"する" + 0.033*"いる" + 0.032*"の" + 0.024*"ここ" + 0.020*"ん" + 0.018*"すべて" + 0.017*"肯定" + 0.017*"はず" + 0.015*"否定"')
(4, '0.016*"する" + 0.015*"俺" + 0.012*"いる" + 0.011*"の" + 0.011*"ん" + 0.010*"すべて" + 0.009*"ここ" + 0.009*"はず" + 0.009*"言う" + 0.009*"否定"')
(5, '0.045*"俺" + 0.043*"する" + 0.024*"ここ" + 0.023*"いる" + 0.022*"の" + 0.019*"言う" + 0.019*"肯定" + 0.018*"はず" + 0.017*"ん" + 0.017*"否定"')
(6, '0.072*"する" + 0.051*"俺" + 0.037*"ここ" + 0.026*"いる" + 0.022*"の" + 0.017*"はず" + 0.015*"神" + 0.015*"すべて" + 0.014*"言う" + 0.014*"ん"')
(7, '0.052*"俺" + 0.052*"する" + 0.033*"ここ" + 0.029*"の" + 0.022*"ん" + 0.019*"いる" + 0.018*"すべて" + 0.018*"はず" + 0.017*"神" + 0.015*"否定"')
(8, '0.060*"する" + 0.044*"俺" + 0.035*"の" + 0.025*"ここ" + 0.024*"いる" + 0.020*"すべて" + 0.018*"はず" + 0.016*"否定" + 0.016*"ある" + 0.015*"神様"')
(9, '0.020*"する" + 0.017*"俺" + 0.015*"ここ" + 0.014*"いる" + 0.013*"の" + 0.011*"ん" + 0.010*"肯定" + 0.009*"ある" + 0.009*"すべて" + 0.009*"言う"')
(10, '0.054*"する" + 0.047*"俺" + 0.039*"ここ" + 0.029*"いる" + 0.021*"の" + 0.017*"肯定" + 0.017*"否定" + 0.017*"すべて" + 0.016*"ん" + 0.015*"はず"')
(11, '0.060*"する" + 0.038*"俺" + 0.029*"いる" + 0.026*"の" + 0.025*"ここ" + 0.022*"すべて" + 0.022*"ん" + 0.018*"肯定" + 0.017*"はず" + 0.015*"誰"')
(12, '0.043*"する" + 0.030*"俺" + 0.030*"いる" + 0.025*"の" + 0.024*"ここ" + 0.018*"すべて" + 0.017*"ん" + 0.014*"言う" + 0.013*"誰" + 0.013*"何"')
(13, '0.059*"俺" + 0.043*"する" + 0.035*"ここ" + 0.028*"の" + 0.021*"いる" + 0.018*"ん" + 0.017*"はず" + 0.015*"神" + 0.015*"否定" + 0.014*"何"')
(14, '0.049*"する" + 0.048*"俺" + 0.029*"ここ" + 0.027*"の" + 0.026*"いる" + 0.020*"ん" + 0.016*"はず" + 0.016*"すべて" + 0.015*"肯定" + 0.015*"否定"')
(15, '0.025*"俺" + 0.022*"する" + 0.019*"の" + 0.017*"いる" + 0.013*"ここ" + 0.012*"肯定" + 0.012*"すべて" + 0.012*"神" + 0.012*"はず" + 0.011*"否定"')
(16, '0.055*"俺" + 0.049*"する" + 0.033*"ここ" + 0.025*"の" + 0.025*"いる" + 0.019*"はず" + 0.018*"すべて" + 0.018*"ん" + 0.016*"否定" + 0.014*"誰"')
(17, '0.056*"する" + 0.049*"俺" + 0.034*"ここ" + 0.031*"いる" + 0.025*"の" + 0.018*"ん" + 0.016*"否定" + 0.016*"はず" + 0.016*"肯定" + 0.015*"言う"')
(18, '0.050*"する" + 0.034*"ここ" + 0.033*"俺" + 0.028*"いる" + 0.025*"すべて" + 0.022*"の" + 0.022*"ん" + 0.018*"言う" + 0.016*"こと" + 0.014*"はず"')
(19, '0.046*"俺" + 0.034*"ここ" + 0.031*"する" + 0.025*"いる" + 0.023*"の" + 0.023*"ん" + 0.021*"すべて" + 0.018*"肯定" + 0.018*"はず" + 0.016*"言う"')
コーパス生成時間:0.079735秒
LDAモデル生成時間:5.059341秒
合計時間:5.139076
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • quiqui

    2017/11/08 21:33

    今こまっていること、できないことがなんなのかハッキリしないです。内容語に絞り込むロジックは(形容詞が抜けていますが)もう入ってますよね?

    キャンセル

  • aoisj

    2017/11/08 23:23

    質問ありがとうございます。quiquiさんがおっしゃる通り、現在のプログラムで名詞と動詞を選択し格納できているのですが、処理が多くなってしまっているので、少ない処理で同じ機能を実装したいと思い、質問させていただきました。

    キャンセル

  • quiqui

    2017/11/09 08:02

    ごめんなさい。やっぱり何に困っているのかわからないです。処理が多いというのはどういうことですか? この手の前処理は、どうやっても泥臭いトライアンドエラーにしかならないと思います。

    キャンセル

回答 1

check解決した方法

0

別の質問の方で解決していただきました。
「指定した言葉を排除したい」で解決しましたので、
そちらをご覧ください。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.51%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

  • 解決済

    pythonでMecabを利用した語彙解析がうまくできない。

    ●環境 ・Windows Edition:Windows 7 Professional  Service Pack 1 ・pythonバージョン:Python 3.6.2 (v3.

  • 解決済

    mecab 品詞 選択

    やりたいこと 選択したテキストファイル内の文章をmecabを用いて形態素解析し、 品詞(名詞、動詞など)を絞り込みたいと考えています。 現在、テキストファイルの文章を形態素解析する

  • 解決済

    複数のテキストファイルをLDAモデルに

    やりたいこと 複数のテキストファイルを入力とし、指定したトピック数に分類するプログラムを作成したいと考えています。 現在、一つのテキストファイルをLDAモデルに投入するプログラムは

  • 解決済

    指定した言葉を排除したい

    やりたいこと テキストファイルからトピックモデルを作成するプログラムを実装中なのですが、コーパスを生成するのに用いる辞書に指示語(あれ、ここ、そちら)や、それ自体に重要な意味を持た

  • 解決済

    mecabでセリフのみを抽出したい

    やりたいこと mecabを用いて入力したテキストファイルのセリフ部分(「」や『』で囲まれている部分)の 名詞(代名詞,非自立名詞,数,固有名詞を除く)を取り出して行列selsに格納

  • 解決済

    テキストに番号を付けて管理したい

    困っていること 入力したファイルのトピックを抽出するための前段階として 指定したディレクトリ内の.txtファイルを用いてLDAモデルを作成するプログラムを実装したのですが、 現在の

  • 受付中

    1つのファイルのトピックを調べたい(LDAモデル)

    質問 LDAモデルに詳しい方に質問です。 また、以下に記すプログラムで 複数の小説のテキストファイルからLDAモデルを作成したとき、その中に含まれる 1つの文書のトピックを参照

  • 解決済

    mecabで出力したデータの型と内容

    python3でmecabを用いた形態要素解析をしています。 from natto import MeCab m = MeCab() s = ”散歩したい。” l = m.p

同じタグがついた質問を見る

  • Python 3.x

    6416questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • Mecab

    170questions

    Mecabは、オープンソースの形態素解析エンジンです。 言語、辞書、コーパスに依存しない汎用的な設計を基本方針としています。 Mecabの由来は、開発者の好物である和布蕪(めかぶ)から名づけられました。