質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.51%

  • Python 3.x

    6387questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

ngramの実装について mecab部分の除去

解決済

回答 2

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 121

rysy_9

score 7

 前提・実現したいこと

私はサイト上のテキストの中にどのような単語が多く含まれ出現しているのか調べるプログラムを現在組んでいます。その中で、形態素解析を先にしたプログラムを作り、その部分だけを取り除きたいと思い試行錯誤したのですがなかなかうまくいきません。mecab処理のところをどのように消せばいいのか教えていただきたいです。

 該当のソースコード

# coding: utf-8

import sys
import json
import MeCab
import urllib.request, urllib.error, urllib.parse
from collections import defaultdict
from operator import itemgetter
from bs4 import BeautifulSoup
from bs4 import NavigableString
from bs4 import Comment, Declaration

class Ngram():

    def __init__(self, N=3):
        self.N = N
        self.tagger = MeCab.Tagger("-Owakati")

    def get(self, text, ngram=None):
        seq = self.tagger.parse(text).split()

        if ngram is None:
            ngram = [defaultdict(int) for x in range((self.N + 1))]
            ngram[0] = None

        for i in range(len(seq)):
            for n in range(1, self.N + 1):
                idx = i - n + 1  # check ngram is valid range
                if idx >= 0:
                    key_words = []
                    for j in range(idx, i+1):
                        key_words.append(seq[j])
                    key = ' '.join(key_words)
                    ngram[n][key] += 1

        return ngram


class HTMLParser():

    def get(self, url):
        try:
            c = urllib.request.urlopen(url)
        except:
            print("Could not open %s" % url)
            return ""

        soup = BeautifulSoup(c.read(), "lxml")
        text = '\n'.join(self.__getNavigableStrings(soup))
        return text

    def __getNavigableStrings(self, soup):
        if isinstance(soup, NavigableString):
            if type(soup) not in (Comment, Declaration) and soup.strip():
                yield soup
        elif soup.name not in ('script', 'style'):
            for c in soup.contents:
                for g in self.__getNavigableStrings(c):
                    yield g


if __name__ == "__main__":

    f = open("urls.json", "r")
    urls = json.load(f)
    f.close()
    print("Count of urls : " + str(len(urls)))

    N = 10
    hp = HTMLParser()
    ng = Ngram(N)

    ngram = None
    for url in urls:
        text = hp.get(url)
        ngram = ng.get(text, ngram)

    for n in range(1, (N + 1)):
        f = open('outputs/{:02d}.tsv'.format(n), 'w')
        out = ""
        for k, v in sorted(list(ngram[n].items()), key=itemgetter(1), reverse=True):
            out += "{}\t{}\n".format(k, v)
        f.write(out)
        f.close()

mecab処理の部分をコメントアウトした際のエラー文

Count of urls : 1
Traceback (most recent call last):
File "ngram.py", line 76, in <module>
ngram = ng.get(text, ngram)
File "ngram.py", line 20, in get
seq = self.parse(text).split()
AttributeError: 'Ngram' object has no attribute 'parse'

試したこと

mecabの部分をコメントアウトしたりしたのですがうまくいかなかったです。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • quiqui

    2018/06/14 14:14

    単語を区切らずにどうやって出現している単語が確認できるのか説明ください。文字ngramで十分ということですか?

    キャンセル

  • quiqui

    2018/06/14 14:33

    例えば、"私はサイト上のテキストの中にどのような単語が多く含まれ出現しているのか調べるプログラムを現在組んでいます。"という文を処理した時の欲しい結果はなんですか?

    キャンセル

  • rysy_9

    2018/06/14 14:40

    私、は、サ、イ...のように1文字単位でngram処理をしたいです。mecab処理をしてしまうと私、は、サイトのようになってしまうところを修正したいです。

    キャンセル

回答 2

checkベストアンサー

0

最低限だと

    def get(self, text, ngram=None):
        seq = self.tagger.parse(text).split()


    def get(self, seq, ngram=None):


で。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

0

ほとんど何もしなくても文字n-gramは作れますね。

import MeCab
from collections import defaultdict
from pprint import pprint

class Ngram():
    def __init__(self, N=3):
        self.N = N
        self.tagger = MeCab.Tagger("-Owakati")

    def get(self, seq, ngram=None):  # 引数名を変更
        #  seq = self.tagger.parse(text).split()  # コメントアウト

        if ngram is None:
            ngram = [defaultdict(int) for x in range((self.N + 1))]
            ngram[0] = None

        for i in range(len(seq)):
            for n in range(1, self.N + 1):
                idx = i - n + 1  # check ngram is valid range
                if idx >= 0:
                    key_words = []
                    for j in range(idx, i+1):
                        key_words.append(seq[j])
                    key = ' '.join(key_words)
                    ngram[n][key] += 1

        return ngram

ngram = Ngram()
pprint(ngram.get("吾輩は猫である。"))
""" =>
[None,
 defaultdict(<class 'int'>,
             {'。': 1,
              'あ': 1,
              'で': 1,
              'は': 1,
              'る': 1,
              '吾': 1,
              '猫': 1,
              '輩': 1}),
 defaultdict(<class 'int'>,
             {'あ る': 1,
              'で あ': 1,
              'は 猫': 1,
              'る 。': 1,
              '吾 輩': 1,
              '猫 で': 1,
              '輩 は': 1}),
 defaultdict(<class 'int'>,
             {'あ る 。': 1,
              'で あ る': 1,
              'は 猫 で': 1,
              '吾 輩 は': 1,
              '猫 で あ': 1,
              '輩 は 猫': 1})]
"""

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.51%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

  • 解決済

    mecab-asyncによる文字化け

    mecab-asyncの例にあった var MeCab = new require('mecab-async') , mecab = new MeCab() ; var

  • 受付中

    MeCab.jarの生成について

    前提・実現したいこと MeCabを使って形態素解析をしようとしています。 発生している問題・エラーメッセージ javaバインディングの際にmakeするあたりが分からずに困

  • 受付中

    形態素解析の結果の際pydotplus、graphvizの結果が白紙出力

    いつもお世話になっております。質問です。 実現したいこと 以下のコードの実行結果がgraph().jpgで出力されるが、真っ白で出力。 しかし画像サイズはそれぞれ別々のサイズで

  • 解決済

    mecab 品詞 選択

    やりたいこと 選択したテキストファイル内の文章をmecabを用いて形態素解析し、 品詞(名詞、動詞など)を絞り込みたいと考えています。 現在、テキストファイルの文章を形態素解析する

  • 解決済

    複数のテキストファイルをLDAモデルに

    やりたいこと 複数のテキストファイルを入力とし、指定したトピック数に分類するプログラムを作成したいと考えています。 現在、一つのテキストファイルをLDAモデルに投入するプログラムは

  • 解決済

    エラーの原因がわかりません。。

    前提・実現したいこと 『~短期集中講座~ 土日でわかる Pythonプログラミング教室』でpythonを学んでいるのですが、エラーが出てしまい解決方法がわかりません。 Dock

  • 解決済

    テキストに番号を付けて管理したい

    困っていること 入力したファイルのトピックを抽出するための前段階として 指定したディレクトリ内の.txtファイルを用いてLDAモデルを作成するプログラムを実装したのですが、 現在の

  • 受付中

    1つのファイルのトピックを調べたい(LDAモデル)

    質問 LDAモデルに詳しい方に質問です。 また、以下に記すプログラムで 複数の小説のテキストファイルからLDAモデルを作成したとき、その中に含まれる 1つの文書のトピックを参照

同じタグがついた質問を見る

  • Python 3.x

    6387questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。