質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
プログラミング言語

プログラミング言語はパソコン上で実行することができるソースコードを記述する為に扱う言語の総称です。

文字コード

文字コードとは、文字や記号をコンピュータ上で使用するために用いられるバイト表現を指します。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

自然言語処理

自然言語処理は、日常的に使用される自然言語をコンピューターに処理させる技術やソフトウェアの総称です。

Q&A

1回答

1713閲覧

形態素解析python

fukubaka

総合スコア11

プログラミング言語

プログラミング言語はパソコン上で実行することができるソースコードを記述する為に扱う言語の総称です。

文字コード

文字コードとは、文字や記号をコンピュータ上で使用するために用いられるバイト表現を指します。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

自然言語処理

自然言語処理は、日常的に使用される自然言語をコンピューターに処理させる技術やソフトウェアの総称です。

0グッド

0クリップ

投稿2021/01/24 19:38

前提・実現したいこと

質問の分野は自然言語処理についてです。
まず、私が実践していることは以下のことです。

1.形態素解析により単語に分解
-文から不要な文字を削除
-文を単語ごとに分割
-単語を正規化し、必要な単語のみを取得
-単語の原型に変換
2.リストに変換する。
3.助詞などの不要な単語を除外(ストップワードの除外)

python、プログラミング初心者で、周りに頼る人がいないため、エラーの対処方法がわかりません。
どうぞ皆様、ご教授お願い致します。

発生している問題・エラーメッセージ

TypeError Traceback (most recent call last) <ipython-input-7-0ec55471d8a8> in <module> 53 ] 54 ---> 55 analyzer = Analyzer(char_filters, tokenizer, token_filters) 56 57 TypeError: __init__() takes 1 positional argument but 4 were given

該当のソースコード

from pathlib import Path from janome.charfilter import * from janome.analyzer import Analyzer from janome.tokenizer import Tokenizer from janome.tokenfilter import * from gensim import corpora data_dir_path = Path('.') corpus_dir_path = Path('.') file_name = 'tags.txt' with open(data_dir_path.joinpath(file_name), 'r', encoding='utf-8') as file: texts = file.readlines() texts = [text_.replace('\n', '') for text_ in texts] # janomeのAnalyzerを使うことで、文の分割と単語の正規化をまとめて行うことができる # 文に対する処理のまとめ char_filters = [UnicodeNormalizeCharFilter(), # UnicodeをNFKC(デフォルト)で正規化 RegexReplaceCharFilter('(', ''), # (を削除 RegexReplaceCharFilter(')', '') # )を削除 ] # 単語に分割 tokenizer = Tokenizer() # # 名詞中の数(漢数字を含む)を全て0に置き換えるTokenFilterの実装 # class NumericReplaceFilter(TokenFilter): def apply(self, tokens): for token in tokens: parts = token.part_of_speech.split(',') if (parts[0] == '名詞' and parts[1] == '数'): token.surface = '0' token.base_form = '0' token.reading = 'ゼロ' token.phonetic = 'ゼロ' yield token # # ひらがな・カタガナ・英数字の一文字しか無い単語は削除 # class OneCharacterReplaceFilter(TokenFilter): def apply(self, tokens): for token in tokens: # 上記のルールの一文字制限で引っかかった場合、その単語を無視 if re.match('^[あ-んア-ンa-zA-Z0-9ー]$', token.surface): continue yield token # 単語に対する処理のまとめ token_filters = [NumericReplaceFilter(), # 名詞中の漢数字を含む数字を0に置換 CompoundNounFilter(), # 名詞が連続する場合は複合名詞にする # POSKeepFilter(['名詞', '動詞', '形容詞', '副詞']), # 名詞・動詞・形容詞・副詞のみを取得する POSKeepFilter(['名詞']), # 名詞のみを取得する LowerCaseFilter(), # 英字は小文字にする OneCharacterReplaceFilter() # 一文字しか無いひらがなとカタガナと英数字は削除 ] analyzer = Analyzer(char_filters, tokenizer, token_filters) tokens_list = [] raw_texts = [] for text in texts: # 文を分割し、単語をそれぞれ正規化する text_ = [token.base_form for token in analyzer.analyze(text)] if len(text_) > 0: tokens_list.append([token.base_form for token in analyzer.analyze(text)]) raw_texts.append(text) # 正規化された際に一文字もない文の削除後の元テキストデータ raw_texts = [text_+'\n' for text_ in raw_texts] with open(data_dir_path.joinpath(file_name.replace('.txt', '_cut.txt')), 'w', encoding='utf-8') as file: file.writelines(raw_texts) # 単語リストの作成 words = [] for text in tokens_list: words.extend([word+'\n' for word in text if word != '']) with open(corpus_dir_path.joinpath(file_name.replace('.txt', '_word_list.txt')), 'w', encoding='utf-8') as file: file.writelines(words) # 単語リストからストップワードを削除 ## ストップワードファイルからの呼び込み stop_words = [] path = 'stopwords_jp.txt' with open(path) as f: stop_words = f.readlines() ## ストップワードの除外 changed_words = [word for word in words if word not in stop_words] print('-----------------') print('Delited ' + str(len(words) - len(changed_words)) + ' words' ) print('-----------------') with open(corpus_dir_path.joinpath(file_name.replace('.txt', '_word_list_exclude.txt')), 'w', encoding='utf-8') as file: file.writelines(changed_words)

補足情報(FW/ツールのバージョンなど)

https://web-kiwami.com/count-words-article-python.html

こちらの記事を参考にコードを試しています。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

使ったことはありませんが、マニュアルを見ると以下を変更するとエラーは消せそうです。

analyzer = Analyzer(char_filters, tokenizer, token_filters)

analyzer = Analyzer(char_filters=char_filters, tokenizer=tokenizertokenizer, token_filters=token_filters)

に変更

投稿2021/01/24 22:52

ppaul

総合スコア24666

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだベストアンサーが選ばれていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問