🎄teratailクリスマスプレゼントキャンペーン2024🎄』開催中!

\teratail特別グッズやAmazonギフトカード最大2,000円分が当たる!/

詳細はこちら
Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

自然言語処理

自然言語処理は、日常的に使用される自然言語をコンピューターに処理させる技術やソフトウェアの総称です。

Q&A

1回答

1904閲覧

単語のID化ができない

sattun516

総合スコア0

Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

自然言語処理

自然言語処理は、日常的に使用される自然言語をコンピューターに処理させる技術やソフトウェアの総称です。

0グッド

1クリップ

投稿2021/01/15 04:56

編集2021/01/15 05:52

## 単語埋め込みがしたい
機械学習のモデル(LSTMなど)にテキストデータを入力したいのでembedding layerを利用したいです。
データセットは青空文庫の小説を利用しようと思っております。
環境はGoogle Colaboratoryです。

やりたいことは以下の通りです。
0. 単語の分かち書き(ここはできた)
0. ID化
0. Word2Vecの分散表現とIDを辞書にする?
0. embedding層に埋め込む(参考サイト様)
kerasで学習済みword2vecをembedding layerに組み込む方法
0. モデルを作る
0. 文章生成のコードを書く

ソースコード

Python

1import os 2import tensorflow as tf 3import tensorflow_datasets as tfds 4import numpy as np 5import random 6from google.colab import files 7import re 8from janome.tokenizer import Tokenizer

python

1FILE_PATH = "./kaijin.txt" 2text="" 3with open(FILE_PATH, 'r',encoding="utf-8") as f: 4 for line in f: 5 lines = line.split() 6 text += " ".join(lines) 7 text1 = re.sub("《[^》]+》", "", text) # ルビの削除 8 text1 = re.sub("[[^]]+]", "", text1) # 読みの注意の削除 9 text1 = re.sub("[|  「」\n]", "", text1) # | と全角半角スペース、「」と改行の削除 10 11text = text.lower() 12seperator = "。" # 。をセパレータに指定 13text2 = text1.split(seperator) # セパレーターを使って文章をリストに分割する 14text2.pop() # 最後の要素は空の文字列になるので、削除 15text2 = [x+seperator for x in text2] # 文章の最後に。を追加 16print(text2)

python

1example_text = [] 2 3t = Tokenizer() # Tokenizerの初期化。 4for i in text2: 5 for token in t.tokenize(i): 6 example_text.append(token.surface) 7print(example_text)

['その', 'ころ', '、', '東京', '中', 'の', '町', 'という', '町', '、', '家', 'という', '家', 'で', 'は', '、', 'ふたり', '以上', 'の', '人', 'が', '顔', 'を', 'あわせ', 'さえ', 'すれ', 'ば', '、', 'まるで', 'お', '天気', 'の', 'あいさつ', 'でも', 'する', 'よう', 'に', '、', '怪人', '二', '十', '面相', 'の', 'うわさ', 'を', 'し', 'て', 'い', '顔', '、', 'ちがっ', 'た', '姿', 'で', '、', '人', 'の', '前', 'に', 'あらわれる', 'の', 'です', '。']

このように分かち書きまではできました。

python

1tokenizer = Tokenizer(wakati=True) 2tokenized_text = tokenizer.tokenize(example_text) 3vocabulary_list = list(set(tokenized_text)) 4encoder = tfds.deprecated.text.TokenTextEncoder(vocabulary_list, tokenizer=tokenizer) 5encoded_example = encoder.encode(example_text)
AttributeError Traceback (most recent call last) <ipython-input-27-ff6fec81ea0d> in <module>() 4 5 tokenizer = Tokenizer(wakati=True) ----> 6 tokenized_text = tokenizer.tokenize(example_text) 7 vocabulary_list = list(set(tokenized_text)) 8 encoder = tfds.deprecated.text.TokenTextEncoder(vocabulary_list, tokenizer=tokenizer) AttributeError: 'list' object has no attribute 'strip'

TensorFlow Datasetsを使ってテキストの分かち書きとID化をする
こちらのサイト様を参考にしてID化しようとしているのですが、エラーが起きてしまい上手くID化できませんでした。

リスト型からstr型に変換すれば解決できるのでしょうか?
そして図々しいですが、この後どうすれば[単語, 単語ID, W2Vの分散表現]という配列?を作れるのでしょうか。
できればコードを書いて教えていただきたいです。

追記

Python

1tokenizer = Tokenizer(wakati=True) 2tokenized_text = tokenizer.tokenize(','.join(map(str,example_text))) 3vocabulary_list = list(set(tokenized_text)) 4encoder = tfds.deprecated.text.TokenTextEncoder(vocabulary_list, tokenizer=tokenizer) 5encoded_example = encoder.encode(example_text)

TypeError

1<ipython-input-49-771cfc3993de> in <module>() 2 7 vocabulary_list = list(set(tokenized_text)) 3 8 encoder = tfds.deprecated.text.TokenTextEncoder(vocabulary_list, tokenizer=tokenizer) 4----> 9 encoded_example = encoder.encode(example_text) 5 6TypeError: Expected binary or unicode string, 7got ['その', 'ころ', '、', '東京', '中', 'の', '町', 'という',…]

書き換えてみるとこうなりました。どうすればいいでしょうか…

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

Daregada

2021/01/29 16:10

なぜ、分かち書きがおわったリスト(example_text, 名前が良くないね)を、再度tokenizeしようとしているんですか?
guest

回答1

0

エラーの原因は、tokenizeが終わったリストをtokenizeの引数に指定していることです。複数のWebページを参考にしていて、すり合わせができていないのでは?

以下は、ファイル全体を一気に読んで、まとめてルビの削除などを行ない、文ごとに分割せずにtokenizeとID化を行なう例です。

Python

1from janome.tokenizer import Tokenizer 2import tensorflow_datasets as tfds 3import re 4 5FILE_PATH = "./kaijin.txt" 6example_text = "" 7with open(FILE_PATH, 'r', encoding="utf-8") as f: 8 example_text = f.read() 9 10example_text = re.sub("《.+?》", "", example_text) # ルビの削除 11example_text = re.sub("[.+?]", "", example_text) # 読みの注意の削除 12example_text = re.sub("[|  「」\n]", "", example_text) # | と全角半角スペース、「」と改行の削除 13example_text = example_text.lower() 14print(f"example_text: {example_text}") 15 16tokenizer = Tokenizer(wakati=True) 17tokenized_text = list(tokenizer.tokenize(example_text)) 18print(f"tokenized_text: {tokenized_text}") 19 20vocabulary_list = list(set(tokenized_text)) 21print(f"vocabulary_list: {vocabulary_list}") 22 23encoder = tfds.deprecated.text.TokenTextEncoder( 24 vocabulary_list, tokenizer=tokenizer) 25encoded_example = encoder.encode(example_text) 26print(f"encoded_example: {encoded_example}") 27 28print(dict(zip(vocabulary_list, encoded_example))) 29 30decoded_example = encoder.decode(encoded_example) 31print(f"decoded_example: {decoded_example}")

投稿2021/01/29 19:14

Daregada

総合スコア11990

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだベストアンサーが選ばれていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.36%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問