回答編集履歴
2
説明を追加
answer
CHANGED
@@ -1,3 +1,9 @@
|
|
1
1
|
> failed to Create/Open: line_talk_data\line_talk_train.out
|
2
2
|
|
3
|
-
ファイルが見つかってないので、パス(ディレクトリ名やファイル名)が間違ってないか、確認してください
|
3
|
+
ファイルが見つかってないので、パス(ディレクトリ名やファイル名)が間違ってないか、確認してください
|
4
|
+
|
5
|
+
あと、上記エラーとは関係ないかもしれませんが、
|
6
|
+
[話題のTensorFlow・LINEトーク履歴を用いて対話ボットを作ってみた(5)](https://oimeg.blogspot.com/2016/11/tensorflow_15.html)
|
7
|
+
に、「line_talk_dataディレクトリには、学習データとして作成した4種類のファイルを格納する。」
|
8
|
+
と書いてあるのだから、四つのファイルは空ではダメでしょう
|
9
|
+
lineのトークから抽出した学習用データを入れないと
|
1
エラー対策の変更
answer
CHANGED
@@ -1,30 +1,3 @@
|
|
1
|
-
|
1
|
+
> failed to Create/Open: line_talk_data\line_talk_train.out
|
2
2
|
|
3
|
-
data_utils.py
|
4
|
-
```python
|
5
|
-
train_path = "C:\Users\○○\Documents\line_talk_data\line_talk_train"
|
6
|
-
|
3
|
+
ファイルが見つかってないので、パス(ディレクトリ名やファイル名)が間違ってないか、確認してください
|
7
|
-
|
8
|
-
out_vocab_path = "C:\Users\○○\Documents\line_talk_data\vocab40000.out"
|
9
|
-
in_vocab_path = "C:\Users\○○\Documents\line_talk_data\vocab40000.in"
|
10
|
-
create_vocabulary(out_vocab_path, "C:\Users\○○\Documents\line_talk_data\line_talk_train.out", out_vocabulary_size, tokenizer)
|
11
|
-
create_vocabulary(in_vocab_path, "C:\Users\○○\Documents\line_talk_data\line_talk_train.in", in_vocabulary_size, tokenizer)
|
12
|
-
|
13
|
-
out_train_ids_path = "C:\Users\○○\Documents\line_talk_data\line_talk_train.ids40000.out"
|
14
|
-
in_train_ids_path = "C:\Users\○○\Documents\line_talk_data\line_talk_train.ids40000.in"
|
15
|
-
data_to_token_ids("C:\Users\○○\Documents\line_talk_data\line_talk_train.out", out_train_ids_path, out_vocab_path, tokenizer)
|
16
|
-
data_to_token_ids("C:\Users\○○\Documents\line_talk_data\line_talk_train.in", in_train_ids_path, in_vocab_path, tokenizer)
|
17
|
-
|
18
|
-
out_dev_ids_path = "C:\Users\○○\Documents\line_talk_data\line_talk_dev.ids40000.out"
|
19
|
-
in_dev_ids_path = "C:\Users\○○\Documents\line_talk_data\line_talk_dev.ids40000.in"
|
20
|
-
data_to_token_ids("C:\Users\○○\Documents\line_talk_data\line_talk_dev.out", out_dev_ids_path, out_vocab_path, tokenizer)
|
21
|
-
data_to_token_ids("C:\Users\○○\Documents\line_talk_data\line_talk_dev.in", in_dev_ids_path, in_vocab_path, tokenizer)
|
22
|
-
```
|
23
|
-
|
24
|
-
chatbot.py
|
25
|
-
```python
|
26
|
-
checkpoint_path = "C:\Users\○○\Documents\line_talk_train\chatbot.ckpt"
|
27
|
-
|
28
|
-
en_vocab_path = "C:\Users\○○\Documents\line_talk_data\vocab40000.in"
|
29
|
-
fr_vocab_path = "C:\Users\○○\Documents\line_talk_data\vocab40000.out"
|
30
|
-
```
|