回答編集履歴
2
追記
test
CHANGED
@@ -181,3 +181,51 @@
|
|
181
181
|
2. PCA で次元削減
|
182
182
|
|
183
183
|
3. 学習したモデルに流す。
|
184
|
+
|
185
|
+
|
186
|
+
|
187
|
+
----
|
188
|
+
|
189
|
+
|
190
|
+
|
191
|
+
## 追加の質問について
|
192
|
+
|
193
|
+
|
194
|
+
|
195
|
+
```
|
196
|
+
|
197
|
+
1. 学習済みのモデルなければいけない
|
198
|
+
|
199
|
+
```
|
200
|
+
|
201
|
+
|
202
|
+
|
203
|
+
今回のメルカリの記事はディープラーニングで End-to-End で分類モデルを学習するという話でなく、学習済みのモデルを使って特徴量を抽出して、次元圧縮して、分類に利用するって話ですよね。
|
204
|
+
|
205
|
+
だから、学習済みモデルを使っています。
|
206
|
+
|
207
|
+
|
208
|
+
|
209
|
+
学習済みモデルを使うメリットについては [過去の質問](https://teratail.com/questions/147018) を参考にしてください。
|
210
|
+
|
211
|
+
|
212
|
+
|
213
|
+
```
|
214
|
+
|
215
|
+
2. tfrecordの場合は次元削減できないので、numpyの画像を使うしかない
|
216
|
+
|
217
|
+
の2つは絶対条件なのでしょうか?
|
218
|
+
|
219
|
+
```
|
220
|
+
|
221
|
+
|
222
|
+
|
223
|
+
tfrecord にこだわる理由はなにかあるのでしょうか?
|
224
|
+
|
225
|
+
tfrecord は Tensorflow でデータセットを扱う際に protocol buffer 形式で画像やラベルなど必要なデータをまとめたファイルフォーマットです。なので、元の画像があれば、わざわざ tf-recoard 形式にしなくてもそれを numpy として読み込んめばいいかと思います。
|
226
|
+
|
227
|
+
もちろん、protocol buffer は複数のデータを構造体のように固めただけなのでそこからデータ取り出すこともできます。
|
228
|
+
|
229
|
+
|
230
|
+
|
231
|
+
ちなみに sklearn の PCA で次元削減することと Deep Learning ライブラリで画像の特徴を抽出することは直接は関係ないので、そこは切り分けて考えてください。
|
1
誤字
test
CHANGED
@@ -96,9 +96,9 @@
|
|
96
96
|
|
97
97
|
```python
|
98
98
|
|
99
|
+
import numpy as np
|
100
|
+
|
99
101
|
from PIL import Image
|
100
|
-
|
101
|
-
import numpy as np
|
102
102
|
|
103
103
|
|
104
104
|
|
@@ -154,7 +154,7 @@
|
|
154
154
|
|
155
155
|
# 主成分分析の結果に基づき、次元削減する。
|
156
156
|
|
157
|
-
data= fit_transform(f
|
157
|
+
data = fit_transform(features)
|
158
158
|
|
159
159
|
```
|
160
160
|
|