質問編集履歴
1
「精度が7割しか出ていない」につきましての補足を末尾に追記いたしました
test
CHANGED
File without changes
|
test
CHANGED
@@ -115,3 +115,29 @@
|
|
115
115
|
・画像判定の機械学習
|
116
116
|
|
117
117
|
・物体認識の機械学習
|
118
|
+
|
119
|
+
|
120
|
+
|
121
|
+
|
122
|
+
|
123
|
+
当初サンプル画像として入手した画像に対する訓練につきましては
|
124
|
+
|
125
|
+
Lossについては、7Epoch分の学習を行い、3Epoch目から0.0となり
|
126
|
+
|
127
|
+
accuracyについては、6Epoch目から1.0となりました
|
128
|
+
|
129
|
+
(OK画像1枚。NG画像は手作業でドットを付与したものを用いて、水増しを行い200枚の訓練データを用意)
|
130
|
+
|
131
|
+
|
132
|
+
|
133
|
+
ただ、訓練画像としてサンプルでいただいたものは、判定に必要な領域をアップで撮影したもので
|
134
|
+
|
135
|
+
実運用上は、撮影者・撮影距離によって、判定に必要な領域以外の箇所が含まれることになります。
|
136
|
+
|
137
|
+
なので、さらにサンプルとして、少し距離を置いたイチから撮影した画像(OK)を
|
138
|
+
|
139
|
+
訓練したモデルを用いて判定すると、0.65-0.72程度の範囲でOKするようになりました。
|
140
|
+
|
141
|
+
撮影者・撮影距離によるバラツキを考えると、自動で、画像内における判定対象領域を特定(物体認識)後に
|
142
|
+
|
143
|
+
OK/NG判定するようにできれば、OK/NG判定精度を挙げられるのではないかと考えた次第です。
|