回答編集履歴

2

情報の更新と日本語の修正

2021/10/02 00:23

投稿

退会済みユーザー
test CHANGED
@@ -1,4 +1,4 @@
1
- ニューラルネットワークで認識できる画像サイズ(入力値)は、普通大きくても256x256や128x128、小さければ32x32くらいです。中国のどこかの企業が昔やっていましたが512x512もできなくはないですが、負荷が巨大になる割に対して認識性能が上がらない、という結論があったと思います。
1
+ ニューラルネットワークで認識できる画像サイズ(入力値)は、普通大きくても256x256や128x128、小さければ32x32くらいです。[百度~~中国のどこかの企業~~が昔やっていましたが512x512もできなくはない](https://arxiv.org/vc/arxiv/papers/1501/1501.02876v1.pdf)ですが、負荷が巨大になる割に対して認識性能が上がらない(コスト対効果が見合わない)、という結論(先の百度の論文ではない別のところです)があったと思います。
2
2
 
3
3
 
4
4
 

1

2021/10/02 00:23

投稿

退会済みユーザー
test CHANGED
@@ -3,3 +3,7 @@
3
3
 
4
4
 
5
5
  さらに、掲載のコードは[リファレンスのコード](https://keras.io/ja/getting-started/sequential-model-guide/)とよく似ていますので、元画像をimg=cv2.resize(img,(100,100))くらいに縮めればそこそこ認識できるものと思います。もし認識率が悪ければ既存のネットワーク構造と重みを流用してください。
6
+
7
+
8
+
9
+ これでだめならバッチサイズを今の1/2に減らすことを繰り返していけば普通は走るはずです。