分割問題の解決のため、
画像をリサイズしたあと、複数枚に分割し、かつ各分割画像データをある手法でlist化するコードを作りました
次の段階として、これら分割画像コード同士である程度類似するもの同士を選べば良いと思うのですが、
その際、
(自分でニューラルネットワークを作ろう(qiita))
の記事にあるコードを元にして、
ある分割画像Aと、その他の分割画像全てÅを、
それぞれtest、trainingデータとしてnnじていく事を考えたのですが、効率はどうでしょうか?
例えば10✕10=100個に分割した、一個あたり100✕100pxの画像に一個ずつこの手法でnnしていくと、
test、trainingがそれぞれ、1個(固定)と99(約100)個でやるから、1000回学習やるとしても、まあたぶん2分ぐらいかかりますよね。
これらを100回やるのだから、200分かかる?
これは効率悪いですよね、かなり概算ですけど、そもそもこの手法で分割問題解決できるのか?
あなたの回答
tips
プレビュー