前提・実現したいこと
現在YOLOv3のDarknetを使い、独自データでの学習を行っています。
学習したい画像は2500×1800で大きなサイズです。
Darknetではネットワークへの入力画像サイズが416×416など32の倍数で決まっており、学習の前に画像サイズをネットワークサイズにリサイズされてから入力されるということが調べて分かりました。
学習時には持っている画像を自分がリサイズを行い416×416などにして、推論時には元の画像サイズを用いて行うことは検出の精度等に影響を与えるのでしょうか?
推論時に2500×1800→416×416では対象の物体が学習時よりも小さくなることが考えられ、ご存じの方がいらっしゃったらお力を貸していただきたいです。

回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2020/08/11 01:17
2020/08/11 01:26 編集
2020/08/13 05:11