お世話になっております。
物体検出、セグメンテーションの推論時の画像サイズについてお伺いいたします。
今、物体検出(yolov5)やセグメンテーションの問題に取り組んでおります。
学習時のサイズは、物体検出(yolov5)ですと、640×640pixcelで学習させております。
しかし、実際に推論時に使用したい画像サイズは、学習時よりも大きい画像サイズを検討しており、
実際に学習時よりも大きい画像サイズで推論した場合において、ある程度正しい結果が返ってきております。
この推論の際には、画像を分割するバッチ処理等は行っておりません。
この推論の方法は、間違っていないでしょうか。
なぜ推論ができてしまうのか根拠が分からないため、ご教授いただけますと幸いです。