機械学習初心者です。
OpenCVとDeepLearningを組み合わせて物体検知プログラムを実装しています。OpenCVのライブラリで物体部分を抽出後、こちらで挙げられているものとほとんど同じ仕組みで識別を行なっています。
何度か学習をさせたことにより、現在の状態としては、例えばバイクと人、花が写っている写真からOpenCVにより花、バイク、人などオブジェクト部分のみを抽出し、リサイズしてインプットにしています。バイクは90%程度バイク、人は90%人といった感じに判定できています。
しかし、例えばオブジェクトとして青空が間違って抽出された場合(画像としては真っ青の画像になります)なぜかこれを入力にすると青空は分類対象にないため90%人や90%バイク など間違った推定がされてしまいます。
これらの外れ値に対する適切な処理、もしくはニューラルネットワークとしての学習のさせ方に問題があるのでしょうか?(例えば外れ値も分類の対象に入れて学習させるとか)
よろしくおねがいいたします。
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。