AI技術を使った画像認識をやりたいプログラミング初心者です。
勉強して、将来オリジナル画像をもとに画像認識モデルを作り、別のオリジナル画像の分類をしたいと思っております。
ネットや書籍をみると画像認識モデルの作成などには、CIFEA10などの画像データが使われています。調べるとこの画像は、32ピクセル×32ピクセルのカラー画像のようですが、どうして画素数が少ない画像データを利用するのでしょうか。中身をみると犬や猫の画像は人間が見ても不鮮明で判別が難しいもののようです。AI用の例題に利用しやすく多数のデータが用意されていることや、学習用として解析が短時間にできるようにと画素数が少ないデータを使うのでしょうか。画像認識を精度よくするには、鮮明で画素数が多いほうが有利ではないかと思うのですが、何か別の理由があるのでしょうか。処理能力や複雑さの問題があるのでしょうか。画像認識には32×32ピクセルが最適ということでしょうか。適切なカラー画像の画素数というものはあるのでしょうか。デジタルカメラの画素数では多すぎるとは思いますが、トリミングして820×616でも多すぎるでしょうか。リサイズとトリミングの有効性に違いはあるのでしょうか。
オリジナルの画像収集にはかなり労力がかかるために、将来的にモデル作成用として10区分、各区分200枚、テスト用として10区分、10枚を想定しています。オリジナル画像(カラー)の枚数と画素数にも依存するのでしょうか。
また、CIFEAR10の画像データは、オリジナル画像(JPG)とは構造が違うようで、ネットや雑誌のPyTorchコードがそのまま使えないようです。例題とオリジナル画像への橋渡し的な、情報を入手できず、足踏み状態です。オリジナル画像を用意できることを前提にした場合に、参考にできるようなコードや記事などをご紹介いただけないでしょうか。
回答2件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2021/10/05 23:23