機械学習における一つの手法に転移学習というものがあります。
簡単に説明すると、学習済みモデルの学習層だけを新しく繋ぎ変えて、
学習済みモデルの重みを利用して再度学習させるというものです。
転移学習の凄いところはもとのモデルの分類クラスに入っていなくても少ない枚数で学習が収束する
というところです。
どうしてこのようなことが出来てしまうのかを頭では分かっているつもりですがあっているのか分かりません。
以下図で説明すると、
もともと以下のようにキリンとパンダに学習して分類していたクラスを
以下のようにタヌキとキツネを用意して出力層を入れ替えています。
上から下に変わるときに、全結合層(出力層の手前)の特徴量の重みを
出力層に再度重みを振り分け直しているようなイメージなのですが合っていますでしょうか?
また、学習済みの重みを利用しているため、少ない画像でも早く収束するという認識で合っていますか?
画像では2クラス→2クラスですが数を合わせた意図はなく、違っていても同じです。
学習済みモデルの分類クラスに依存しない理由は、結局は特徴量の振り分けでしかないから
で合っていますでしょうか?
見当違いなことを言っていたらすみません。
よろしくお願いします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2018/09/17 05:52
2018/09/17 10:40
2018/09/18 13:08