回答編集履歴
4
fix context
test
CHANGED
@@ -2,7 +2,7 @@
|
|
2
2
|
|
3
3
|
確実に言えるのは「[ドメインに応じて最適化されたモデルが構成されている](https://learn.microsoft.com/ja-jp/azure/cognitive-services/custom-vision-service/select-domain)」という点だと思います.
|
4
4
|
|
5
|
-
基本的に,いろんな畳み込みネットワークに関する論文や解説を読めば,どんなシステムを取り入れているかわかるようになると思います.今回のような画像分類にお
|
5
|
+
基本的に,いろんな畳み込みネットワークに関する論文や解説を読めば,どんなシステムを取り入れているかわかるようになると思います.今回のような画像分類における大枠の仕組みは「特徴抽出→分類」です.モデル最下部のFlattenより前が特徴抽出器(Feature Extractor),後が分類器(Classifier)になっています.
|
6
6
|
|
7
7
|
細かい仕組みに関しては動画を見たところ,特徴抽出器にResidual Blockが多く,[ResNet](https://arxiv.org/abs/1512.03385)に近いものを感じました.ただ単純なResidual Blockではなく,入力側では[ResNeXt](https://arxiv.org/abs/1611.05431)のような構造も見られています.いずれにしろ,Residual Blockは特徴量をフィードフォワードすることで,畳み込みで失われる情報を保持できるようにし,勾配消失を低減させていると考えます.
|
8
8
|
|
3
update context about GEMM
test
CHANGED
@@ -4,4 +4,6 @@
|
|
4
4
|
|
5
5
|
基本的に,いろんな畳み込みネットワークに関する論文や解説を読めば,どんなシステムを取り入れているかわかるようになると思います.今回のような画像分類におおける大枠の仕組みは「特徴抽出→分類」です.モデル最下部のFlattenより前が特徴抽出器(Future Extractor),後が分類器(Classifier)になっています.
|
6
6
|
|
7
|
-
細かい仕組みに関しては
|
7
|
+
細かい仕組みに関しては動画を見たところ,特徴抽出器にResidual Blockが多く,[ResNet](https://arxiv.org/abs/1512.03385)に近いものを感じました.ただ単純なResidual Blockではなく,入力側では[ResNeXt](https://arxiv.org/abs/1611.05431)のような構造も見られています.いずれにしろ,Residual Blockは特徴量をフィードフォワードすることで,畳み込みで失われる情報を保持できるようにし,勾配消失を低減させていると考えます.
|
8
|
+
|
9
|
+
分類器に関しては一般的な実装そのままで[Fully-Connected Layer](https://docs.nvidia.com/deeplearning/performance/dl-performance-fully-connected/index.html#fullyconnected-layer)が1層だけ使われています.
|
2
update context
test
CHANGED
@@ -2,6 +2,6 @@
|
|
2
2
|
|
3
3
|
確実に言えるのは「[ドメインに応じて最適化されたモデルが構成されている](https://learn.microsoft.com/ja-jp/azure/cognitive-services/custom-vision-service/select-domain)」という点だと思います.
|
4
4
|
|
5
|
-
|
5
|
+
基本的に,いろんな畳み込みネットワークに関する論文や解説を読めば,どんなシステムを取り入れているかわかるようになると思います.今回のような画像分類におおける大枠の仕組みは「特徴抽出→分類」です.モデル最下部のFlattenより前が特徴抽出器(Future Extractor),後が分類器(Classifier)になっています.
|
6
6
|
|
7
|
-
|
7
|
+
細かい仕組みに関してはパッと見たところ,特徴抽出器にResidual Blockが多く,[ResNet](https://arxiv.org/abs/1512.03385)に近いものを感じました.ただ単純なResidual Blockではなく,入力側では[ResNeXt](https://arxiv.org/abs/1611.05431)のような構造も見られています.いずれにしろ,Residual Blockは特徴量をフィードフォワードすることで,畳み込みで失われる情報を保持できるようにし,勾配消失を低減させていると考えます.
|
1
update explain
test
CHANGED
@@ -3,3 +3,5 @@
|
|
3
3
|
確実に言えるのは「[ドメインに応じて最適化されたモデルが構成されている](https://learn.microsoft.com/ja-jp/azure/cognitive-services/custom-vision-service/select-domain)」という点だと思います.
|
4
4
|
|
5
5
|
仕組みに関してはパッと見たところ,Residual Blockが多く,[ResNet](https://arxiv.org/abs/1512.03385)に近いものを感じました.ただ単純なResidual Blockではなく,入力側では[ResNeXt](https://arxiv.org/abs/1611.05431)のような構造も見られています.いずれにしろ,Residual Blockは特徴量をフィードフォワードすることで,畳み込みで失われる情報を保持できるようにし,勾配消失を低減させていると考えます.
|
6
|
+
|
7
|
+
基本的に,いろんな畳み込みネットワークに関する論文や解説を読めば,どんなシステムを取り入れているかわかるようになると思います.今回のような画像分類におおける大枠の仕組みは「特徴抽出→分類」です.モデル最下部のFlattenより前が特徴抽出器(Future Extraction),後が分類器(Classification)になっています.
|