回答編集履歴
6
fix answer
test
CHANGED
@@ -27,3 +27,5 @@
|
|
27
27
|
流行りの分類/回帰モデルを知りたいのであれば,[Kaggle](https://www.kaggle.com/)で開催されるデータコンペのDiscussionの項目を確認すると良いでしょう.自然言語処理や音声処理,動画処理コンペには時系列的解釈が要求され,非構造データを扱うコンペではConvolutionを使った特徴抽出が要求されるなかで,これらを処理できるNNアーキテクチャの活用具合がうかがえると思います.Discussionではコンペで高いスコアを出した人たちが,忘備録としてVGG系を使っただとか[Residual Connectを使ったResNet系](https://arxiv.org/abs/1512.03385)を使っただとか,Self-Attentionを使っただとかTransformer系である[BERT](https://arxiv.org/abs/1810.04805)を使っただとか,様々な記録を残してくれています.
|
28
28
|
|
29
29
|
例えば,[キャッサバの病気を特定するコンペ](https://www.kaggle.com/competitions/cassava-leaf-disease-classification/overview)では[1位の人の解法](https://www.kaggle.com/competitions/cassava-leaf-disease-classification/discussion/221957)が見れます.[ResNet](https://arxiv.org/abs/1512.03385),[ViT](https://arxiv.org/abs/2010.11929),[EfficientNet](https://arxiv.org/abs/1905.11946),[MobileNet](https://arxiv.org/abs/1905.02244)を利用してアンサンブル学習をしていることが分かります.
|
30
|
+
|
31
|
+
モデルの特性に応じた活用を学んでいただければ幸いです.
|
5
fix answer
test
CHANGED
@@ -18,6 +18,7 @@
|
|
18
18
|
* RNN
|
19
19
|
- LSTM
|
20
20
|
- GRU
|
21
|
+
* Attention
|
21
22
|
- Transformer
|
22
23
|
* BERT
|
23
24
|
* GPT
|
4
fix answer
test
CHANGED
@@ -21,7 +21,7 @@
|
|
21
21
|
- Transformer
|
22
22
|
* BERT
|
23
23
|
* GPT
|
24
|
-
* Vi
|
24
|
+
* ViT
|
25
25
|
|
26
26
|
流行りの分類/回帰モデルを知りたいのであれば,[Kaggle](https://www.kaggle.com/)で開催されるデータコンペのDiscussionの項目を確認すると良いでしょう.自然言語処理や音声処理,動画処理コンペには時系列的解釈が要求され,非構造データを扱うコンペではConvolutionを使った特徴抽出が要求されるなかで,これらを処理できるNNアーキテクチャの活用具合がうかがえると思います.Discussionではコンペで高いスコアを出した人たちが,忘備録としてVGG系を使っただとか[Residual Connectを使ったResNet系](https://arxiv.org/abs/1512.03385)を使っただとか,Self-Attentionを使っただとかTransformer系である[BERT](https://arxiv.org/abs/1810.04805)を使っただとか,様々な記録を残してくれています.
|
27
27
|
|
3
fix answer
test
CHANGED
@@ -8,14 +8,13 @@
|
|
8
8
|
|
9
9
|
|
10
10
|
* CNN
|
11
|
-
- Deep CNN
|
12
|
-
|
11
|
+
* LeNet
|
13
|
-
|
12
|
+
* MobileNet
|
14
|
-
|
13
|
+
* VGG
|
15
|
-
|
14
|
+
- Deep Residual CNN
|
16
|
-
|
15
|
+
* ResNet
|
17
|
-
|
16
|
+
* EfficientNet
|
18
|
-
|
17
|
+
* MobileNetV2
|
19
18
|
* RNN
|
20
19
|
- LSTM
|
21
20
|
- GRU
|
2
append answer
test
CHANGED
@@ -4,8 +4,26 @@
|
|
4
4
|
|
5
5
|

|
6
6
|
|
7
|
-
特に,時系列的解釈を要求するときにRNN/LSTM/[
|
7
|
+
特に,時系列的解釈を要求するときにRNN/LSTM/[Transformer](https://arxiv.org/abs/1706.03762)を利用し,波形/画像/3Dデータ等の非構造データの特徴抽出にConvolutionを利用することを基礎として考えておいた方が良いでしょう.[RNNとCNNを併用したモデル](https://qiita.com/God_KonaBanana/items/a6ee73cf0110c044815b)だって作れる上に,画像の特徴量の位置的解釈にRNN/LSTMを使うよりもAttentionを利用した[Transformer](https://arxiv.org/abs/1706.03762)を使うのが良さそうだってことで[ViT](https://arxiv.org/abs/2010.11929)が出てきてますし,分類し切れるものとは限らなくなってきています.
|
8
8
|
|
9
|
-
|
9
|
+
|
10
|
+
* CNN
|
11
|
+
- Deep CNN
|
12
|
+
* LeNet
|
13
|
+
* MobileNet
|
14
|
+
* VGG
|
15
|
+
- Deep Residual CNN
|
16
|
+
* ResNet
|
17
|
+
* EfficientNet
|
18
|
+
* MobileNetV2
|
19
|
+
* RNN
|
20
|
+
- LSTM
|
21
|
+
- GRU
|
22
|
+
- Transformer
|
23
|
+
* BERT
|
24
|
+
* GPT
|
25
|
+
* Vision Transformer
|
26
|
+
|
27
|
+
流行りの分類/回帰モデルを知りたいのであれば,[Kaggle](https://www.kaggle.com/)で開催されるデータコンペのDiscussionの項目を確認すると良いでしょう.自然言語処理や音声処理,動画処理コンペには時系列的解釈が要求され,非構造データを扱うコンペではConvolutionを使った特徴抽出が要求されるなかで,これらを処理できるNNアーキテクチャの活用具合がうかがえると思います.Discussionではコンペで高いスコアを出した人たちが,忘備録としてVGG系を使っただとか[Residual Connectを使ったResNet系](https://arxiv.org/abs/1512.03385)を使っただとか,Self-Attentionを使っただとかTransformer系である[BERT](https://arxiv.org/abs/1810.04805)を使っただとか,様々な記録を残してくれています.
|
10
28
|
|
11
29
|
例えば,[キャッサバの病気を特定するコンペ](https://www.kaggle.com/competitions/cassava-leaf-disease-classification/overview)では[1位の人の解法](https://www.kaggle.com/competitions/cassava-leaf-disease-classification/discussion/221957)が見れます.[ResNet](https://arxiv.org/abs/1512.03385),[ViT](https://arxiv.org/abs/2010.11929),[EfficientNet](https://arxiv.org/abs/1905.11946),[MobileNet](https://arxiv.org/abs/1905.02244)を利用してアンサンブル学習をしていることが分かります.
|
1
fix answer
test
CHANGED
@@ -4,4 +4,8 @@
|
|
4
4
|
|
5
5
|

|
6
6
|
|
7
|
-
た
|
7
|
+
特に,時系列的解釈を要求するときにRNN/LSTM/[Attention](https://arxiv.org/abs/1706.03762)を利用し,波形/画像/3Dデータ等の非構造データの特徴抽出にConvolutionを利用することを基礎として考えておいた方が良いでしょう.[RNNとCNNを併用したモデル](https://qiita.com/God_KonaBanana/items/a6ee73cf0110c044815b)だって作れる上に,画像の特徴量の位置的解釈にRNN/LSTMを使うよりもAttentionを利用した[Transformer](https://arxiv.org/abs/1706.03762)を使うのが良さそうだってことで[ViT](https://arxiv.org/abs/2010.11929)が出てきてますし,分類し切れるものとは限らなくなってきています.
|
8
|
+
|
9
|
+
流行りの分類/回帰モデルを知りたいのであれば,[Kaggle](https://www.kaggle.com/)で開催されるデータコンペのDiscussionの項目を確認すると良いでしょう.自然言語処理や音声処理,動画処理コンペには時系列的解釈が要求され,非構造データを扱うコンペではConvolutionを使った特徴抽出が要求されるなかで,これらを処理できるNNアーキテクチャの活用具合がうかがえると思います.Discussionではコンペで高いスコアを出した人たちが,忘備録としてVGG系を使っただとか[Residual Blockを使ったResNet系](https://arxiv.org/abs/1512.03385)を使っただとか,Self-Attentionを使っただとかTransformer系である[BERT](https://arxiv.org/abs/1810.04805)を使っただとか,様々な記録を残してくれています.
|
10
|
+
|
11
|
+
例えば,[キャッサバの病気を特定するコンペ](https://www.kaggle.com/competitions/cassava-leaf-disease-classification/overview)では[1位の人の解法](https://www.kaggle.com/competitions/cassava-leaf-disease-classification/discussion/221957)が見れます.[ResNet](https://arxiv.org/abs/1512.03385),[ViT](https://arxiv.org/abs/2010.11929),[EfficientNet](https://arxiv.org/abs/1905.11946),[MobileNet](https://arxiv.org/abs/1905.02244)を利用してアンサンブル学習をしていることが分かります.
|