回答編集履歴

6

fix answer

2022/12/15 00:15

投稿

ps_aux_grep
ps_aux_grep

スコア1579

test CHANGED
@@ -27,3 +27,5 @@
27
27
  流行りの分類/回帰モデルを知りたいのであれば,[Kaggle](https://www.kaggle.com/)で開催されるデータコンペのDiscussionの項目を確認すると良いでしょう.自然言語処理や音声処理,動画処理コンペには時系列的解釈が要求され,非構造データを扱うコンペではConvolutionを使った特徴抽出が要求されるなかで,これらを処理できるNNアーキテクチャの活用具合がうかがえると思います.Discussionではコンペで高いスコアを出した人たちが,忘備録としてVGG系を使っただとか[Residual Connectを使ったResNet系](https://arxiv.org/abs/1512.03385)を使っただとか,Self-Attentionを使っただとかTransformer系である[BERT](https://arxiv.org/abs/1810.04805)を使っただとか,様々な記録を残してくれています.
28
28
 
29
29
  例えば,[キャッサバの病気を特定するコンペ](https://www.kaggle.com/competitions/cassava-leaf-disease-classification/overview)では[1位の人の解法](https://www.kaggle.com/competitions/cassava-leaf-disease-classification/discussion/221957)が見れます.[ResNet](https://arxiv.org/abs/1512.03385),[ViT](https://arxiv.org/abs/2010.11929),[EfficientNet](https://arxiv.org/abs/1905.11946),[MobileNet](https://arxiv.org/abs/1905.02244)を利用してアンサンブル学習をしていることが分かります.
30
+
31
+ モデルの特性に応じた活用を学んでいただければ幸いです.

5

fix answer

2022/12/15 00:06

投稿

ps_aux_grep
ps_aux_grep

スコア1579

test CHANGED
@@ -18,6 +18,7 @@
18
18
  * RNN
19
19
  - LSTM
20
20
  - GRU
21
+ * Attention
21
22
  - Transformer
22
23
  * BERT
23
24
  * GPT

4

fix answer

2022/12/14 23:45

投稿

ps_aux_grep
ps_aux_grep

スコア1579

test CHANGED
@@ -21,7 +21,7 @@
21
21
  - Transformer
22
22
  * BERT
23
23
  * GPT
24
- * Vision Transformer
24
+ * ViT
25
25
 
26
26
  流行りの分類/回帰モデルを知りたいのであれば,[Kaggle](https://www.kaggle.com/)で開催されるデータコンペのDiscussionの項目を確認すると良いでしょう.自然言語処理や音声処理,動画処理コンペには時系列的解釈が要求され,非構造データを扱うコンペではConvolutionを使った特徴抽出が要求されるなかで,これらを処理できるNNアーキテクチャの活用具合がうかがえると思います.Discussionではコンペで高いスコアを出した人たちが,忘備録としてVGG系を使っただとか[Residual Connectを使ったResNet系](https://arxiv.org/abs/1512.03385)を使っただとか,Self-Attentionを使っただとかTransformer系である[BERT](https://arxiv.org/abs/1810.04805)を使っただとか,様々な記録を残してくれています.
27
27
 

3

fix answer

2022/12/14 23:36

投稿

ps_aux_grep
ps_aux_grep

スコア1579

test CHANGED
@@ -8,14 +8,13 @@
8
8
 
9
9
 
10
10
  * CNN
11
- - Deep CNN
12
- * LeNet
11
+ * LeNet
13
- * MobileNet
12
+ * MobileNet
14
- * VGG
13
+ * VGG
15
- - Deep Residual CNN
14
+ - Deep Residual CNN
16
- * ResNet
15
+ * ResNet
17
- * EfficientNet
16
+ * EfficientNet
18
- * MobileNetV2
17
+ * MobileNetV2
19
18
  * RNN
20
19
  - LSTM
21
20
  - GRU

2

append answer

2022/12/14 23:32

投稿

ps_aux_grep
ps_aux_grep

スコア1579

test CHANGED
@@ -4,8 +4,26 @@
4
4
 
5
5
  ![img](https://miro.medium.com/max/720/1*cuTSPlTq0a_327iTPJyD-Q.webp)
6
6
 
7
- 特に,時系列的解釈を要求するときにRNN/LSTM/[Attention](https://arxiv.org/abs/1706.03762)を利用し,波形/画像/3Dデータ等の非構造データの特徴抽出にConvolutionを利用することを基礎として考えておいた方が良いでしょう.[RNNとCNNを併用したモデル](https://qiita.com/God_KonaBanana/items/a6ee73cf0110c044815b)だって作れる上に,画像の特徴量の位置的解釈にRNN/LSTMを使うよりもAttentionを利用した[Transformer](https://arxiv.org/abs/1706.03762)を使うのが良さそうだってことで[ViT](https://arxiv.org/abs/2010.11929)が出てきてますし,分類し切れるものとは限らなくなってきています.
7
+ 特に,時系列的解釈を要求するときにRNN/LSTM/[Transformer](https://arxiv.org/abs/1706.03762)を利用し,波形/画像/3Dデータ等の非構造データの特徴抽出にConvolutionを利用することを基礎として考えておいた方が良いでしょう.[RNNとCNNを併用したモデル](https://qiita.com/God_KonaBanana/items/a6ee73cf0110c044815b)だって作れる上に,画像の特徴量の位置的解釈にRNN/LSTMを使うよりもAttentionを利用した[Transformer](https://arxiv.org/abs/1706.03762)を使うのが良さそうだってことで[ViT](https://arxiv.org/abs/2010.11929)が出てきてますし,分類し切れるものとは限らなくなってきています.
8
8
 
9
- 流行りの分類/回帰モデルを知りたいのであれば,[Kaggle](https://www.kaggle.com/)で開催されるデータコンペのDiscussionの項目を確認すると良いでしょう.自然言語処理や音声処理,動画処理コンペには時系列的解釈が要求され,非構造データを扱うコンペではConvolutionを使った特徴抽出が要求されるなかで,これらを処理できるNNアーキテクチャの活用具合がうかがえると思います.Discussionではコンペで高いスコアを出した人たちが,忘備録としてVGG系を使っただとか[Residual Blockを使ったResNet系](https://arxiv.org/abs/1512.03385)を使っただとか,Self-Attentionを使っただとかTransformer系である[BERT](https://arxiv.org/abs/1810.04805)を使っただとか,様々な記録を残してくれています.
9
+
10
+ * CNN
11
+ - Deep CNN
12
+ * LeNet
13
+ * MobileNet
14
+ * VGG
15
+ - Deep Residual CNN
16
+ * ResNet
17
+ * EfficientNet
18
+ * MobileNetV2
19
+ * RNN
20
+ - LSTM
21
+ - GRU
22
+ - Transformer
23
+ * BERT
24
+ * GPT
25
+ * Vision Transformer
26
+
27
+ 流行りの分類/回帰モデルを知りたいのであれば,[Kaggle](https://www.kaggle.com/)で開催されるデータコンペのDiscussionの項目を確認すると良いでしょう.自然言語処理や音声処理,動画処理コンペには時系列的解釈が要求され,非構造データを扱うコンペではConvolutionを使った特徴抽出が要求されるなかで,これらを処理できるNNアーキテクチャの活用具合がうかがえると思います.Discussionではコンペで高いスコアを出した人たちが,忘備録としてVGG系を使っただとか[Residual Connectを使ったResNet系](https://arxiv.org/abs/1512.03385)を使っただとか,Self-Attentionを使っただとかTransformer系である[BERT](https://arxiv.org/abs/1810.04805)を使っただとか,様々な記録を残してくれています.
10
28
 
11
29
  例えば,[キャッサバの病気を特定するコンペ](https://www.kaggle.com/competitions/cassava-leaf-disease-classification/overview)では[1位の人の解法](https://www.kaggle.com/competitions/cassava-leaf-disease-classification/discussion/221957)が見れます.[ResNet](https://arxiv.org/abs/1512.03385),[ViT](https://arxiv.org/abs/2010.11929),[EfficientNet](https://arxiv.org/abs/1905.11946),[MobileNet](https://arxiv.org/abs/1905.02244)を利用してアンサンブル学習をしていることが分かります.

1

fix answer

2022/12/14 22:10

投稿

ps_aux_grep
ps_aux_grep

スコア1579

test CHANGED
@@ -4,4 +4,8 @@
4
4
 
5
5
  ![img](https://miro.medium.com/max/720/1*cuTSPlTq0a_327iTPJyD-Q.webp)
6
6
 
7
- [RNNとCNNを併用したモデル](https://qiita.com/God_KonaBanana/items/a6ee73cf0110c044815b)だって作れる上に,画像の位置的解釈にRNNを使うよりも[Transformer](https://arxiv.org/abs/1706.03762)を使うのが良さそうだってことで[ViT](https://arxiv.org/abs/2010.11929)が出てきてますし,最近CNNとRNNの領域も重複しつつあって分類が難し
7
+ 特に,時系列的解釈を要求するときにRNN/LSTM/[Attention](https://arxiv.org/abs/1706.03762)を利用し,波形/画像/3Dデータ等の非構造データの特徴抽出にConvolutionを利用することを基礎として考えておい方が良いでょう.[RNNとCNNを併用したモデル](https://qiita.com/God_KonaBanana/items/a6ee73cf0110c044815b)だって作れる上に,画像の特徴量の位置的解釈にRNN/LSTMを使うよりもAttentionを利用した[Transformer](https://arxiv.org/abs/1706.03762)を使うのが良さそうだってことで[ViT](https://arxiv.org/abs/2010.11929)が出てきてますし,分類し切れるものと限らなくなってきてす.
8
+
9
+ 流行りの分類/回帰モデルを知りたいのであれば,[Kaggle](https://www.kaggle.com/)で開催されるデータコンペのDiscussionの項目を確認すると良いでしょう.自然言語処理や音声処理,動画処理コンペには時系列的解釈が要求され,非構造データを扱うコンペではConvolutionを使った特徴抽出が要求されるなかで,これらを処理できるNNアーキテクチャの活用具合がうかがえると思います.Discussionではコンペで高いスコアを出した人たちが,忘備録としてVGG系を使っただとか[Residual Blockを使ったResNet系](https://arxiv.org/abs/1512.03385)を使っただとか,Self-Attentionを使っただとかTransformer系である[BERT](https://arxiv.org/abs/1810.04805)を使っただとか,様々な記録を残してくれています.
10
+
11
+ 例えば,[キャッサバの病気を特定するコンペ](https://www.kaggle.com/competitions/cassava-leaf-disease-classification/overview)では[1位の人の解法](https://www.kaggle.com/competitions/cassava-leaf-disease-classification/discussion/221957)が見れます.[ResNet](https://arxiv.org/abs/1512.03385),[ViT](https://arxiv.org/abs/2010.11929),[EfficientNet](https://arxiv.org/abs/1905.11946),[MobileNet](https://arxiv.org/abs/1905.02244)を利用してアンサンブル学習をしていることが分かります.