回答編集履歴
1
文章の修正
answer
CHANGED
@@ -1,6 +1,6 @@
|
|
1
1
|
ps_aux_grepさん
|
2
2
|
ありがとうございます。
|
3
|
-
コメントの内容の「Transformer Encoder内のMLPの箇所で動作する活性化関数」と「実際に値を叩き出すのはMLP Headerに付随する最後の活性化関数」を同一のもの勘違いして
|
3
|
+
コメントの内容の「Transformer Encoder内のMLPの箇所で動作する活性化関数」と「実際に値を叩き出すのはMLP Headerに付随する最後の活性化関数」を同一のもの勘違いしていたのだと思います。
|
4
4
|
以下にモデルの実装するコードを示しますが、「実際に値を叩き出すのはMLP Headerに付随する最後の活性化関数」が設定されていないという理解で正しいでしょうか。
|
5
5
|
```
|
6
6
|
model = timm.create_model('vit_base_patch16_224', pretrained=True, num_classes=2)
|