質問編集履歴
2
コードのインデントを修正しました。
test
CHANGED
File without changes
|
test
CHANGED
@@ -12,11 +12,47 @@
|
|
12
12
|
実行すると、はじめから損失が低く出てしまっていて、学習している様子がありません。
|
13
13
|
実際に正解率も低いです。
|
14
14
|
|
15
|
+
### 試したこと
|
16
|
+
損失関数や評価関数、モデルを見直しましたがうまくいきません
|
17
|
+
|
18
|
+
### 補足情報(FW/ツールのバージョンなど)
|
19
|
+
|
20
|
+
python3.10.10
|
21
|
+
|
15
22
|
### 該当のソースコード
|
16
|
-
|
23
|
+
・net.py
|
17
|
-
python
|
24
|
+
```python
|
18
|
-
|
25
|
+
import torch
|
26
|
+
import torch.nn as nn
|
27
|
+
import torchvision
|
28
|
+
import torch.nn.functional as F
|
29
|
+
|
30
|
+
|
31
|
+
class MyResNet50(nn.Module):
|
32
|
+
def __init__(self, my_pretrained_model):
|
33
|
+
super(MyResNet50, self).__init__()
|
34
|
+
self.pretrained = my_pretrained_model
|
35
|
+
num_classes = 10 # マルチラベル分類のクラス数
|
36
|
+
|
37
|
+
# ドロップアウト率を設定
|
38
|
+
dropout_rate = 0.5
|
39
|
+
self.my_new_layers = nn.Sequential(
|
40
|
+
nn.Linear(1000, 4096), # 例として追加の全結合層を挿入
|
41
|
+
nn.Dropout(p=dropout_rate),
|
42
|
+
nn.ReLU(inplace=True),
|
43
|
+
nn.Dropout(p=dropout_rate),
|
44
|
+
nn.Linear(4096, num_classes),
|
45
|
+
nn.Sigmoid() # 最終層にSigmoid関数を追加
|
46
|
+
)
|
47
|
+
|
48
|
+
def forward(self, x):
|
49
|
+
x = self.pretrained(x)
|
50
|
+
x = self.my_new_layers(x)
|
51
|
+
return x
|
52
|
+
```
|
53
|
+
|
19
54
|
・コード本体
|
55
|
+
````python
|
20
56
|
import torch
|
21
57
|
import torch.nn as nn
|
22
58
|
import os
|
@@ -259,39 +295,3 @@
|
|
259
295
|
# [optional] finish the wandb run, necessary in notebooks
|
260
296
|
wandb.finish()
|
261
297
|
|
262
|
-
・net.py
|
263
|
-
import torch
|
264
|
-
import torch.nn as nn
|
265
|
-
import torchvision
|
266
|
-
import torch.nn.functional as F
|
267
|
-
|
268
|
-
|
269
|
-
class MyResNet50(nn.Module):
|
270
|
-
def __init__(self, my_pretrained_model):
|
271
|
-
super(MyResNet50, self).__init__()
|
272
|
-
self.pretrained = my_pretrained_model
|
273
|
-
num_classes = 10 # マルチラベル分類のクラス数
|
274
|
-
|
275
|
-
# ドロップアウト率を設定
|
276
|
-
dropout_rate = 0.5
|
277
|
-
self.my_new_layers = nn.Sequential(
|
278
|
-
nn.Linear(1000, 4096), # 例として追加の全結合層を挿入
|
279
|
-
nn.Dropout(p=dropout_rate),
|
280
|
-
nn.ReLU(inplace=True),
|
281
|
-
nn.Dropout(p=dropout_rate),
|
282
|
-
nn.Linear(4096, num_classes),
|
283
|
-
nn.Sigmoid() # 最終層にSigmoid関数を追加
|
284
|
-
)
|
285
|
-
|
286
|
-
def forward(self, x):
|
287
|
-
x = self.pretrained(x)
|
288
|
-
x = self.my_new_layers(x)
|
289
|
-
return x
|
290
|
-
|
291
|
-
### 試したこと
|
292
|
-
損失関数や評価関数、モデルを見直しましたがうまくいきません
|
293
|
-
|
294
|
-
### 補足情報(FW/ツールのバージョンなど)
|
295
|
-
|
296
|
-
python3.10.10
|
297
|
-
|
1
細かいところを変えただけです。(コードに変更はなし)
test
CHANGED
File without changes
|
test
CHANGED
@@ -1,20 +1,16 @@
|
|
1
1
|
### 実現したいこと
|
2
2
|
|
3
|
-
ここに実現したいことを箇条書きで書いてください。
|
4
3
|
・作成したコードが学習できるようにしたい
|
5
|
-
- [ ] ▲▲機能を動作するようにする
|
6
4
|
|
7
5
|
### 前提
|
8
6
|
|
9
|
-
ここに質問の内容を詳しく書いてください。
|
10
|
-
(例)
|
11
7
|
Pytorchでcifar10の画像を4枚つなげた1枚の画像のマルチラベル分類をするコードを作っています。
|
12
|
-
|
8
|
+
|
13
9
|
|
14
10
|
### 発生している問題・エラーメッセージ
|
11
|
+
|
15
12
|
実行すると、はじめから損失が低く出てしまっていて、学習している様子がありません。
|
16
13
|
実際に正解率も低いです。
|
17
|
-
|
18
14
|
|
19
15
|
### 該当のソースコード
|
20
16
|
|