PytorchのDataLoaderによるミニバッチ処理のネットワークへのデータの渡し方についてです。
ネットワークは以下のようなコードです。
python
1class Net(nn.Module): 2 def __init__(self, D_in, H, D_out): 3 super(Net, self).__init__() 4 self.linear1 = nn.Linear(D_in, H) 5 self.linear2 = nn.Linear(H, H) # 追加 6 self.linear3 = nn.Linear(H, D_out) 7 self.dropout = nn.Dropout(p=0.5) 8 9 def forward(self, x): 10 x = F.relu(self.linear1(x)) 11 x = F.relu(self.linear2(x)) # 追加 12 x = F.relu(self.linear2(x)) # 追加 13 x = self.dropout(x) # 追加 14 x = self.linear3(x) 15 return x
このときDataLoaderについて
train_batch = DataLoader( dataset=train_dataset, batch_size=20, shuffle=True, num_workers=2)
このようにtrain_batchを作成しているため、
for data,label in train_batch: print(data) print(label) break
のようにして出力するとdataはbatch_sizeで指定した20のデータのまとまりになっていることが分かりました。
このときnet=Net()
とし、y_pred=net(data)
のように、先ほど作成したモデルにミニバッチごと入れてもうまくいくのはブロードキャストというものによるものなのでしょうか?
あなたの回答
tips
プレビュー