.to(cuda)で指定しているのですが うまくいきません
cpuにあるとエラーがでます
試したこと
試しにもう一度def gpu(self): で二重に指定したのですがうまくいきません
乱数をに入れてみたり 分けて実行もしても同じエラーが出たので
self.tril_maskレイヤーが原因だと思います
なぜこうなるのかまったくわからない わかる人教えてください
モデル定義 self.L = nn.Linear(self.hidden_size, num_outputs ** 2) nn.init.kaiming_normal_(self.L.weight, a=0, mode='fan_in', nonlinearity='leaky_relu') self.tril_mask = Variable(torch.tril(torch.ones(num_outputs, num_outputs), diagonal=-1).unsqueeze(0)) self.diag_mask = Variable(torch.diag(torch.diag(torch.ones(num_outputs, num_outputs))).unsqueeze(0)) 略 L1=self.diag_mask.expand_as(L) L2=torch.exp(L) L3 = L * self.tril_mask.expand_as(L) L=L3 + L2 * L1 P = torch.bmm(L, L.transpose(2, 1)) print(self.tril_mask.is_cuda) 略 return output def gpu(self): self.tril_mask.to('cuda:0') criterion = nn.MSELoss() targetQN = mainQN mainQN.gpu()#!!!!!! targetQN.eval() mainQN.eval()
--------------------------------------------------------------------------- RuntimeError Traceback (most recent call last) <ipython-input-1-87610d0531cc> in <module> 401 total_reward_vec = np.hstack((total_reward_vec[1:], episode_reward)) # 報酬を記録 402 if batch_size<len(memory.buffer*4): --> 403 memory_TDerror.update_TDerror(gamma,multireward_steps) 404 for _ in range(t): 405 trin.pioritized_experience_replay(batch_size, gamma,step=episode,state_size=state_,action_size=acthon,multireward_steps=multireward_steps) <ipython-input-1-87610d0531cc> in update_TDerror(self, gamma, multireward_steps) 304 next_state=memory.buffer[i][0] 305 target = memory.buffer[i][2] + (gamma**multireward_steps) * targetQN.forward(next_state,"net_v")[0] --> 306 self.buffer[i] =target - mainQN.forward(inpp,"net_q")[0] 307 308 <ipython-input-1-87610d0531cc> in forward(self, inputs, net) 194 L1=self.diag_mask.expand_as(L) 195 L2=torch.exp(L) --> 196 L3 = L * self.tril_mask.expand_as(L) 197 L=L3 + L2 * L1 198 P = torch.bmm(L, L.transpose(2, 1)) ~\Anaconda3\envs\pyflan\lib\site-packages\apex\amp\wrap.py in wrapper(*args, **kwargs) 56 args, 57 kwargs) ---> 58 return orig_fn(*new_args, **kwargs) 59 else: 60 raise NotImplementedError('Do not know how to handle ' + RuntimeError: expected device cuda:0 but got device cpu
追記 is_cuda という物を使って調べた結果 False と出ました
.to(cuda:0)をforでやってみましたが(やけくそ)結果同じ
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。