質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.09%

この二つのコードで 同じ部分で片方だけうまくいきません 違いがわかりません

解決済

回答 1

投稿 編集

  • 評価
  • クリップ 1
  • VIEW 513

score 41

上側はうまくいくのですが
下側はうまくいきません

上と下で何が違うんですか?
わかる人教えてください
情報が足りなければいってください

pythoch 1.5
python3.7

ここはうまくいく
x = torch.randn(1,256,25,25)
print("aaaaaaa",x.shape)   #結果    torch.Size([1, 256, 25, 25])
x=x.view(-1,1).T
print(x.shape)        #結果    torch.Size([1, 160000])








こっちはうまくいかない

from torch.autograd import Variable
class QNetwork(nn.Module):
    def __init__(self, num_inputs, num_outputs,device):
        super(QNetwork, self).__init__()
        略
        self.cnn4 = nn.ModuleList([
            nn.Conv2d(64, 128, kernel_size=(3,3), padding=1),

       略
            nn.Conv2d(256, 256, kernel_size=(3,3), padding=1),
            nn.Conv2d(256, 256, kernel_size=(3,3), padding=1)])

        self.free_net=  nn.ModuleList([
            nn.Linear(self.hidden_CNN, self.hidden_size1),
            nn.Linear(self.hidden_size1, self.hidden_size1),
            nn.Linear(self.hidden_size1, self.hidden_size1)])


    def forward(self,inputs,net):

     略

        for conv in self.cnn4:
            x = conv(x)
        x=self.maxpool(x)

        print(x.shape)   #結果torch.Size([1, 256, 25, 25])
        x=x.view(-1,1).T
        for conv in self.free_net:
            x = conv(x)

        略


device = 'cuda' if torch.cuda.is_available() else 'cpu'
print(device)
mainQN = QNetwork((3,400,400),2,device).to(device)
optimizer = optim.Adam(mainQN.parameters(), lr=0.001)
mainQN, optimizer = amp.initialize(mainQN, optimizer, opt_level="O1")#--------------

criterion = nn.MSELoss()
mainQN.eval()
print(mainQN.forward(np.random.rand(1,400,400,3),"v_net"))

出ているエラー

上
aaaaaaa torch.Size([1, 256, 25, 25])
torch.Size([1, 160000])
cuda




下
Defaults for this optimization level are:
enabled                : True
opt_level              : O1
cast_model_type        : None
patch_torch_functions  : True
keep_batchnorm_fp32    : None
master_weights         : None
loss_scale             : dynamic
Processing user overrides (additional kwargs that are not None)...
After processing overrides, optimization options are:
enabled                : True
opt_level              : O1
cast_model_type        : None
patch_torch_functions  : True
keep_batchnorm_fp32    : None
master_weights         : None
loss_scale             : dynamic
torch.Size([1, 256, 25, 25])
---------------------------------------------------------------------------
RuntimeError                              Traceback (most recent call last)
<ipython-input-7-2bc285428330> in <module>
    192 criterion = nn.MSELoss()
    193 mainQN.eval()
--> 194 print(mainQN.forward(np.random.rand(1,400,400,3),"v_net"))

<ipython-input-7-2bc285428330> in forward(self, inputs, net)
    155 
    156         print(x.shape)
--> 157         x=x.view(-1,1).T
    158         for conv in self.free_net:
    159             x = conv(x)

RuntimeError: view size is not compatible with input tensor's size and stride (at least one dimension spans across two contiguous subspaces). Use .reshape(...) instead.
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

checkベストアンサー

0

コードが抜粋のため下記推測です。

【PyTorch】Tensorを操作する関数(transpose、view、reshape)によると、

ただ、viewは一つだけ注意点があります。
それは、viewでサイズ数を変更するTensorの各要素は、メモリ上でも要素順に並んでいなければならないということです。
例えば、転置したTensorに対してviewでサイズ数を変更したい場合、そのまま実行すると下記のようにエラーになります。
そこで、viewの前にcontiguous()を付ければメモリ上で要素順に並び、上記のエラーを回避できます。

とのことです。
試されてみてはいかがでしょうか?

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.09%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る