質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

87.48%

SRCNN(超解像)の学習させて保存したモデルを用いて,複数画像に超解像を適応するプログラム

受付中

回答 1

投稿

  • 評価
  • クリップ 0
  • VIEW 178

score 1

挨拶

超解像初学者です.読みにくいコードかもしれませんが,よろしくお願いします.

やりたいこと

SRCNN超解像で学習して保存したモデルを用いて,超解像を複数画像に適応させたい.適応する画像は学習画像に比べると大きいものを想定しています.モデル適応時に画像を学習画像と同じサイズにクロップしてリストに保存し,それを超解像した後に画像を結合して大きな画像を超解像しようとしています.これを画像枚数分繰り返します.

現状

今回は,33×33の学習画像で学習をしたモデルを用いて,超解像適応プログラムを組んでみました.すると,下記のようなエラーが出てしましました.
調べても解決法がわかりませんでした.
ほかにも,間違っている点を指摘してくださるとありがたいです.

作成したプログラム

import torch
import torchvision as tv
import torch.nn as nn
import numpy as np
import os
import time
import cv2
from natsort import natsorted
from PIL import Image
from torch.nn.functional import relu
from torchsummary import summary



#モデル
class SRCNN(nn.Module):
    def __init__(self):
        super(SRCNN, self).__init__()

        self.conv1 = nn.Conv2d(in_channels=3, out_channels=64, kernel_size=9, padding=4)
        self.conv2 = nn.Conv2d(in_channels=64, out_channels=32, kernel_size=1, padding=0)
        self.conv3 = nn.Conv2d(in_channels=32, out_channels=3, kernel_size=5, padding=2)

     #モデル全体の記述
    def forward(self, INPUT):
        CONV1 = self.conv1(INPUT)
        RELU1 = relu(CONV1)
        CONV2 = self.conv2(RELU1)
        RELU2 = relu(CONV2)
        CONV3 = self.conv3(RELU2)

        return CONV3




def main():

    input_dir = r"C:\Users\81703\Super_resolution\test\cal\1"
    save_dir = r"C:\Users\81703\Super_resolution\test\cal_sr\1"
    model_dir = r"C:\Users\81703\Super_resolution\SRCNN\dataset\model"
    train_dir = r"C:\Users\81703\Super_resolution\SRCNN\dataset\train"

    #モデルの読み込みと適応画像のリスト取得等々
    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    model = SRCNN().to(device)
    model.load_state_dict(torch.load(os.path.join(model_dir,"model_SRCNN.pth"), map_location=device))
    sample_img = Image.open(os.path.join(train_dir, "0.png"))
    summary(model,(3,sample_img.height,sample_img.width))
    start = time.time()
    apply_imgs_list = os.listdir(input_dir)
    apply_imgs_list = natsorted(apply_imgs_list)

    model.eval()
    with torch.no_grad():
        for n in apply_imgs_list:

            #画像の読み込みと名前,拡張子の取得
            os.chdir(input_dir)
            apply_img = Image.open(n).convert("RGB")
            img_name, img_ext = os.path.splitext(n)
            print(img_name)

            #画像サイズとクロップ数の計算部分
            numX = apply_img.width // sample_img.width
            numY = apply_img.height // sample_img.height
            crop_imgs = []
            out_imgs = []

            #画像を分割
            for i in range(numY):
                for j in range(numX):
                    input_img = apply_img.crop((sample_img.width * j, sample_img.height*i,
                                               sample_img.width * j + sample_img.width, sample_img.height * i + sample_img.height))
                    input_img_tensor = tv.transforms.ToTensor()(input_img)
                    crop_imgs.append(input_img_tensor)

            #分割をモデルに適用
            for m in crop_imgs:
                prediction = model(m)
                out_imgs.append(prediction)

            #モデルの出力画像を繋げる
            append_imgs = out_imgs
            v_img = []
            for y in range(numY):
                u_img = []
                for x in range(numX):
                    num = x + y * numX
                    u_img.append(append_imgs[num])

                imgU = cv2.hconcat(u_img)
                v_img.append(imgU)

            append_img = cv2.vconcat(v_img)
            append_img = Image.fromarray(np.unit8(append_img))
            save_name = str(n)
            save_name_dir = os.path.join(save_dir, save_name)
            append_img.save(save_name_dir)
    end = time.time() - start
    print(end)
    print("finish")

if __name__ == "__main__":
    main()

エラー内容

RuntimeError: Expected 4-dimensional input for 4-dimensional weight 64 3 9, but got 3-dimensional input of size [3, 33, 33] instead
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

+1

エラーメッセージは入力が4次元を想定しているのに、3次元の入力が入ってきた
という意味です。

pytorchの場合、モデルに入力するテンソルの次元は(Batch_Size, Channel, Height, Width)の4次元です。
(https://discuss.pytorch.org/t/dimensions-of-an-input-image/19439)
ですが、ご提示いただいているコードでは入力が(Channel, Height, Width)の3次元となっているため、エラーが起きていると考えられます。
つまり、入力のtensorに新しい次元を足せばよいということになります。

また、画像の訓練時のサイズとデプロイ時のサイズは必ずしも一致している必要なないかと思います。
SRGANなどの学習でも,(64x64)のパッチで学習を行います。
推論時では、元の画像の大きさをそのまま入力するやり方を取っていたはずです。

そのため、ご提示いただいていたコードであるような、

            #画像の読み込みと名前,拡張子の取得
            os.chdir(input_dir)
            apply_img = Image.open(n).convert("RGB")
            img_name, img_ext = os.path.splitext(n)
            print(img_name)

            #画像サイズとクロップ数の計算部分
            numX = apply_img.width // sample_img.width
            numY = apply_img.height // sample_img.height
            crop_imgs = []
            out_imgs = []

            #画像を分割
            for i in range(numY):
                for j in range(numX):
                    input_img = apply_img.crop((sample_img.width * j, sample_img.height*i,
                                               sample_img.width * j + sample_img.width, sample_img.height * i + sample_img.height))
                    input_img_tensor = tv.transforms.ToTensor()(input_img)
                    crop_imgs.append(input_img_tensor)

            #分割をモデルに適用
            for m in crop_imgs:
                prediction = model(m)
                out_imgs.append(prediction)

            #モデルの出力画像を繋げる
            append_imgs = out_imgs
            v_img = []
            for y in range(numY):
                u_img = []
                for x in range(numX):
                    num = x + y * numX
                    u_img.append(append_imgs[num])

                imgU = cv2.hconcat(u_img)
                v_img.append(imgU)

            append_img = cv2.vconcat(v_img)
            append_img = Image.fromarray(np.unit8(append_img))
            save_name = str(n)
            save_name_dir = os.path.join(save_dir, save_name)
            append_img.save(save_name_dir)


のような部分は

apply_img = Image.open(n).convert("RGB")
input_image_tensor = tv.transforms.ToTensor()(apply_img)
input_image_tensor = torch.unsqueeze(input_image_tensor, 0)
prediction = model(m)


としても良いアウトプットを得られるかと思います。
SRGANなどの学習でも,(64x64)のパッチで学習を行い、デプロイ時はパッチを利用しないで推論していたと思います。

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2021/04/10 00:48 編集

    丁寧な回答ありがとうございます.

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 87.48%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る