質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.40%

  • Python

    12796questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

  • 深層学習

    234questions

  • Chainer

    220questions

    Chainerは、国産の深層学習フレームワークです。あらゆるニューラルネットワークをPythonで柔軟に書くことができ、学習させることが可能。GPUをサポートしており、複数のGPUを用いた学習も直感的に記述できます。

200×400の画像を入力して学習を行いたい

受付中

回答 0

投稿

flag 質問者が5日前に「まだ回答を求めています」と言っています。

  • 評価
  • クリップ 0
  • VIEW 77

Nyankoy

score 3

PSPNetを使用して長方形の画像について画像認識を行いたいと考えています。
様々なアスペクト比の画像が混在しているため、初めは256×256の画像にリサイズした後に、学習することを行っていました。しかし、精度があまりよくなかったため、元の画像サイズに近い、200×400に画像サイズを統一した後学習を行おうと考えています。しかし、エラーが出てしまいその原因を究明することができません。
ネットワーク構造は基本256×256の画像の学習で使用していたものと同じです。
以下のプログラムを参考にしています。
https://github.com/rkuga/PSPNet/blob/master/nets/pspnet.py

import numpy as np
import cv2
import chainer
import chainer.functions as F
import chainer.links as L

class PSPNet(chainer.Chain):
    # in_channel=1, out_channel=2, input_height=400, input_width =200
    def __init__(self, in_channel, out_channel, input_height, input_width):
        self.input_height = input_height
        self.input_width = input_width
        super(PSPNet, self).__init__(
            conv1_1=L.Convolution2D(in_channel, 64, 3, stride=2, pad=1, nobias=True),
            bn1_1=L.BatchNormalization(64),
            conv1_2=L.Convolution2D(64, 64, 3, stride=1, pad=1, nobias=True),
            bn1_2=L.BatchNormalization(64),
            conv1_3=L.Convolution2D(64, 128, 3, stride=1, pad=1, nobias=True),
            bn1_3=L.BatchNormalization(128),

            conv2_1_proj = L.Convolution2D(128, 256, 1, stride=1, pad=0, nobias=True),
            bn2_1_proj=L.BatchNormalization(256),
            conv2_1_res = BottleNeck_proj(128, 64, 256),
            conv2_res = Block(2, 256, 64, 256),

            conv3_1_proj = L.Convolution2D(256, 512, 1, stride=1, pad=0, nobias=True),
            bn3_1_proj=L.BatchNormalization(512),
            conv3_1_res = BottleNeck_proj(256, 128, 512),
            conv3_res = Block(3, 512, 128, 512),

            conv4_1_proj = L.Convolution2D(512, 1024, 1, stride=1, pad=0, nobias=True),
            bn4_1_proj=L.BatchNormalization(1024),
            conv4_1_res = BottleNeck_proj(512, 256, 1024),
            conv4_res = Block(7, 1024, 256, 1024, Dilate=2),
            conv4_res2 = Block(15, 1024, 256, 1024, Dilate=2),

            conv5_1_proj = L.Convolution2D(1024, 2048, 1, stride=1, pad=0, nobias=True),
            bn5_1_proj=L.BatchNormalization(2048),
            conv5_1_res = BottleNeck_proj(1024, 512, 2048),
            conv5_res = Block(2, 2048, 512, 2048, Dilate=4),

            conv5_3_pool1_conv = L.Convolution2D(2048, 512, 1, stride=1, pad=0, nobias=True),
            bn5_3_pool1_conv=L.BatchNormalization(512),
            conv5_3_pool2_conv = L.Convolution2D(2048, 512, 1, stride=1, pad=0, nobias=True),
            bn5_3_pool2_conv=L.BatchNormalization(512),
            conv5_3_pool3_conv = L.Convolution2D(2048, 512, 1, stride=1, pad=0, nobias=True),
            bn5_3_pool3_conv=L.BatchNormalization(512),
            conv5_3_pool6_conv = L.Convolution2D(2048, 512, 1, stride=1, pad=0, nobias=True),
            bn5_3_pool6_conv=L.BatchNormalization(512),

            conv5_4 = L.Convolution2D(4096, 512, 3, stride=1, pad=1, nobias=True),
            bn5_4=L.BatchNormalization(512),

            conv6 = L.Convolution2D(512, out_channel, 1, stride=1, pad=0, nobias=True),


        )


    def __call__(self, x):
        conv1_1 = F.relu(self.bn1_1(self.conv1_1(x)))
        conv1_2 = F.relu(self.bn1_2(self.conv1_2(conv1_1)))
        conv1_3 = F.relu(self.bn1_3(self.conv1_3(conv1_2)))
        pool1 = F.max_pooling_2d(conv1_3,3,stride=2)

        conv2_1_proj = self.bn2_1_proj(self.conv2_1_proj(pool1))
        conv2_1 = self.conv2_1_res(pool1, conv2_1_proj)
        conv2_3 = self.conv2_res(conv2_1)

        conv3_1_proj = self.bn3_1_proj(self.conv3_1_proj(conv2_3))
        conv3_1 = self.conv3_1_res(conv2_3, conv3_1_proj)
        conv3_4 = self.conv3_res(conv3_1)

        conv4_1_proj = self.bn4_1_proj(self.conv4_1_proj(conv3_4))
        conv4_1 = self.conv4_1_res(conv3_4, conv4_1_proj)
        conv4_23_1 = self.conv4_res(conv4_1)
        conv4_23 = self.conv4_res2(conv4_23_1)

        conv5_1_proj = self.bn5_1_proj(self.conv5_1_proj(conv4_23))
        conv5_1 = self.conv5_1_res(conv4_23, conv5_1_proj)
        conv5_3 = self.conv5_res(conv5_1)

        _,c,h,w = conv5_3.data.shape
        conv5_3_pool1 = F.average_pooling_2d(conv5_3, h, stride=h)
        print(conv5_3_pool1.data.shape)
        conv5_3_pool1_conv = self.bn5_3_pool1_conv(self.conv5_3_pool1_conv(conv5_3_pool1))
        conv5_3_pool1_interp = F.resize_images(conv5_3_pool1_conv, (h,w))

        conv5_3_pool2 = F.average_pooling_2d(conv5_3, int(h/2), stride=int(h/2))
        conv5_3_pool2_conv = self.bn5_3_pool2_conv(self.conv5_3_pool2_conv(conv5_3_pool2))
        conv5_3_pool2_interp = F.resize_images(conv5_3_pool2_conv, (h,w))

        conv5_3_pool3 = F.average_pooling_2d(conv5_3, int(h/3), stride=int(h/3))
        conv5_3_pool3_conv = self.bn5_3_pool3_conv(self.conv5_3_pool3_conv(conv5_3_pool3))
        conv5_3_pool3_interp = F.resize_images(conv5_3_pool3_conv, (h,w))

        conv5_3_pool6 = F.average_pooling_2d(conv5_3, int(h/6), stride=int(h/6))
        conv5_3_pool6_conv = self.bn5_3_pool6_conv(self.conv5_3_pool6_conv(conv5_3_pool6))
        conv5_3_pool6_interp = F.resize_images(conv5_3_pool6_conv, (h,w))

        conv5_3_concat = F.concat((conv5_3, conv5_3_pool6_interp))
        conv5_3_concat = F.concat((conv5_3_concat, conv5_3_pool3_interp))
        conv5_3_concat = F.concat((conv5_3_concat, conv5_3_pool2_interp))
        conv5_3_concat = F.concat((conv5_3_concat, conv5_3_pool1_interp))

        conv5_4 = F.relu(self.bn5_4(self.conv5_4(conv5_3_concat)))
        conv5_4 = F.dropout(conv5_4, ratio=.1)

        conv6 = self.conv6(conv5_4)

        conv6_interp = F.resize_images(conv6, (self.input_height,self.input_width))

        return conv6_interp


以下エラー内容です。
assert y_w > 0, 'Width in the output should be positive.'から、average_pooling_2dにおいて幅が負の値になっているということのようですが、その理由が分かりません。どこを改善すればよいのでしょうか?わかる方がいましたら教えていただけると幸いです。よろしくお願いいたします。

C:\Users\hoge\Anaconda3\lib\site-packages\chainer\functions\normalization\batch_normalization.py:67: UserWarning: A batch with no more than one sample has been given to F.batch_normalization. F.batch_normalization will always output a zero tensor for such batches. This could be caused by incorrect configuration in your code (such as running evaluation while chainer.config.train=True), but could also happen in the last batch of training if non-repeating iterator is used.
  UserWarning)
Traceback (most recent call last):
  File "PSPtrain.py", line 63, in main
    z = net(x)
  File "C:\Users\hoge\pspnet.py", line 166, in __call__
    conv5_3_pool2 = F.average_pooling_2d(conv5_3, int(h/2), stride=int(h/2))
  File "C:\Users\hoge\Anaconda3\lib\site-packages\chainer\functions\pooling\average_pooling_2d.py", line 214, in average_pooling_2d
    return AveragePooling2D(ksize, stride, pad, False).apply((x,))[0]
  File "C:\Users\hoge\Anaconda3\lib\site-packages\chainer\function_node.py", line 258, in apply
    outputs = self.forward(in_data)
  File "C:\Users\hoge\Anaconda3\lib\site-packages\chainer\function_node.py", line 367, in forward
    return self.forward_gpu(inputs)
  File "C:\Users\hoge\Anaconda3\lib\site-packages\chainer\functions\pooling\average_pooling_2d.py", line 56, in forward_gpu
    return super(AveragePooling2D, self).forward_gpu(x)
  File "C:\Users\hoge\Anaconda3\lib\site-packages\chainer\functions\pooling\pooling_2d.py", line 55, in forward_gpu
    assert y_w > 0, 'Width in the output should be positive.'
AssertionError: Width in the output should be positive.
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正の依頼

  • Q71

    2019/07/10 21:39

    デバッグできる(ステップ実行できる)環境はありますか。各層の計算が終わったときに、それぞれのシェイプがどうなっているか、確認してください。パラメータから、だんだん小さくなっているともいますが、それは意図通りでしょうか。

    キャンセル

  • Nyankoy

    2019/07/11 18:47

    アドバイスありがとうございます。お返事遅くなり申し訳ありません。各層の計算が終わったときのシェイプを見てみたのですが初心者なもので、ここからあまりわからなくていろいろ参考書を読み込んでいる途中なのですがまだ解決に至ってはおりません。
    ちなみに
    print(pool1.data.shape)
    print(conv2_3.data.shape)
    print(conv3_4.data.shape)
    print(conv4_23.data.shape)
    print(conv5_1_proj .data.shape)
    print(conv5_1.data.shape)
    print(conv5_3.data.shape)
    でしたところ
    (1, 128, 100, 50)
    (1, 256, 100, 50)
    (1, 512, 100, 50)
    (1, 1024, 100, 50)
    (1, 2048, 100, 50)
    (1, 2048, 100, 50)
    (1, 2048, 100, 50)
    でした。シェイプは大きくなっているととらえてよいのでしょうか…?調べていると畳み込みのpadding部分が0ではなく1の方がよいのかともおもったのですがうまくいきませんでした。
    参考:https://teratail.com/questions/102418

    キャンセル

  • Q71

    2019/07/11 22:16

    ごめんなさい。エラー文をちゃんと見ていませんでした。

    > A batch with no more than one sample has been given to F.batch_normalization. F.batch_normalization will always output a zero tensor for such batches. This could be caused by incorrect configuration in your code (such as running evaluation while chainer.config.train=True), but could also happen in the last batch of training if non-repeating iterator is used.

    訓練側の Dataset を、repeat=false で作っていませんか?

    キャンセル

  • Nyankoy

    2019/07/12 15:41 編集

    A batch with no more than one sample has been given to F.batch_normalization. F.batch_normalization will always output a zero tensor for such batches. This could be caused by incorrect configuration in your code (such as running evaluation while chainer.config.train=True), but could also happen in the last batch of training if non-repeating iterator is used.
    ですが、本当は解決しないといけないのですが、バッチサイズを1にしたまま動かしているため出ている警告文だと思います。実行できた場合も出る警告文のため、やはり問題はCNNのどこかで画像サイズが小さくなりすぎて画像がなくなってしまった(?)ことかなと思っています。どこの層でなぜ消えてしまったのかはわからないのですが……

    キャンセル

まだ回答がついていません

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.40%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

同じタグがついた質問を見る

  • Python

    12796questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

  • 深層学習

    234questions

  • Chainer

    220questions

    Chainerは、国産の深層学習フレームワークです。あらゆるニューラルネットワークをPythonで柔軟に書くことができ、学習させることが可能。GPUをサポートしており、複数のGPUを用いた学習も直感的に記述できます。