質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.92%

セマンティックセグメンテーションの精度

受付中

回答 0

投稿

  • 評価
  • クリップ 0
  • VIEW 228

Seven_Sea

score 3

U-netを使って、セマンティックセグメンテーションをやっているのですが、
なかなか安定しないようで、添付グラフのようにギザギザな感じになってしまっています。
このノイズを取り除くには画像を増やす、画像を変えるなど、する以外の方法が何かありますでしょうか?
教えていただければと思います。

画像枚数は127枚を拡張で増やしつつ、学習している感じです。
何かアドバイスなどありましたらよろしくお願いいたします。。
画像は空中写真を使っています。イメージ説明

def image_augmentation(imgs, masks, batch_size, seed):
    #  create two instances with the same arguments
    # create dictionary with the input augmentation values
    data_gen_args = dict(featurewise_center=False,
                         featurewise_std_normalization=False,
                         rotation_range=25.,
                         width_shift_range=0.5,
                         height_shift_range=0.5,
                         zoom_range=[0.5, 1],
                         horizontal_flip=False,
                         vertical_flip=False,
                         fill_mode="constant")

    ## use this method with both images and masks
    image_datagen = ImageDataGenerator(**data_gen_args)
    mask_datagen = ImageDataGenerator(**data_gen_args)

    ## fit the augmentation model to the images and masks with the same seed
    image_datagen.fit(imgs, augment=True, seed=seed)
    mask_datagen.fit(masks, augment=True, seed=seed)

    ## set the parameters for the data to come from (images)
    image_generator = image_datagen.flow(imgs,
                                         shuffle=True,
                                         batch_size=batch_size,
                                         save_to_dir=None,
                                         save_prefix='out_image',
                                         save_format='jpg',
                                         seed=seed)

    ## set the parameters for the data to come from (masks)
    mask_generator = mask_datagen.flow(masks,
                                       shuffle=True,
                                       batch_size=batch_size,
                                       save_to_dir=None,
                                       save_prefix='out_mask',
                                       save_format='png',
                                       seed=seed)

    # combine generators into one which yields image and masks
    train_generator = zip(image_generator, mask_generator)

    ## return the train generator for input in the CNN
    return train_generator

import warnings
warnings.filterwarnings('ignore')
import cv2
from sklearn.model_selection import train_test_split
from tensorflow.keras.preprocessing.image import ImageDataGenerator
import glob
import numpy as np
import matplotlib.pyplot as plt
from tensorflow.keras.callbacks import LearningRateScheduler , EarlyStopping, ModelCheckpoint, ReduceLROnPlateau,TensorBoard
from tensorflow.keras import backend as K
import tensorflow as tf

img_size = 512

input_path=glob.glob("trainingData/left_images/*")
output_path=glob.glob("trainingData/left_groundTruth/*")

train_x=[]
train_y=[]

for path in input_path:
    image=cv2.imread(path)
    image=cv2.resize(image, (img_size, img_size),interpolation = cv2.INTER_LANCZOS4)
    image = image / 255.
    train_x.append(image)

for path in output_path:
    image=cv2.imread(path,0)
    image=cv2.resize(image, (img_size, img_size),interpolation = cv2.INTER_LANCZOS4)
    image = image / 255.
    train_y.append(image)

train_x=np.array(train_x)
train_y=np.array(train_y)
train_y=np.reshape(train_y,(-1,img_size,img_size,1))

X_train, X_test, Y_train, Y_test = train_test_split(train_x, train_y,train_size=0.8,shuffle=True)

# #hard_swishの定義
def hard_swish(x):
    return x * (K.relu(x + 3., max_value = 6.) / 6.)

# #swishの定義
def swish(x):
    return x * K.sigmoid(x)

# 正当なU-netのモデル(mishを導入している)
#  正則化(L2)を導入して変化するかを試す。

from tensorflow.keras.layers import Conv2D, Input, LeakyReLU, MaxPooling2D, UpSampling2D, Dropout, BatchNormalization, Conv2DTranspose
from tensorflow.keras.models import Model
from tensorflow.keras.layers import concatenate
from tensorflow.keras.layers import PReLU   
from tensorflow.keras.optimizers import RMSprop, Adam
from tensorflow.keras import backend as K
from tensorflow.keras import regularizers
from tf_rectified_adam import RectifiedAdam

input_img = Input(shape=(img_size, img_size, 3))

enc1 = Conv2D(64, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(input_img)
enc1 = BatchNormalization()(enc1)
enc1 = Conv2D(64, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(enc1)
enc1 = BatchNormalization()(enc1)
down1 = MaxPooling2D(pool_size=2, strides=2)(enc1)

enc2 = Conv2D(128, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(down1)
enc2 = BatchNormalization()(enc2)
enc2 = Conv2D(128, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(enc2)
enc2 = BatchNormalization()(enc2)
down2 = MaxPooling2D(pool_size=2, strides=2)(enc2)

enc3 = Conv2D(256, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(down2)
enc3 = BatchNormalization()(enc3)
enc3 = Conv2D(256, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(enc3)
enc3 = BatchNormalization()(enc3)
down3 = MaxPooling2D(pool_size=2, strides=2)(enc3)

enc4 = Conv2D(512, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(down3)
enc4 = BatchNormalization()(enc4)
enc4 = Conv2D(512, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(enc4)
enc4 = BatchNormalization()(enc4)
down4 = MaxPooling2D(pool_size=2, strides=2)(enc4)

enc5 = Conv2D(1024, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(down4)
enc5 = BatchNormalization()(enc5)
enc5 = Conv2D(1024, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(enc5)
enc5 = BatchNormalization()(enc5)

up4 = UpSampling2D(size=2)(enc5)
dec4 = concatenate([up4, enc4], axis=-1)
dec4 = Conv2D(512, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(dec4)
dec4 = BatchNormalization()(dec4)
dec4 = Conv2D(512, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(dec4)
dec4 = BatchNormalization()(dec4)

up3 = UpSampling2D(size=2)(dec4)
dec3 = concatenate([up3, enc3], axis=-1)
dec3 = Conv2D(256, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(dec3)
dec3 = BatchNormalization()(dec3)
dec3 = Conv2D(256, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(dec3)
dec3 = BatchNormalization()(dec3)

up2 = UpSampling2D(size=2)(dec3)
dec2 = concatenate([up2, enc2], axis=-1)
dec2 = Conv2D(128, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(dec2)
dec2 = BatchNormalization()(dec2)
dec2 = Conv2D(128, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(dec2)
dec2 = BatchNormalization()(dec2)

up1 = UpSampling2D(size=2)(dec2)
dec1 = concatenate([up1, enc1], axis=-1)
dec1 = Conv2D(64, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(dec1)
dec1 = BatchNormalization()(dec1)
dec1 = Conv2D(64, kernel_size=3, strides=1, activation=hard_swish,
              padding="same")(dec1)
dec1 = BatchNormalization()(dec1)

deca = Conv2D(1,kernel_size=1,strides=1,activation="sigmoid", padding="same")(dec1)

batch_size = 1
epoch_num =1000
seed = 2020

train_generator = image_augmentation(X_train, Y_train,batch_size,seed)
test_generator = image_augmentation(X_test, Y_test,batch_size,seed)

model=Model(inputs=input_img, outputs=deca)


# 評価指標IOUのための関数

def true_positive(y_true, y_pred):
    return K.sum(K.cast(K.equal(y_true * y_pred, 1), K.floatx()))

def true_negative(y_true, y_pred):
    return K.sum(K.cast(K.equal(y_true + y_pred, 0), K.floatx()))

def false_positive(y_true, y_pred):
    return K.sum(K.cast(K.less(y_true, y_pred), K.floatx()))

def false_negative(y_true, y_pred):
    return K.sum(K.cast(K.greater(y_true, y_pred), K.floatx()))

def IoU(y_true, y_pred):
    y_pred = K.round(y_pred)
    return true_positive(y_true, y_pred) / (K.epsilon()+false_negative(y_true, y_pred) + true_positive(y_true, y_pred) + false_positive(y_true, y_pred))


# 最良の重みのみを保存する。
cp = ModelCheckpoint("weight/unet_weights_testmodel.hdf5", monitor="val_loss", verbose=1,save_best_only=True, save_weights_only=True)


model.compile(optimizer=RectifiedAdam(lr=1e-3), loss='mse', metrics=[IoU])

history = model.fit_generator(train_generator,
                    steps_per_epoch = X_train.shape[0]//batch_size,
                    validation_steps = X_test.shape[0]//batch_size,
                    epochs = epoch_num,
                    shuffle = True,
                    verbose = 1,
                    validation_data = test_generator,
                    callbacks = [cp])
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

まだ回答がついていません

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.92%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る