質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
87.20%
Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

解決済

U-Netの記述についての疑問

goodmanpuku
goodmanpuku

総合スコア69

Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

1回答

0評価

0クリップ

141閲覧

投稿2022/09/22 09:13

編集2022/09/23 04:48

前提

U-Netについて勉強中なのですが、この記事にはエンコーダ層でそれぞれ畳み込みを2回記述しているのですが、なぜ2回書く必要があるのでしょうか?
具体的には、

self.block1_conv1 = tf.keras.layers.Conv2D(64, (3, 3) , name='block1_conv1', activation = 'relu', padding = 'same')

self.block1_conv2 = tf.keras.layers.Conv2D(64, (3, 3) , name='block1_conv2', padding = 'same')

上記の部分のように書いてる内容は同じなのに2回反復する理由が分かりません。

(参考にしたサイト:
https://qiita.com/hiro871_/items/871c76bf65b76ebe1dd0)

下記のコードはエンコーダ層の部分です。

該当のソースコード

python

class Encoder(Model): def __init__(self, config): super().__init__() # Network self.block1_conv1 = tf.keras.layers.Conv2D(64, (3, 3) , name='block1_conv1', activation = 'relu', padding = 'same') self.block1_conv2 = tf.keras.layers.Conv2D(64, (3, 3) , name='block1_conv2', padding = 'same') self.block1_bn = tf.keras.layers.BatchNormalization() self.block1_act = tf.keras.layers.ReLU() self.block1_pool = tf.keras.layers.MaxPooling2D((2, 2), strides=None, name='block1_pool') self.block2_conv1 = tf.keras.layers.Conv2D(128, (3, 3) , name='block2_conv1', activation = 'relu', padding = 'same') self.block2_conv2 = tf.keras.layers.Conv2D(128, (3, 3) , name='block2_conv2', padding = 'same') self.block2_bn = tf.keras.layers.BatchNormalization() self.block2_act = tf.keras.layers.ReLU() self.block2_pool = tf.keras.layers.MaxPooling2D((2, 2), strides=None, name='block2_pool') self.block3_conv1 = tf.keras.layers.Conv2D(256, (3, 3) , name='block3_conv1', activation = 'relu', padding = 'same') self.block3_conv2 = tf.keras.layers.Conv2D(256, (3, 3) , name='block3_conv2', padding = 'same') self.block3_bn = tf.keras.layers.BatchNormalization() self.block3_act = tf.keras.layers.ReLU() self.block3_pool = tf.keras.layers.MaxPooling2D((2, 2), strides=None, name='block3_pool') self.block4_conv1 = tf.keras.layers.Conv2D(512, (3, 3) , name='block4_conv1', activation = 'relu', padding = 'same') self.block4_conv2 = tf.keras.layers.Conv2D(512, (3, 3) , name='block4_conv2', padding = 'same') self.block4_bn = tf.keras.layers.BatchNormalization() self.block4_act = tf.keras.layers.ReLU() self.block4_dropout = tf.keras.layers.Dropout(0.5) self.block4_pool = tf.keras.layers.MaxPooling2D((2, 2), strides=None, name='block4_pool') self.block5_conv1 = tf.keras.layers.Conv2D(1024, (3, 3) , name='block5_conv1', activation = 'relu', padding = 'same') self.block5_conv2 = tf.keras.layers.Conv2D(1024, (3, 3) , name='block5_conv2', padding = 'same') self.block5_bn = tf.keras.layers.BatchNormalization() self.block5_act = tf.keras.layers.ReLU() self.block5_dropout = tf.keras.layers.Dropout(0.5) def call(self, x): z1 = self.block1_conv1(x) z1 = self.block1_conv2(z1) z1 = self.block1_bn(z1) z1 = self.block1_act(z1) z1_pool = self.block1_pool(z1) z2 = self.block2_conv1(z1_pool) z2 = self.block2_conv2(z2) z2 = self.block2_bn(z2) z2 = self.block2_act(z2) z2_pool = self.block2_pool(z2) z3 = self.block3_conv1(z2_pool) z3 = self.block3_conv2(z3) z3 = self.block3_bn(z3) z3 = self.block3_act(z3) z3_pool = self.block3_pool(z3) z4 = self.block4_conv1(z3_pool) z4 = self.block4_conv2(z4) z4 = self.block4_bn(z4) z4 = self.block4_act(z4) z4_dropout = self.block4_dropout(z4) z4_pool = self.block4_pool(z4_dropout) z5 = self.block5_conv1(z4_pool) z5 = self.block5_conv2(z5) z5 = self.block5_bn(z5) z5 = self.block5_act(z5) z5_dropout = self.block5_dropout(z5) return z1, z2, z3, z4_dropout, z5_dropout

良い質問の評価を上げる

以下のような質問は評価を上げましょう

  • 質問内容が明確
  • 自分も答えを知りたい
  • 質問者以外のユーザにも役立つ

評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

気になる質問をクリップする

クリップした質問は、後からいつでもマイページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

  • プログラミングに関係のない質問
  • やってほしいことだけを記載した丸投げの質問
  • 問題・課題が含まれていない質問
  • 意図的に内容が抹消された質問
  • 過去に投稿した質問と同じ内容の質問
  • 広告と受け取られるような投稿

評価を下げると、トップページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

まだ回答がついていません

会員登録して回答してみよう

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
87.20%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問

同じタグがついた質問を見る

Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。