質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.50%
Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

363閲覧

U-Netの記述についての疑問

退会済みユーザー

退会済みユーザー

総合スコア0

Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2022/09/22 09:13

編集2022/09/23 04:48

前提

U-Netについて勉強中なのですが、この記事にはエンコーダ層でそれぞれ畳み込みを2回記述しているのですが、なぜ2回書く必要があるのでしょうか?
具体的には、

self.block1_conv1 = tf.keras.layers.Conv2D(64, (3, 3) , name='block1_conv1', activation = 'relu', padding = 'same')

self.block1_conv2 = tf.keras.layers.Conv2D(64, (3, 3) , name='block1_conv2', padding = 'same')

上記の部分のように書いてる内容は同じなのに2回反復する理由が分かりません。

(参考にしたサイト:
https://qiita.com/hiro871_/items/871c76bf65b76ebe1dd0)

下記のコードはエンコーダ層の部分です。

該当のソースコード

python

1class Encoder(Model): 2 def __init__(self, config): 3 super().__init__() 4 # Network 5 self.block1_conv1 = tf.keras.layers.Conv2D(64, (3, 3) , name='block1_conv1', activation = 'relu', padding = 'same') 6 self.block1_conv2 = tf.keras.layers.Conv2D(64, (3, 3) , name='block1_conv2', padding = 'same') 7 self.block1_bn = tf.keras.layers.BatchNormalization() 8 self.block1_act = tf.keras.layers.ReLU() 9 self.block1_pool = tf.keras.layers.MaxPooling2D((2, 2), strides=None, name='block1_pool') 10 11 self.block2_conv1 = tf.keras.layers.Conv2D(128, (3, 3) , name='block2_conv1', activation = 'relu', padding = 'same') 12 self.block2_conv2 = tf.keras.layers.Conv2D(128, (3, 3) , name='block2_conv2', padding = 'same') 13 self.block2_bn = tf.keras.layers.BatchNormalization() 14 self.block2_act = tf.keras.layers.ReLU() 15 self.block2_pool = tf.keras.layers.MaxPooling2D((2, 2), strides=None, name='block2_pool') 16 17 self.block3_conv1 = tf.keras.layers.Conv2D(256, (3, 3) , name='block3_conv1', activation = 'relu', padding = 'same') 18 self.block3_conv2 = tf.keras.layers.Conv2D(256, (3, 3) , name='block3_conv2', padding = 'same') 19 self.block3_bn = tf.keras.layers.BatchNormalization() 20 self.block3_act = tf.keras.layers.ReLU() 21 self.block3_pool = tf.keras.layers.MaxPooling2D((2, 2), strides=None, name='block3_pool') 22 23 self.block4_conv1 = tf.keras.layers.Conv2D(512, (3, 3) , name='block4_conv1', activation = 'relu', padding = 'same') 24 self.block4_conv2 = tf.keras.layers.Conv2D(512, (3, 3) , name='block4_conv2', padding = 'same') 25 self.block4_bn = tf.keras.layers.BatchNormalization() 26 self.block4_act = tf.keras.layers.ReLU() 27 self.block4_dropout = tf.keras.layers.Dropout(0.5) 28 self.block4_pool = tf.keras.layers.MaxPooling2D((2, 2), strides=None, name='block4_pool') 29 30 self.block5_conv1 = tf.keras.layers.Conv2D(1024, (3, 3) , name='block5_conv1', activation = 'relu', padding = 'same') 31 self.block5_conv2 = tf.keras.layers.Conv2D(1024, (3, 3) , name='block5_conv2', padding = 'same') 32 self.block5_bn = tf.keras.layers.BatchNormalization() 33 self.block5_act = tf.keras.layers.ReLU() 34 self.block5_dropout = tf.keras.layers.Dropout(0.5) 35 36 def call(self, x): 37 z1 = self.block1_conv1(x) 38 z1 = self.block1_conv2(z1) 39 z1 = self.block1_bn(z1) 40 z1 = self.block1_act(z1) 41 z1_pool = self.block1_pool(z1) 42 43 z2 = self.block2_conv1(z1_pool) 44 z2 = self.block2_conv2(z2) 45 z2 = self.block2_bn(z2) 46 z2 = self.block2_act(z2) 47 z2_pool = self.block2_pool(z2) 48 49 z3 = self.block3_conv1(z2_pool) 50 z3 = self.block3_conv2(z3) 51 z3 = self.block3_bn(z3) 52 z3 = self.block3_act(z3) 53 z3_pool = self.block3_pool(z3) 54 55 z4 = self.block4_conv1(z3_pool) 56 z4 = self.block4_conv2(z4) 57 z4 = self.block4_bn(z4) 58 z4 = self.block4_act(z4) 59 z4_dropout = self.block4_dropout(z4) 60 z4_pool = self.block4_pool(z4_dropout) 61 62 z5 = self.block5_conv1(z4_pool) 63 z5 = self.block5_conv2(z5) 64 z5 = self.block5_bn(z5) 65 z5 = self.block5_act(z5) 66 z5_dropout = self.block5_dropout(z5) 67 68 return z1, z2, z3, z4_dropout, z5_dropout

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

なんで、っていわれても、U-Netってそういう構造だから、としか。
https://arxiv.org/pdf/1505.04597.pdf

https://qiita.com/yu4u/items/7e93c454c9410c4b5427
ここの、「例えば,3×3の畳み込み層を2つ重ねたネットワークは,5×5の畳み込み層と同一のreceptive fieldを持ちつつ,パラメータ数を5×5=25から3×3×2=18に削減できていると言える」という効果を狙った感じはしますが

投稿2022/09/22 19:48

matukeso

総合スコア1590

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.50%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問