質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.35%
Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Q&A

1回答

1232閲覧

活性化関数の出力の最大値って...?

YNN35

総合スコア22

Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

0グッド

1クリップ

投稿2020/05/05 04:31

編集2020/05/05 11:03

###質問内容

以下の2つのモデルの出力の最大値を知りたいです。
また出力層だけシグモイド関数というのをよく見かけるのですが、ネットワークの途中にシグモイド関数などを挟むと学習精度が落ちるなどの現象は存在するのでしょうか?

該当のモデル

1つ目

python3

1input_img = Input(shape=(25,)) 2 3encoded = Dense(18, activation='relu')(input_img) 4encoded = Dense(13, activation='relu')(encoded) 5encoded = Dense(8, activation='sigmoid')(encoded) 6 7encoder = Model(input_img, encoded) 8

2つ目

python3

1input_img = Input(shape=(25,)) 2 3encoded = Dense(18, activation='relu')(input_img) 4encoded = Dense(13, activation='relu')(encoded) 5encoded = Dense(8, activation='relu')(encoded) 6 7encoder = Model(input_img, encoded) 8

補足

1つ目は活性化関数をシグモイド関数に、2つ目はReLU関数にしたのですが出力の最大値はどうなるのでしょうか...?
シグモイド関数ならMAX=1になるのでしょうか...?
ついでにこれはオートエンコーダのencoderの出力値を取り出すものです。

ついでにオートエンコーダを含めたコードも乗っけておきます。

python3

1input_img = Input(shape=(25,)) 2 3encoded = Dense(18, activation='relu')(input_img) 4encoded = Dense(13, activation='relu')(encoded) 5encoded = Dense(8, activation='sigmoid')(encoded) 6 7decoded = Dense(13, activation='relu')(encoded) 8decoded = Dense(18, activation='relu')(decoded) 9decoded = Dense(25, activation='sigmoid')(decoded) 10 11autoencoder = Model(input=input_img, output=decoded)

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

あまり詳しくないのですがまだ回答0のようなのでご参考まで

回答としては
試して見たらいいのじゃないでしょうか
なのですが(どこに悩んでらっしゃるのか分からず、、、関数自体はご存知のようで)

ネットワークの途中にシグモイド関数などを挟むと学習精度が落ちるなどの現象は存在するのでしょうか?

深層学習では、なぜそういう結果になるのかの理論の解明はまだまだで、いろいろ試行錯誤した経験の蓄積で
研究が進んでいる要素が多いと思われます。
その過程でシグモイド関数よりもReLUなどが新たに導入されてきています。

1つ目は活性化関数をシグモイド関数に、2つ目はReLU関数にしたのですが出力の最大値はどうなるのでしょうか...?

シグモイド関数ならMAX=1になるのでしょうか...?

これは「補足」ではなくて別の質問ですよね。
シグモイド関数なら最大値は1ですね(定数倍して最大値を1ではないaにもできはするでしょうが)
ReLUはご存知かと思いますが負ならば0、正ならばy=xですね。

参考[活性化関数]ReLU(Rectified Linear Unit)/ランプ関数とは?

オートエンコーダのコードを補足として掲載した意味もよくわかりませんが、、、
回答とは全然別の疑問でしょうか、、、

投稿2020/08/09 09:46

aokikenichi

総合スコア2240

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだベストアンサーが選ばれていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.35%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問