###前提・実現したいこと
tensorflowのkerasというライブラリを用いて,SimpleRNNを構築しました.
しかし,このままでは勾配消失問題を解決出来ません.
LSTM,GRUで解決することも出来ますが,計算に時間がかかり過ぎます.
そこで,SimpleRNNの活性化関数をreluにすると,LSTM,GRUと同等の精度を得ることが出来るという技術報告を拝見しました.
これを試したいのですが,kerasによるSimpleRNNの活性化関数の変え方がわかりません.
###該当のソースコード
python
1model = Sequential() 2model.add(SimpleRNN(n_hidden, 3 input_shape=(maxlen, n_in))) 4model.add(Dense(n_out)) 5model.add(Activation('sigmoid')) 6
###試したこと
該当コードにかかれているActivationを変更しましたが,出力層の活性化関数が変更されただけでした.
出力層ではなく,再帰構造を持つ層の活性化関数をreluにしたいのです.
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2018/01/22 07:30