今勉強しているソースコードで、以下の様な関数があるのですが、
python
1def make_model(nh): 2 z = L.Input((nh,), name="Patient") 3 x = L.Dense(100, activation="relu", name="d1")(z) 4 x = L.Dense(100, activation="relu", name="d2")(x) 5 #x = L.Dense(100, activation="relu", name="d3")(x) 6 p1 = L.Dense(3, activation="linear", name="p1")(x) 7 p2 = L.Dense(3, activation="relu", name="p2")(x) 8 preds = L.Lambda(lambda x: x[0] + tf.cumsum(x[1], axis=1), 9 name="preds")([p1, p2]) 10 model = M.Model(z, preds, name="CNN") 11 #model.compile(loss=qloss, optimizer="adam", metrics=[score]) 12 model.compile(loss=mloss(0.8), optimizer=tf.keras.optimizers.Adam(lr=0.1, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.01, amsgrad=False), metrics=[score]) 13 return model
おそらくこのような関数はよく作成されると思うのですが、
各層の活性化関数はどのような理由付けの元で設定されるのでしょうか。
また、各Denseのノード数や後半のoptimizerのパラメータについても何か理論的な理由の元でこのように値を決めると良いなどありますか?
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2020/09/03 18:24