質問編集履歴
3
説明不足
test
CHANGED
@@ -1 +1 @@
|
|
1
|
-
タイタニックの生存率をtensorflowのディープラーニングで
|
1
|
+
タイタニックの生存率をtensorflowのディープラーニングで学習するときコストがnanになる
|
test
CHANGED
File without changes
|
2
説明不足
test
CHANGED
File without changes
|
test
CHANGED
@@ -1,4 +1,4 @@
|
|
1
|
-
タイタニックの生存率をtensorflowのディープラーニングで予測しようとして、コストがnanになってしまいます。
|
1
|
+
タイタニックの生存率をtensorflowのディープラーニングで予測しようとして、その前に学習させようとしたら、コストがnanになってしまいます。
|
2
2
|
|
3
3
|
出力は、生存、非生存の2つなので2クラスにしています。
|
4
4
|
|
@@ -56,4 +56,6 @@
|
|
56
56
|
|
57
57
|
やはり、生存・非生存は1クラスにすべきでしょうか。
|
58
58
|
|
59
|
+
それとも別の問題があるのでしょうか。
|
60
|
+
|
59
61
|
よろしくお願いします。
|
1
誤字脱字がありました。
test
CHANGED
File without changes
|
test
CHANGED
@@ -9,8 +9,6 @@
|
|
9
9
|
|
10
10
|
|
11
11
|
def multilayer_perceptron(x, weights, biases):
|
12
|
-
|
13
|
-
# Hidden layer with RELU activation
|
14
12
|
|
15
13
|
layer_1 = tf.add(tf.matmul(x, weights['h1']), biases['b1'])
|
16
14
|
|
@@ -50,7 +48,7 @@
|
|
50
48
|
|
51
49
|
pred = tf.nn.softmax(out_layer)
|
52
50
|
|
53
|
-
cost = tf.reduce_m
|
51
|
+
cost = -tf.reduce_sum(y * tf.log(pred))
|
54
52
|
|
55
53
|
optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost)
|
56
54
|
|