質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.50%
Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

4927閲覧

sigmoid関数を使用するとエラーが出る問題について

trafalbad

総合スコア303

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2017/08/21 00:51

現在DCGANを作っていて、Discriminatorの出力関数にtf.nn.sigmoidを用いてラベルに1と0指定したところ次のエラーが出ました

InvalidArgumentError: Received a label value of 1 which is outside the valid range of [0, 1). Label values: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 [[Node: SparseSoftmaxCrossEntropyWithLogits_9/SparseSoftmaxCrossEntropyWithLogits = SparseSoftmaxCrossEntropyWithLogits[T=DT_FLOAT, Tlabels=DT_INT64, _device="/job:localhost/replica:0/task:0/cpu:0"](discriminator/Linear/add, ones_like_7)]]

このエラーの原因はおそらく
1、損失関数にtf.nn.sparse_softmax_cross_entropy_with_logits(logits=D_logits, labels=tf.ones_like(D))
を使用し、ラベルに1、と0を指定したこと

2、ググってみるとsigmoid関数の範囲は(0、1)の間のようなので、ラベルに1を指定するとこの範囲を超えてしまうため

便宜上、labels=tf.ones_like(D)でラベルは0か1にしなければなりません

どのようにこの問題を解決すればいいかご教授いただけないでしょうか?

該当コード

def discriminator(): reuse = False def model(image): nonlocal reuse batch_size=64 with tf.variable_scope("discriminator", reuse=reuse) as scope: h0 = lrelu(conv2d(image, 64, name='d_h0_conv')) h1 = lrelu(batch_norm(conv2d(h0, 128, name='d_h1_conv'),'d_bn1')) h2 = lrelu(batch_norm(conv2d(h1, 256, name='d_h2_conv'),'d_bn2')) h3 = lrelu(batch_norm(conv2d(h2, 512, name='d_h3_conv'),'d_bn3')) # shape=(batch_size, 64, 64, 3) h4 = linear(tf.reshape(h3, [batch_size, -1]),1,'d_h4_lin') reuse = True return tf.nn.sigmoid(h4), h4 return model
G=g(z) #G(z) D, D_logits = d(image) #D(x) sampler = s(z) D_, D_logits_ = d(G) #D(G(z)) D_=tf.cast(tf.reshape(D_, [64,]), tf.int64) D=tf.cast(tf.reshape(D, [64,]), tf.int64) d_loss_real = tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(logits=D_logits, labels=tf.ones_like(D))) d_loss_fake = tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(logits=D_logits_, labels=tf.zeros_like(D_))) g_loss = tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(logits=D_logits_, labels=tf.ones_like(D_)))

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

自己解決

損失関数に```
tf.nn.sigmoid_cross_entropy_with_logits

投稿2017/08/21 03:25

trafalbad

総合スコア303

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.50%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問