質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.50%
Python 2.7

Python 2.7は2.xシリーズでは最後のメジャーバージョンです。Python3.1にある機能の多くが含まれています。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

0回答

1005閲覧

Tensorflowでオリジナルの活性化関数のShapeのエラー

YUARA

総合スコア10

Python 2.7

Python 2.7は2.xシリーズでは最後のメジャーバージョンです。Python3.1にある機能の多くが含まれています。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2019/01/09 13:23

編集2022/01/12 10:55

Tensorflowで自分で作った活性化関数をネットワークで実装したいのですがInputのエラーが出てがわかりません。
活性化関数はReLUを改良したものです。今まではKerasをずっと使っていたのですがTensorflowを使う際、そこで詰まりました。

エラー

ValueError: Shape must be rank 0 but is rank 2 for 'cond/Switch' (op: 'Switch') with input shapes: [1,1], [1,1].

関数のコード

python2.7

1def smooth_relu(tensor): 2 e=0.15 3 alpha=0.005 4 5 def smooth(tensor): 6 7 smoothtensor=tf.cond(tensor<(e+alpha) ,lambda: (tensor-alpha)*(tensor-alpha),lambda:e*((tensor-alpha)-self.e*0.5), tf.cond( 8 pred, 9 true_fn=None, 10 false_fn=None, 11 strict=False, 12 name=None, 13 fn1=None, 14 fn2=None 15 )) 16 17 18 return (smoothtensor) 19 20 21 22 newtensor=tf.cond(tensor<0 ,lambda :0, lambda:smooth(tensor)) 23 24 25 return (newtensor)

ネットワークのコード

self.inputs = tf.placeholder(shape=[1,4], dtype=tf.float32) self.weights1 = tf.Variable(tf.truncated_normal([4,4])) self.bias1 = tf.Variable(tf.zeros(shape=[1,4])) self.weights2 = tf.Variable(tf.truncated_normal([4,4])) self.bias2 = tf.Variable(tf.zeros(shape=[1, 4])) self.weights3 = tf.Variable(tf.truncated_normal([4,1])) self.bias3 = tf.Variable(tf.zeros([1,1])) self.layer1 = tf.tanh(tf.matmul(self.inputs, self.weights1) + self.bias1) self.layer2 = tf.tanh(tf.matmul(self.layer1, self.weights2) + self.bias2) self.layer3 = smooth_relu(tf.matmul(self.layer2, self.weights3) + self.bias3) self.output_layer = self.layer3 self.optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.1) self.nextQ = tf.placeholder(shape=[1,1], dtype=tf.float32) self.loss = tf.reduce_sum(tf.square((self.nextQ - self.output_layer))) self.trainer = self.optimizer.minimize(self.loss) self.sess = tf.Session() self.sess.run(tf.global_variables_initializer())

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだ回答がついていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.50%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問