回答編集履歴

5 変数sizeの変更

退会済みユーザー

退会済みユーザー

2017/10/10 22:37  投稿

はい 統一してください
ニュートラルネットワークを用いる場合、入力形状は固定が基本です
```python
# 入力を28x28x3に変形
x_image = tf.reshape(images_placeholder, [-1, 28, 28, 3])
```
このネットワークには28 * 28 * 3 に変換可能なサイズを渡しましょう。
ネットワークの部分だけ修正(見落としがある可能性があります)
```python
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import sys
import cv2
import numpy as np
import tensorflow as tf
import tensorflow.python.platform
NUM_CLASSES = 12
IMAGE_SIZE = 56
IMAGE_PIXELS = IMAGE_SIZE*IMAGE_SIZE*3
flags = tf.app.flags
FLAGS = flags.FLAGS
flags.DEFINE_string('train', 'train.txt', 'File name of train data')
flags.DEFINE_string('test', 'test.txt', 'File name of train data')
flags.DEFINE_string('train_dir', '/tmp/data', 'Directory to put the training data.')
flags.DEFINE_integer('max_steps', 200, 'Number of steps to run trainer.')
flags.DEFINE_integer('batch_size', 10, 'Batch size'
                    'Must divide evenly into the dataset sizes.')
flags.DEFINE_float('learning_rate', 1e-4, 'Initial learning rate.')
def inference(images_placeholder, keep_prob):
   """ 予測モデルを作成する関数
   引数:
     images_placeholder: 画像のplaceholder
     keep_prob: dropout率のplace_holder
   返り値:
     y_conv: 各クラスの確率(のようなもの)
   """
   # 重みを標準偏差0.1の正規分布で初期化
   def weight_variable(shape):
     initial = tf.truncated_normal(shape, stddev=0.1)
     return tf.Variable(initial)
   # バイアスを標準偏差0.1の正規分布で初期化
   def bias_variable(shape):
     initial = tf.constant(0.1, shape=shape)
     return tf.Variable(initial)
   # 畳み込み層の作成
   def conv2d(x, W):
     return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')
   # プーリング層の作成
   def max_pool_2x2(x):
     return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],
                           strides=[1, 2, 2, 1], padding='SAME')
   # 入力を28x28x3に変形
   x_image = tf.reshape(images_placeholder, [-1, 56, 56, 3])
   # 畳み込み層1の作成
   with tf.name_scope('conv1') as scope:
       W_conv1 = weight_variable([5, 5, 3, 32])
       b_conv1 = bias_variable([32])
       h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
   # プーリング層1の作成
   with tf.name_scope('pool1') as scope:
       h_pool1 = max_pool_2x2(h_conv1)
   # 畳み込み層2の作成
   with tf.name_scope('conv2') as scope:
       W_conv2 = weight_variable([5, 5, 32, 64])
       b_conv2 = bias_variable([64])
       h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
   # プーリング層2の作成
   with tf.name_scope('pool2') as scope:
       h_pool2 = max_pool_2x2(h_conv2)
   # 全結合層1の作成
   with tf.name_scope('fc1') as scope:
       # 7 * 7 * 64 から不定のsizeに変更 画像sizeを変更しても修正がいらない
       size = tf.size(h_pool2)
       size = tf.size(h_pool2[0])
       W_fc1 = weight_variable([size, 1024])
       b_fc1 = bias_variable([1024])
       h_pool2_flat = tf.reshape(h_pool2, [-1, size])
       h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
       # dropoutの設定
       h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
   # 全結合層2の作成
   with tf.name_scope('fc2') as scope:
       W_fc2 = weight_variable([1024, NUM_CLASSES])
       b_fc2 = bias_variable([NUM_CLASSES])
```
4 NUM_CLASSESの値の変更

退会済みユーザー

退会済みユーザー

2017/10/10 22:35  投稿

はい 統一してください
ニュートラルネットワークを用いる場合、入力形状は固定が基本です
```python
# 入力を28x28x3に変形
x_image = tf.reshape(images_placeholder, [-1, 28, 28, 3])
```
このネットワークには28 * 28 * 3 に変換可能なサイズを渡しましょう。
ネットワークの部分だけ修正(見落としがある可能性があります)
```python
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import sys
import cv2
import numpy as np
import tensorflow as tf
import tensorflow.python.platform
NUM_CLASSES = 2
NUM_CLASSES = 12
IMAGE_SIZE = 56
IMAGE_PIXELS = IMAGE_SIZE*IMAGE_SIZE*3
flags = tf.app.flags
FLAGS = flags.FLAGS
flags.DEFINE_string('train', 'train.txt', 'File name of train data')
flags.DEFINE_string('test', 'test.txt', 'File name of train data')
flags.DEFINE_string('train_dir', '/tmp/data', 'Directory to put the training data.')
flags.DEFINE_integer('max_steps', 200, 'Number of steps to run trainer.')
flags.DEFINE_integer('batch_size', 10, 'Batch size'
                    'Must divide evenly into the dataset sizes.')
flags.DEFINE_float('learning_rate', 1e-4, 'Initial learning rate.')
def inference(images_placeholder, keep_prob):
   """ 予測モデルを作成する関数
   引数:
     images_placeholder: 画像のplaceholder
     keep_prob: dropout率のplace_holder
   返り値:
     y_conv: 各クラスの確率(のようなもの)
   """
   # 重みを標準偏差0.1の正規分布で初期化
   def weight_variable(shape):
     initial = tf.truncated_normal(shape, stddev=0.1)
     return tf.Variable(initial)
   # バイアスを標準偏差0.1の正規分布で初期化
   def bias_variable(shape):
     initial = tf.constant(0.1, shape=shape)
     return tf.Variable(initial)
   # 畳み込み層の作成
   def conv2d(x, W):
     return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')
   # プーリング層の作成
   def max_pool_2x2(x):
     return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],
                           strides=[1, 2, 2, 1], padding='SAME')
   # 入力を28x28x3に変形
   x_image = tf.reshape(images_placeholder, [-1, 56, 56, 3])
   # 畳み込み層1の作成
   with tf.name_scope('conv1') as scope:
       W_conv1 = weight_variable([5, 5, 3, 32])
       b_conv1 = bias_variable([32])
       h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
   # プーリング層1の作成
   with tf.name_scope('pool1') as scope:
       h_pool1 = max_pool_2x2(h_conv1)
   # 畳み込み層2の作成
   with tf.name_scope('conv2') as scope:
       W_conv2 = weight_variable([5, 5, 32, 64])
       b_conv2 = bias_variable([64])
       h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
   # プーリング層2の作成
   with tf.name_scope('pool2') as scope:
       h_pool2 = max_pool_2x2(h_conv2)
   # 全結合層1の作成
   with tf.name_scope('fc1') as scope:
       # 7 * 7 * 64 から不定のsizeに変更 画像sizeを変更しても修正がいらない
       size = tf.size(h_pool2)
       W_fc1 = weight_variable([size, 1024])
       b_fc1 = bias_variable([1024])
       h_pool2_flat = tf.reshape(h_pool2, [-1, size])
       h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
       # dropoutの設定
       h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
   # 全結合層2の作成
   with tf.name_scope('fc2') as scope:
       W_fc2 = weight_variable([1024, NUM_CLASSES])
       b_fc2 = bias_variable([NUM_CLASSES])
```
3 修正

退会済みユーザー

退会済みユーザー

2017/10/10 22:20  投稿

はい 統一してください
ニュートラルネットワークを用いる場合、入力形状は固定が基本です
```python
# 入力を28x28x3に変形
x_image = tf.reshape(images_placeholder, [-1, 28, 28, 3])
```
このネットワークには28 * 28 * 3 に変換可能なサイズを渡しましょう。
ネットワークの部分だけ修正(見落としがある可能性があります)  
```python
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import sys
import cv2
import numpy as np
import tensorflow as tf
import tensorflow.python.platform
NUM_CLASSES = 2
IMAGE_SIZE = 56
IMAGE_PIXELS = IMAGE_SIZE*IMAGE_SIZE*3
flags = tf.app.flags
FLAGS = flags.FLAGS
flags.DEFINE_string('train', 'train.txt', 'File name of train data')
flags.DEFINE_string('test', 'test.txt', 'File name of train data')
flags.DEFINE_string('train_dir', '/tmp/data', 'Directory to put the training data.')
flags.DEFINE_integer('max_steps', 200, 'Number of steps to run trainer.')
flags.DEFINE_integer('batch_size', 10, 'Batch size'
                    'Must divide evenly into the dataset sizes.')
flags.DEFINE_float('learning_rate', 1e-4, 'Initial learning rate.')
def inference(images_placeholder, keep_prob):
   """ 予測モデルを作成する関数
   引数:
     images_placeholder: 画像のplaceholder
     keep_prob: dropout率のplace_holder
   返り値:
     y_conv: 各クラスの確率(のようなもの)
   """
   # 重みを標準偏差0.1の正規分布で初期化
   def weight_variable(shape):
     initial = tf.truncated_normal(shape, stddev=0.1)
     return tf.Variable(initial)
   # バイアスを標準偏差0.1の正規分布で初期化
   def bias_variable(shape):
     initial = tf.constant(0.1, shape=shape)
     return tf.Variable(initial)
   # 畳み込み層の作成
   def conv2d(x, W):
     return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')
   # プーリング層の作成
   def max_pool_2x2(x):
     return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],
                           strides=[1, 2, 2, 1], padding='SAME')
   # 入力を28x28x3に変形
   x_image = tf.reshape(images_placeholder, [-1, 56, 56, 3])
   # 畳み込み層1の作成
   with tf.name_scope('conv1') as scope:
       W_conv1 = weight_variable([5, 5, 3, 32])
       b_conv1 = bias_variable([32])
       h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
   # プーリング層1の作成
   with tf.name_scope('pool1') as scope:
       h_pool1 = max_pool_2x2(h_conv1)
   # 畳み込み層2の作成
   with tf.name_scope('conv2') as scope:
       W_conv2 = weight_variable([5, 5, 32, 64])
       b_conv2 = bias_variable([64])
       h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
   # プーリング層2の作成
   with tf.name_scope('pool2') as scope:
       h_pool2 = max_pool_2x2(h_conv2)
   # 全結合層1の作成
   with tf.name_scope('fc1') as scope:
       # 7 * 7 * 64 から不定のsizeに変更 画像sizeを変更しても修正がいらない
       size = tf.size(h_pool2)
       W_fc1 = weight_variable([size, 1024])
       b_fc1 = bias_variable([1024])
       h_pool2_flat = tf.reshape(h_pool2, [-1, size])
       h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
       # dropoutの設定
       h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
   # 全結合層2の作成
   with tf.name_scope('fc2') as scope:
       W_fc2 = weight_variable([1024, NUM_CLASSES])
       b_fc2 = bias_variable([NUM_CLASSES])
```
2 コード追加

退会済みユーザー

退会済みユーザー

2017/10/10 22:19  投稿

はい 統一してください
ニュートラルネットワークを用いる場合、入力形状は固定が基本です
```python
# 入力を28x28x3に変形
x_image = tf.reshape(images_placeholder, [-1, 28, 28, 3])
```
このネットワークには28 * 28 * 3 に変換可能なサイズを渡しましょう。
このネットワークには28 * 28 * 3 に変換可能なサイズを渡しましょう。
```python
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import sys
import cv2
import numpy as np
import tensorflow as tf
import tensorflow.python.platform
NUM_CLASSES = 2
IMAGE_SIZE = 56
IMAGE_PIXELS = IMAGE_SIZE*IMAGE_SIZE*3
flags = tf.app.flags
FLAGS = flags.FLAGS
flags.DEFINE_string('train', 'train.txt', 'File name of train data')
flags.DEFINE_string('test', 'test.txt', 'File name of train data')
flags.DEFINE_string('train_dir', '/tmp/data', 'Directory to put the training data.')
flags.DEFINE_integer('max_steps', 200, 'Number of steps to run trainer.')
flags.DEFINE_integer('batch_size', 10, 'Batch size'
                    'Must divide evenly into the dataset sizes.')
flags.DEFINE_float('learning_rate', 1e-4, 'Initial learning rate.')
def inference(images_placeholder, keep_prob):
   """ 予測モデルを作成する関数
   引数:
     images_placeholder: 画像のplaceholder
     keep_prob: dropout率のplace_holder
   返り値:
     y_conv: 各クラスの確率(のようなもの)
   """
   # 重みを標準偏差0.1の正規分布で初期化
   def weight_variable(shape):
     initial = tf.truncated_normal(shape, stddev=0.1)
     return tf.Variable(initial)
   # バイアスを標準偏差0.1の正規分布で初期化
   def bias_variable(shape):
     initial = tf.constant(0.1, shape=shape)
     return tf.Variable(initial)
   # 畳み込み層の作成
   def conv2d(x, W):
     return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')
   # プーリング層の作成
   def max_pool_2x2(x):
     return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],
                           strides=[1, 2, 2, 1], padding='SAME')
   # 入力を28x28x3に変形
   x_image = tf.reshape(images_placeholder, [-1, 56, 56, 3])
   # 畳み込み層1の作成
   with tf.name_scope('conv1') as scope:
       W_conv1 = weight_variable([5, 5, 3, 32])
       b_conv1 = bias_variable([32])
       h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
   # プーリング層1の作成
   with tf.name_scope('pool1') as scope:
       h_pool1 = max_pool_2x2(h_conv1)
   # 畳み込み層2の作成
   with tf.name_scope('conv2') as scope:
       W_conv2 = weight_variable([5, 5, 32, 64])
       b_conv2 = bias_variable([64])
       h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
   # プーリング層2の作成
   with tf.name_scope('pool2') as scope:
       h_pool2 = max_pool_2x2(h_conv2)
   # 全結合層1の作成
   with tf.name_scope('fc1') as scope:
       # 7 * 7 * 64 から不定のsizeに変更 画像sizeを変更しても修正がいらない
       size = tf.size(h_pool2)
       W_fc1 = weight_variable([size, 1024])
       b_fc1 = bias_variable([1024])
       h_pool2_flat = tf.reshape(h_pool2, [-1, size])
       h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
       # dropoutの設定
       h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
   # 全結合層2の作成
   with tf.name_scope('fc2') as scope:
       W_fc2 = weight_variable([1024, NUM_CLASSES])
       b_fc2 = bias_variable([NUM_CLASSES])
```
1 訂正

退会済みユーザー

退会済みユーザー

2017/10/10 21:35  投稿

はい 統一してください
ニュートラルネットワークを用いる場合、入力形状は固定が基本です
```python
# 入力を28x28x3に変形
x_image = tf.reshape(images_placeholder, [-1, 28, 28, 3])
```

思考するエンジニアのためのQ&Aサイト「teratail」について詳しく知る