TensoeFlowの画像分類(CNN)の処理が分からない.
解決済
回答 1
投稿
- 評価
- クリップ 1
- VIEW 1,877

退会済みユーザー
以下のコードがどういった処理を行っているのかわかりません.
TensorFlowを用いた画像分類のCNN法のコードなのですが,どういう方法でニューラルネットワークを構築しているのか詳しく教えて頂ける方いませんでしょうか.
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import sys
import cv2
import numpy as np
import tensorflow as tf
import tensorflow.python.platform
NUM_CLASSES = 2
IMAGE_SIZE = 28
IMAGE_PIXELS = IMAGE_SIZE*IMAGE_SIZE*3
flags = tf.app.flags
FLAGS = flags.FLAGS
flags.DEFINE_string('train', 'train.txt', 'File name of train data')
flags.DEFINE_string('test', 'test.txt', 'File name of train data')
flags.DEFINE_string('train_dir', '/tmp/data', 'Directory to put the training data.')
flags.DEFINE_integer('max_steps', 200, 'Number of steps to run trainer.')
flags.DEFINE_integer('batch_size', 10, 'Batch size'
'Must divide evenly into the dataset sizes.')
flags.DEFINE_float('learning_rate', 1e-4, 'Initial learning rate.')
def inference(images_placeholder, keep_prob):
""" 予測モデルを作成する関数
引数:
images_placeholder: 画像のplaceholder
keep_prob: dropout率のplace_holder
返り値:
y_conv: 各クラスの確率(のようなもの)
"""
# 重みを標準偏差0.1の正規分布で初期化
def weight_variable(shape):
initial = tf.truncated_normal(shape, stddev=0.1)
return tf.Variable(initial)
# バイアスを標準偏差0.1の正規分布で初期化
def bias_variable(shape):
initial = tf.constant(0.1, shape=shape)
return tf.Variable(initial)
# 畳み込み層の作成
def conv2d(x, W):
return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')
# プーリング層の作成
def max_pool_2x2(x):
return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],
strides=[1, 2, 2, 1], padding='SAME')
# 入力を28x28x3に変形
x_image = tf.reshape(images_placeholder, [-1, 28, 28, 3])
# 畳み込み層1の作成
with tf.name_scope('conv1') as scope:
W_conv1 = weight_variable([5, 5, 3, 32])
b_conv1 = bias_variable([32])
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
# プーリング層1の作成
with tf.name_scope('pool1') as scope:
h_pool1 = max_pool_2x2(h_conv1)
# 畳み込み層2の作成
with tf.name_scope('conv2') as scope:
W_conv2 = weight_variable([5, 5, 32, 64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
# プーリング層2の作成
with tf.name_scope('pool2') as scope:
h_pool2 = max_pool_2x2(h_conv2)
# 全結合層1の作成
with tf.name_scope('fc1') as scope:
W_fc1 = weight_variable([7*7*64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
# dropoutの設定
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
# 全結合層2の作成
with tf.name_scope('fc2') as scope:
W_fc2 = weight_variable([1024, NUM_CLASSES])
b_fc2 = bias_variable([NUM_CLASSES])
# ソフトマックス関数による正規化
with tf.name_scope('softmax') as scope:
y_conv=tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)
# 各ラベルの確率のようなものを返す
return y_conv
def loss(logits, labels):
""" lossを計算する関数
引数:
logits: ロジットのtensor, float - [batch_size, NUM_CLASSES]
labels: ラベルのtensor, int32 - [batch_size, NUM_CLASSES]
返り値:
cross_entropy: 交差エントロピーのtensor, float
"""
# 交差エントロピーの計算
cross_entropy = -tf.reduce_sum(labels*tf.log(logits))
# TensorBoardで表示するよう指定
tf.scalar_summary("cross_entropy", cross_entropy)
return cross_entropy
def training(loss, learning_rate):
""" 訓練のOpを定義する関数
引数:
loss: 損失のtensor, loss()の結果
learning_rate: 学習係数
返り値:
train_step: 訓練のOp
"""
train_step = tf.train.AdamOptimizer(learning_rate).minimize(loss)
return train_step
def accuracy(logits, labels):
""" 正解率(accuracy)を計算する関数
引数:
logits: inference()の結果
labels: ラベルのtensor, int32 - [batch_size, NUM_CLASSES]
返り値:
accuracy: 正解率(float)
"""
correct_prediction = tf.equal(tf.argmax(logits, 1), tf.argmax(labels, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
tf.scalar_summary("accuracy", accuracy)
return accuracy
if __name__ == '__main__':
# ファイルを開く
f = open(FLAGS.train, 'r')
# データを入れる配列
train_image = []
train_label = []
for line in f:
# 改行を除いてスペース区切りにする
line = line.rstrip()
l = line.split()
# データを読み込んで28x28に縮小
img = cv2.imread(l[0])
img = cv2.resize(img, (28, 28))
# 一列にした後、0-1のfloat値にする
train_image.append(img.flatten().astype(np.float32)/255.0)
# ラベルを1-of-k方式で用意する
tmp = np.zeros(NUM_CLASSES)
tmp[int(l[1])] = 1
train_label.append(tmp)
# numpy形式に変換
train_image = np.asarray(train_image)
train_label = np.asarray(train_label)
f.close()
f = open(FLAGS.test, 'r')
test_image = []
test_label = []
for line in f:
line = line.rstrip()
l = line.split()
img = cv2.imread(l[0])
img = cv2.resize(img, (28, 28))
test_image.append(img.flatten().astype(np.float32)/255.0)
tmp = np.zeros(NUM_CLASSES)
tmp[int(l[1])] = 1
test_label.append(tmp)
test_image = np.asarray(test_image)
test_label = np.asarray(test_label)
f.close()
with tf.Graph().as_default():
# 画像を入れる仮のTensor
images_placeholder = tf.placeholder("float", shape=(None, IMAGE_PIXELS))
# ラベルを入れる仮のTensor
labels_placeholder = tf.placeholder("float", shape=(None, NUM_CLASSES))
# dropout率を入れる仮のTensor
keep_prob = tf.placeholder("float")
# inference()を呼び出してモデルを作る
logits = inference(images_placeholder, keep_prob)
# loss()を呼び出して損失を計算
loss_value = loss(logits, labels_placeholder)
# training()を呼び出して訓練
train_op = training(loss_value, FLAGS.learning_rate)
# 精度の計算
acc = accuracy(logits, labels_placeholder)
# 保存の準備
saver = tf.train.Saver()
# Sessionの作成
sess = tf.Session()
# 変数の初期化
sess.run(tf.initialize_all_variables())
# TensorBoardで表示する値の設定
summary_op = tf.merge_all_summaries()
summary_writer = tf.train.SummaryWriter(FLAGS.train_dir, sess.graph_def)
# 訓練の実行
for step in range(FLAGS.max_steps):
for i in range(len(train_image)/FLAGS.batch_size):
# batch_size分の画像に対して訓練の実行
batch = FLAGS.batch_size*i
# feed_dictでplaceholderに入れるデータを指定する
sess.run(train_op, feed_dict={
images_placeholder: train_image[batch:batch+FLAGS.batch_size],
labels_placeholder: train_label[batch:batch+FLAGS.batch_size],
keep_prob: 0.5})
# 1 step終わるたびに精度を計算する
train_accuracy = sess.run(acc, feed_dict={
images_placeholder: train_image,
labels_placeholder: train_label,
keep_prob: 1.0})
print "step %d, training accuracy %g"%(step, train_accuracy)
# 1 step終わるたびにTensorBoardに表示する値を追加する
summary_str = sess.run(summary_op, feed_dict={
images_placeholder: train_image,
labels_placeholder: train_label,
keep_prob: 1.0})
summary_writer.add_summary(summary_str, step)
# 訓練が終了したらテストデータに対する精度を表示
print "test accuracy %g"%sess.run(acc, feed_dict={
images_placeholder: test_image,
labels_placeholder: test_label,
keep_prob: 1.0})
# 最終的なモデルを保存
save_path = saver.save(sess, "model.ckpt")
-
気になる質問をクリップする
クリップした質問は、後からいつでもマイページで確認できます。
またクリップした質問に回答があった際、通知やメールを受け取ることができます。
クリップを取り消します
-
良い質問の評価を上げる
以下のような質問は評価を上げましょう
- 質問内容が明確
- 自分も答えを知りたい
- 質問者以外のユーザにも役立つ
評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。
質問の評価を上げたことを取り消します
-
評価を下げられる数の上限に達しました
評価を下げることができません
- 1日5回まで評価を下げられます
- 1日に1ユーザに対して2回まで評価を下げられます
質問の評価を下げる
teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。
- プログラミングに関係のない質問
- やってほしいことだけを記載した丸投げの質問
- 問題・課題が含まれていない質問
- 意図的に内容が抹消された質問
- 広告と受け取られるような投稿
評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。
質問の評価を下げたことを取り消します
この機能は開放されていません
評価を下げる条件を満たしてません
質問の評価を下げる機能の利用条件
この機能を利用するためには、以下の事項を行う必要があります。
- 質問回答など一定の行動
-
メールアドレスの認証
メールアドレスの認証
-
質問評価に関するヘルプページの閲覧
質問評価に関するヘルプページの閲覧
checkベストアンサー
+4
上の方からザーッと書きます。
ここで感じた疑問は、必ず調べるようにしてくださいね。
学習データの準備
f = open(FLAGS.train, 'r')
で読み込む元ファイルを手配trainデータ:学習用画像ファイル・ラベルの読み込み
for line in f:
のくだり
FLAGS.train(変数名:実体はテキストファイル)を開き、一行ずつfor文で読み出す。
OpenCVという画像処理モジュールを使って、画像サイズを一定にそろえる。
行列を高速に処理できるnumpyというモジュール用のデータに変換。
*評価用データの準備
f = open(FLAGS.test, 'r')
で読み込む元ファイルを手配
- testデータ:評価用画像ファイル・ラベルの読み込み
for line in f:
のくだり
同上(省略)
※つまるところ、ここでやりたいことは、画像のファイルとその画像が何を表しているかのリストを読み込み、あとで学習用データで学習、ちゃんと学習できたかを評価用データで確認、のデータの段取りをしたいということです。訓練データ(教師データ)、評価データ(テストデータ)、過学習がキーワードです。
- tenorflowの実体
with tf.Graph().as_default():
は、tensorflowを使うためのおまじないです
tensorflowでは、箱を先に用意しておいて、後から数値を突っ込むことで計算します。これからしばらく式が続きますが、ここでは式を決めているだけで、まだ実際には計算はしていません。
tf.placeholder
のあたりで、画像(28px*28px*3ch)の箱とラベル(2クラス)の箱を用意しています。エクセルでいうセルは縦横の二次元のデータ、立方体は縦横高さの三次元のデータ(立体のイメージ)のように、うまく言えないですが軸の数(x)=要素の数(x)=(x)個の要素の配列という感じです。
どうして行列でデータを扱うのが良いのかは、パーセプトロンの話とかバックプロパゲーションとかの話とくっついてくるので、その辺は自力で調べるのが良いと思います(私には説明しきれません)。
行列、テンソルがキーワードです。
続いてドロップアウトが出てきます。あんまり学習させすぎると、汎用性が低い仕上がりになります。それを防ぐための機構がドロップアウトです。ネットワークをランダムにぶった切るための確率の値です。ドロップアウト、過学習がキーワードです。
inference
の部分がニューラルネットワークの本体ですね。ここで処理した結果をlogits
に代入となっています。畳み込み、プーリングがキーワードです。
一方、loss
の部分では損失を計算しています。何をやっているかというと、inference
によって「これが正解かな?」として計算した結果のlogitsとラベルのplaceholderとを比較して、食い違っている部分をloss
として扱っています。損失、損失関数がキーワードです。
train_op = training(loss_value, FLAGS.learning_rate)
の部分で、先に計算した損失loss
がなるべく小さくなるようにlearning_rate
に従って学習します。AdamOptimizer、学習率がキーワードです。
accuracy
の部分で、「これが正解かな?」として計算した結果のlogits
と、正解ラベルlabels_placeholder
とを比較して、何問中何問正解した、という答え合わせをしていますね。100%正解なら1、50%正解なら0.5が返ってくるはずです。
――という一連の式をsever
で保存する準備をしたり、sess
の部分で実際に使う準備をしています。
summary_writer
の辺は、tensorflowとセットで使うことの多い、tensorboardというグラフをカッコよく分かりやすく表示できるツール用のデータをどうする、というものです。なくても動きます。
ここまでが、計算式のめんどくさい部分です
- データをぶん回す処理
for step in range(FLAGS.max_steps):
のくだりで、バッチ処理を行っています。この場合、バッチサイズは10で定義してあるので、10枚ずつまとめて処理しています。まとめた方が早いけどメモリを食うとかGPUがこけるとかそういう話も出てきます。これがミニバッチという動作です。画像全体をミニバッチずつ回す感じです。
この後に続く評価の部分は、「学習データの評価(模擬試験の成績)」ですね。模擬試験(学習データ)は本番の試験(テストデータ)を想定して作っていますが、模擬試験(学習データ)ばかりやっていると模擬試験(学習データ)に最適化されて本番の試験(テストデータ)でこける、とかそんなことが起きるのはこの辺の数値で見えてきます。
本当はもっと高度なことが行われていますが、tensorflowはこうしためんどくさい行列の計算をとっつきやすくしてくれています。詳しくはqiitaやstackoverflowを参照されるとよいと思います。
畳み込みやプーリングがいまいちわからない、という場合には、3Dに可視化したものをみるとイメージがつかみやすいのではないでしょうか。
10/12 1:50追補
畳み込み,プーリングの意味がいまいち分かりません
畳み込みは、フィルタ(カーネル)をスライドさせながら特徴を抽出していく処理です。最近CNNでよく出てきますが、なんちゃってラプラス変換だとかあれやこれやと古くからある処理です。本質的に畳み込み処理はエッジ検出機とみてよいと思います。通常のエッジ検出では使わないフィルタを使うことで、物体の細かい違いを表現できる、とでもいうのでしょうか。このへんが参考になると思います。
一方プーリングは、フィルタはなく、機械的に代表値をピックアップしていく処理です。代表値をピックアップする中、画像が大幅に小さくなる=計算量が小さくなるメリットと、多少対象物が左右上下にズレてもズレを吸収できるメリットがありますね。
なぜ層を重ねると精度が上がるのか分かりません
一つ言えることは、CNNの初期段階では細かいエッジを、後半では何か本質的なものを評価します。例えば、浅い層では「斜めの線」が、深い層では「犬」のような感じです。ただのエッジを本質的なものに変換しやすくなるとでもいうのでしょうか。線形分離しかできないパーセプトロンをたくさん重ねることで表現力が上がり、非線形分離できるようになります。層を増やすことはエクセルの散布図でいう近似曲線の次元数を増やすことと同じイメージです。次元が多いほど最適化されていきますが、ムダにグニャグニャして無理にフィッティングしているためデータのないところは大きく外れます。これが過学習と同じ現象です。これをデータ数やドロップアウトなどで抑えているような感じです。線形分離問題、パーセプトロン、がキーワードです。
interfaceの部分が具体的にどのような処理をしているのか
畳み込み、プーリングの実体ですね。ここまでは私の理解での説明ですが、これらを読んで調べて、もう一度interfaceの部分を眺めて、それでも分からない部分を改めてピンポイントに別の質問で上げるべきだと、私は思います。
投稿
-
回答の評価を上げる
以下のような回答は評価を上げましょう
- 正しい回答
- わかりやすい回答
- ためになる回答
評価が高い回答ほどページの上位に表示されます。
-
回答の評価を下げる
下記のような回答は推奨されていません。
- 間違っている回答
- 質問の回答になっていない投稿
- スパムや攻撃的な表現を用いた投稿
評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。
15分調べてもわからないことは、teratailで質問しよう!
- ただいまの回答率 89.99%
- 質問をまとめることで、思考を整理して素早く解決
- テンプレート機能で、簡単に質問をまとめられる
質問への追記・修正、ベストアンサー選択の依頼
MasashiKimura
2017/10/11 04:55
至って普通のコードですが、何が知りたいのでしょう?
退会済みユーザー
2017/10/11 07:16
teratailの一記事で書くにはあまりにも広大な質問だと思います。もう少し内容を分割してはいかがでしょうか?
退会済みユーザー
2017/10/11 14:40
処理内容を教えていだたきたいです。CNNについて調べても理解できないので誰かほしいです。