質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.46%
Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

423閲覧

画像認識で使うpredict関数の範囲外(?)

OWATA0723hk

総合スコア6

Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2020/10/21 06:19

編集2020/11/04 01:07

https://qiita.com/tomo_20180402/items/e8c55bdca648f4877188

こちらのサイトで行っているpredict関数のfeatures[,]を使ってみたところ
範囲外?の判定になる場合があるのですが、
(私のプログラムの"判定できませんでした。"の部分に当たる)
この場合、何が起きてるんでしょうか?

※画像を入れても何も変化がなかったので判定できませんでした。というテキストを仮で入れています。

参考サイトのプログラム

Python

1 2#綾鷹を選ばせるプログラム 3 4from keras import models 5from keras.models import model_from_json 6from keras.preprocessing import image 7import numpy as np 8 9#保存したモデルの読み込み 10model = model_from_json(open('保存先のフォルダ/tea_predict.json').read()) 11#保存した重みの読み込み 12model.load_weights('保存先のフォルダ/tea_predict.hdf5') 13 14categories = ["綾鷹","お〜いお茶 抹茶入り","なごみ","お〜いお茶 新茶","綾鷹 茶葉のあまみ", 15 "お〜いお茶","伊右衛門","お〜いお茶 濃い茶","生茶","お〜いお茶 新緑"] 16 17#画像を読み込む 18img_path = str(input()) 19img = image.load_img(img_path,target_size=(250, 250, 3)) 20x = image.img_to_array(img) 21x = np.expand_dims(x, axis=0) 22 23#予測 24features = model.predict(x) 25 26#予測結果によって処理を分ける 27if features[0,0] == 1: 28 print ("選ばれたのは、綾鷹でした。") 29 30elif features[0,4] == 1: 31 print ("選ばれたのは、綾鷹(茶葉のあまみ)でした。") 32 33else: 34 for i in range(0,10): 35 if features[0,i] == 1: 36 cat = categories[i] 37 message = "綾鷹を選んでください。(もしかして:あなたが選んでいるのは「" + cat + "」ではありませんか?)" 38 print(message)

私のモデル

Python

1 2#CIFAR-10のデータセットのインポート 3from keras.datasets import cifar10 4 5(X_train, Y_train), (X_test, Y_test) = cifar10.load_data() 6 7#CIFAR-10の正規化 8from keras.utils import to_categorical 9 10root_dir = "パス" 11 12# 特徴量の正規化 13X_train = X_train/255. 14X_test = X_test/255. 15 16# クラスラベルの1-hotベクトル化 17Y_train = to_categorical(Y_train, 10) 18Y_test = to_categorical(Y_test, 10) 19 20# CNNの構築 21import keras 22from keras.models import Sequential 23from keras.layers.convolutional import Conv2D, MaxPooling2D 24from keras.layers.core import Dense, Dropout, Activation, Flatten 25import numpy as np 26 27model = Sequential() 28 29model.add(Conv2D(32, (3, 3), padding='same',input_shape=X_train.shape[1:])) 30model.add(Activation('relu')) 31model.add(Conv2D(32, (3, 3))) 32model.add(Activation('relu')) 33model.add(MaxPooling2D(pool_size=(2, 2))) 34model.add(Dropout(0.25)) 35 36model.add(Conv2D(64, (3, 3), padding='same')) 37model.add(Activation('relu')) 38model.add(Conv2D(64, (3, 3))) 39model.add(Activation('relu')) 40model.add(MaxPooling2D(pool_size=(2, 2))) 41model.add(Dropout(0.25)) 42 43model.add(Flatten()) 44model.add(Dense(512)) 45model.add(Activation('relu')) 46model.add(Dropout(0.5)) 47model.add(Dense(10)) 48model.add(Activation('softmax')) 49 50# コンパイル 51model.compile(loss='categorical_crossentropy',optimizer='SGD',metrics=['accuracy']) 52 53#訓練 54History = model.fit(X_train, Y_train, epochs=30) 55 56# モデルの保存 57open(root_dir + "/modelCIFAR.json", "w").write(model.to_json()) 58 59model.save_weights(root_dir + "/weightCIFAR.hdf5") 60 61print("学習データを保存しました") 62

私のプログラム

Python

1import os 2import tkinter as tk 3from tkinter import filedialog 4from keras.models import model_from_json 5from keras.preprocessing import image 6import numpy as np 7from PIL import Image, ImageTk 8 9#on_canvas = None 10 11def buttonKensaku_clicked() : 12 global img 13 global nomalSize 14 global kekka1 15 global kekka2 16 17 fTyp = [("画像ファイル[jpg(jpeg),png,ppm]", "*.png;*.jpg;*.jpeg;*.ppm")] 18 iDir = os.path.abspath(os.path.dirname(__file__)) 19 path = filedialog.askopenfilename(filetypes=fTyp,initialdir=iDir) 20 21 EditBox.delete(0, tk.END) 22 EditBox.insert(tk.END, path) 23 img_path = EditBox.get() 24 image1 = Image.open(img_path) 25 image1 = image1.resize((400, 300)) 26 img = ImageTk.PhotoImage(image1) 27 canvas1.create_image(0, 0, image=img,anchor=tk.NW) 28 29 img1 = image.load_img(img_path, target_size=(32, 32, 3)) 30 x = image.img_to_array(img1) 31 x = np.expand_dims(x, axis = 0) 32 features = model2.predict(x) 33 34 label1.config(text="あなたが選んだ写真は", font=("", 20)) 35 36 if features[0,0] == 1: 37 label2.config(text="飛行機です。", font=("", 20)) 38 39 elif features[0,1] == 1: 40 label2.config(text="自動車です。", font=("", 20)) 41 42 elif features[0,2] == 1: 43 label2.config(text="鳥です。", font=("", 20)) 44 45 elif features[0,3] == 1: 46 label2.config(text="猫です。", font=("", 20)) 47 48 elif features[0,4] == 1: 49 label2.config(text="鹿です。", font=("", 20)) 50 51 elif features[0,5] == 1: 52 label2.config(text="犬です。", font=("", 20)) 53 54 elif features[0,6] == 1: 55 label2.config(text="カエルです。", font=("", 20)) 56 57 elif features[0,7] == 1: 58 label2.config(text="馬です。", font=("", 20)) 59 60 elif features[0,8] == 1: 61 label2.config(text="船です。", font=("", 20)) 62 63 elif features[0,9] == 1: 64 label2.config(text="トラックです。", font=("", 20)) 65 66 else : 67 label2.config(text="判定できませんでした。", font=("", 20)) 68 69 label1.place(x=500, y=100) 70 label2.place(x=500, y=200) 71 72#ウィンドウ作成 73root = tk.Tk() 74root.geometry("800x400") 75root.title("画像認識システム(仮)") 76root.resizable(False, False) 77 78#ルートディレクトリ 79root_dir = "パス" 80 81img_path = "" 82 83#学習データの読み込み 84model2 = model_from_json(open(root_dir + "modelCIFAR.json", 'r').read()) 85model2.load_weights(root_dir + "weightCIFAR.hdf5") 86 87#キャンバスの作成 88canvas1 = tk.Canvas(root, width=500, height=500) 89canvas1.place(x=0, y= 50) 90 91 92buttonKensaku = tk.Button(text="[参照]", command=buttonKensaku_clicked, width=10) 93buttonKensaku.place(x=720, y=0) 94 95 96#エントリー 97EditBox = tk.Entry(width=100, font=("", 10)) 98EditBox.place(x=0, y=0) 99EditBox.insert(tk.END, "画像ファイルを選択してください") 100 101#ラベル 102label1 = tk.Label(root, text="画像を判定します。", font=("", 20)) 103label1.place(x=200, y=100) 104 105label2 = tk.Label(root, text="写真を選んでください。", font=("", 20)) 106label2.place(x=200, y=200) 107 108 109root.mainloop()

追記 :
モデルのコードの追加

判定できる場合のfeaturesを出力した結果 [[0. 1. 0. 0. 0. 0. 0. 0. 0. 0.]] 判定できない場合のfeaturesを出力した結果 [[2.8652792e-07 0.0000000e+00 0.0000000e+00 0.0000000e+00 0.0000000e+00 0.0000000+00 0.0000000e+00 0.0000000e+00 9.9999976e-01 0.0000000e+00]]

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

toast-uz

2020/10/21 11:19

なぜそういったことを知りたいのでしょうか? 記事を読んで、コードのコメントを読めば「画像認識で綾鷹かどうか予測した結果」という理解はできるはずなのに、そういうこと(コード以前の日本語読解レベル)を聞きたいのか、それとももっと何か違うことが知りたいのか、どちらでしょうか? という疑問が果てしなく湧くご質問なので、答えるのが難しいです。
OWATA0723hk

2020/10/22 00:38

説明が下手で申し訳なかったです。 自分が知りたいのは、model.predictの使い方です。
toast-uz

2020/10/22 10:13

質問文を修正して、ご説明お願いします。「model.predictの使い方を知りたいです」と記述しただけでは、model.predictでググると最初に出てくる https://note.nkmk.me/python-tensorflow-keras-basics/ といった記事で答えになっていないのか、とかとか、果てしない疑問が沸きますので、答えられません。
toast-uz

2020/11/03 08:59 編集

ご質問の観点はわかりました。回答には、学習する側のコードも必要です。 features = model2.predict(x) なので、featuresの挙動を確認するにはmodel2を知らなくてはなりません。しかし、model2はこのコードでは既にできているものをロードしていますので、このコードだけでは判別できません。
aokikenichi

2020/11/03 07:27

features 自体を出力してみてください。単に学習時に0-9以外も教師として学習しているのではないですか。
guest

回答1

0

ベストアンサー

判定できない場合のfeaturesを出力した結果により、原因判明しました。

画像分類は、必ずしも==1が結果として出るとは限らず、「確からしさ」を出力します。
そのため、判定分類するコードの == 1を、> 0.9 くらいにするとよいでしょう。

参考: Kerasを使って画像分類を試してみる
途中のコードはどうでもよく、ページの一番下の分類結果を参照ください。このように、ぴったり1が出る場合もあれば、そうでない場合もあります。×100で、照合率%になっています。

投稿2020/11/04 13:27

toast-uz

総合スコア3266

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

OWATA0723hk

2020/11/06 00:42

初期のほうでは質問が曖昧になってしまい申し訳なかったです。 回答ありがとうございました!!
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.46%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問