質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.58%

kerasを用いたCNNでのFailedPreconditionError

受付中

回答 1

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 1,707

kusaaaaaaaaa

score 15

 前提・実現したいこと

機械学習初心者でAdverdsrialExamplesの学習をしています。
次のgithubを参考にし、少し内容を変更したプログラムを作成しようとえております。
https://github.com/nobetan/dl_examples/blob/master/adversal_example/adversal_example_imagenet.ipynb
変更点は主にCNNモデルを変更し、自前のデータセットを学習させ、自前の画像でテストを行っている点になります。

以下のプログラムに対するエラーの原因がわからずに困っております。 
もしご存知の方いらしましたら、ご教授またはご指摘頂けると幸いです。

以下プログラム

 発生している問題・エラーメッセージ

FailedPreconditionError (see above for traceback): Attempting to use uninitialized value conv2d_1/bias
     [[{{node conv2d_1/bias/read}} = Identity[T=DT_FLOAT, _device="/job:localhost/replica:0/task:0/device:CPU:0"](conv2d_1/bias)]]



エラーが発生した箇所までのソースコードを張りますので、こちらを参照ください。↓
https://github.com/posimiya99/a/blob/master/error.ipynb

 試したこと

こちらに記載されているように変数の初期化等を試みたがうまくいかず同様のエラーが出てしまった。
http://mosapro.hatenablog.com/entry/2017/05/17/094606

 補足情報(FW/ツールのバージョンなど)

win10
python 3.6.6
tensorflow 1.11.0
jupyter

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • tiitoi

    2018/12/07 13:53 編集

    データを増やすぐらいしかないですね。たぶん100枚は少ないと思うので。
    とりあえず汎化性能が出るような学習ができないと、そのあとAdversasl Network を試したりどうこうっていうのは意味がないので。

    キャンセル

  • kusaaaaaaaaa

    2018/12/08 12:27

    回答ありがとうございます。こちら(https://qiita.com/halspring/items/7692504afcba97ece249)を参考にしてデータセットの水増しを行い、学習用の画像を2600枚から26000枚に増やしました。約10倍に増やして学習させたのですがやはり過学習が起こっているようでした。また、水増しする前に比べてもより精度が低下してしまいました。val_accが異様に低いのですが、何か原因は考えられるでしょうか?学習済みの画像に対する精度は高いのでデータセット自体には問題はないと思っています。それとも水増しではなく新たなデータセットが必要なのでしょうか?また、モデルを変えると精度は上昇するのでしょうか?何が原因であるかもし分かるようでしたら教えて頂きたいです。よろしくお願いします。水増ししたデータセットと学習したコードをこちらに載せさせて頂きます。→https://38.gigafile.nu/0107-1f8e3aa4a56e83edff87aa2dbe3783e8

    キャンセル

  • tiitoi

    2018/12/08 13:14 編集

    長くなったので、回答のほうに過学習の対策をいくつか書きました。どれをやったら確実に精度があがるか (それとも上がらないか) はやってみないとわかりません。その試行錯誤が機械学習に取り組むことになります。
    自分の経験からいうと、今回のケースはデータが少なすぎると思います。(あくまで予想です。)
    今回のデータは captcha の画像みたいですが、どうやって集められたのでしょうか?適当な背景にアルファベット文字を入れて機械的に作ったように見えるので、同じ要領でプログラムで作成できないのでしょうか?

    キャンセル

回答 1

0

コメント欄の続き

学習は損失関数を最小化するだけなので、基本的に枚数に関係なく収束させられます。
なので、「学習はできた (train acc は100%近くになった) のでデータセットは問題ない」という論理は成り立たないです。

過学習の対策としては

  1. モデルの構造、パラメータの数の見直し
  2. Batch Normalization、Dropout、正則化項導入
  3. 0から学習するのではなく、ImageNet の学習済みモデルで転移学習する。
  4. データが少ないので増やす
    などがあります。

今回、captcha のように複雑な背景にアルファベットの文字が1つある画像から、アルファベットを推定する26クラス分類問題ですよね。
似たような問題としては MNIST があります。
MNIST は 0 ~ 9 の手書き文字画像認識で背景は黒、クラス数も10なので今回の問題よりずっと簡単だと思いますが、学習データは6万枚あります。
それと比較して26クラスで2600枚というのは、MNIST よりずっと難しい問題を解こうとしているのに、少なすぎると感じます。

データオーグメンテーションはある程度 val acc が出ている場合にそれをさらに上げるのには効果がありますが、今回のように全くダメという場合にはそれでデータを増やすだけでは難しいと思います。

やはり、データをもっと増やすべきだと思います。
一般に captcha の画像は機械的に作っているものだと思うので、それで機械的にデータを作ることはできないのでしょうか?

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/12/11 21:08

    26クラスのデータセットを揃えるのには時間がかかる為、まず2クラスのみで試しました。
    枚数はA 約1000枚 B 1000枚とMNISTには及びませんが、最初の10倍揃えました。
    学習させてみたところ、val_accが0.96となり、過学習せず無事に学習しているようでした。

    そしてAdversarialExamplesを生成しようとB→Aに変形させたのですが、B100%→B0%、A0%→99%のように変形出来ているようでした。(noiselimit、step_size、grad_absmax等の変数を任意に変更し、成功したり成功しなかったりと良く分からない現象が起きた、同じコードなのに成功したりエラーが出る事もある、今回は成功?した例)
    しかし、やはり最後のpredict_single_imgを行った際に、noisy_imgが変形前の様にBが100%となってしまいました。
    以前記載していただいたimagenetで行う際のコードをアドバイス通り変更し、そこでpredict_single_img内のコードをいじったのですが、それが影響しているのでしょうか?
    生成したAdversarialExamplesの画像を保存し予測したのですが、やはりB100%となってしまいました。
    もし、原因がわかるようでしたら教えて頂きたいです。よろしくお願いします。

    今回の学習からAdversarialExamples生成までのコード等は以下です↓
    https://24.gigafile.nu/0110-54fbac7e4340dad520bb09fd61b00f73

    以前記載して頂いたimagenetによるAdversarialExamples生成のコードは以下です↓
    https://github.com/nobetan/dl_examples/blob/master/adversal_example/adversal_example_imagenet.ipynb

    比較するとわかりやすいかもしれません、よろしくお願いします。

    キャンセル

  • 2018/12/13 12:02

    何か少しでも分かる様な事がありましたら教えて頂きたいです。よろしくお願いします。

    キャンセル

  • 2018/12/13 12:22

    コメントは見たのですが、今 GPU 使える環境がないので週末とかに確認しようと思います。
    すいません。

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.58%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る