前提・実現したいこと
Python & kerasでディープラーニングを行うモデルを作成・検証中です。
複数のモデルについて、学習データ数が少ない場合の学習の進み具合・最終的な精度を比較してみようと思っています。
そこで、mnist(またはfashion-mnist)で、「各ラベル100件 × 10種類の1000件」を抽出して学習データを作ろうと思っています。(各ラベルの件数は変えるかも知れません。)
が、なかなか良いやり方が思いつきません。
※頭から1000件やランダムに1000件抽出すると、ラベルごとの件数にバラつきが出て学習データとしてあまりよろしくないため、上記を実現したいと思っています。
自分でももっと試行錯誤してみようと思いますが、そもそもデータセットの扱い方がよくわかっておらず、どこから手を付けようかと困っています。
どなたかお知恵を貸して頂けると幸いです。
該当のソースコード
以下のようにインポート、ロードした後に何らかの方法で「各ラベル100件 × 10種類の1000件」(正しく紐付いたx_trainとy_train)を抽出したいです。
python
1from keras.datasets import mnist 2 3(x_train, y_train), (x_test, y_test) = mnist.load_data()
補足情報(FW/ツールのバージョンなど)
python 3.5.2
keras version2.1.2
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2018/03/16 15:38