質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.98%

  • Python

    5573questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

  • NumPy

    320questions

    NumPyはPythonのプログラミング言語の科学的と数学的なコンピューティングに関する拡張モジュールです。

テストデータの3割を使うようにしたい

解決済

回答 1

投稿

  • 評価
  • クリップ 1
  • VIEW 200
退会済みユーザー

退会済みユーザー

テストデータの3割を使うようにしたいです。
現在、犬の鳴き声と猫の鳴き声を分類するシステムを作っています。

# coding:utf-8
from sklearn import svm, cross_validation
from sklearn.metrics import classification_report, accuracy_score
import sys
from mfcc import *
import glob
import csv
import random
import numpy as np
import os
from sklearn.model_selection import train_test_split

if __name__ == "__main__":
        train_label = np.array([])
        test_label = np.array([])

        nfft = 2048  # FFTのサンプル数
        nceps = 12  # MFCCの次元数
        train_data = np.empty((0, 12), float)
        test_data = np.empty((0, 12), float)

        basedir = '/sound_animal/sounds'
        files = glob.glob(os.path.join(basedir, '*.wav'))
        for file_name in files:
                feature = get_feature(file_name, nfft, nceps)
                if len(train_data) == 0:
                    train_data = feature
                else:
                    train_data = np.vstack((train_data, feature))
                train_label = np.append(train_label,file_name)

                pattern = r"dog"
                file = os.path.basename(file_name)
                match = re.match(pattern, file)
                if match:
                    train_label = np.append(train_label, 0)
                else:
                    train_label = np.append(train_label, 1)


                if len(test_data) == 0:
                    test_data = feature
                else:
                    test_data = np.vstack((test_data, feature))

                if match:
                   test_label = np.append(test_label,0)
                else:
                   test_label = np.append(test_label,1)

        feature_train_data = np.hstack((train_label.reshape(len(train_label), 1), train_data))
        feature_test_data = np.hstack((test_label.reshape(len(test_label), 1), test_data))

        with open("feature_data/train_data.txt", "w") as f:
           writer = csv.writer(f)
           writer.writerows(feature_train_data)
        with open("feature_data/test_data.txt", "w") as f:
           writer = csv.writer(f)
           writer.writerows(feature_train_data)

        clf = svm.SVC(kernel='linear', C=1).fit(train_data, train_label)
        score = clf.score(test_data, test_label)

        print(score)


とコードを書きました。今/sound_animal/soundsの中には犬の音声と猫の音声の2種類があります。犬の音声はdog0.wav・dog1.wav・・・などdogで始まるもので、猫の音声はcat0.wav・cat1.wav・・・で始まります。

pattern = r"dog"
file = os.path.basename(file_name)
match = re.match(pattern, file)
if match:
   train_label = np.append(train_label, 0)
else:
   train_label = np.append(train_label, 1)


と書いたところなどで犬の鳴き声の音声(dog.wav)で始まるものにはラベル0を、その他のものにはラベル1をつけています。
しかし

clf = svm.SVC(kernel='linear', C=1).fit(train_data, train_label)
score = clf.score(test_data, test_label)


の部分で、今全ての学習データを学習させ、全てのテストデータでテストしてしまっています。
私は学習ラベルを付与されたデータの7割を使って学習させ、テストラベルを付与されたデータの3割を使ってテストさせたいと考えています。ただ、今回上記のif文で学習データとテストデータを分けてしまっているのでどのようにそのデータをさらに7割や3割に分割して分ければいいのかわかりません。どのようにコードを書けば良いのでしょうか?

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

checkベストアンサー

0

from sklearn.model_selection import train_test_split

があるので、これを使えばよいと思います。

X_train, X_test, y_train, y_test = train_test_split(train_data, train_label, test_size=0.33, random_state=0, stratify=train_label)

キーの意味を知りたければ、以下を参考に。
http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.train_test_split.html


追記:
コメントの内容を全部まとめてコードを書き直すと、以下の通り。
走らせる環境がないので、タイプミス・インデントミスがあるかもしれません。あしからず。

# coding:utf-8
from sklearn import svm, cross_validation
from sklearn.metrics import classification_report, accuracy_score
import sys
from mfcc import *
import glob
import csv
import random
import numpy as np
import os
from sklearn.model_selection import train_test_split

def get_data(files, nfft, nceps):
    data = None
    label = np.array([])
    for file_name in files:
        feature = get_feature(file_name, nfft, nceps)
        if data is None:
            data = feature
        else:
            data = np.vstack((data, feature))

        if file_name.split('/')[-1].startswith('dog'):
            label = np.append(label, 0)
        else:
            label = np.append(label, 1)
    return data, label

if __name__ == "__main__":
    nfft = 2048  # FFTのサンプル数
    nceps = 12  # MFCCの次元数

    basedir = '/sound_animal/sounds'
    files = glob.glob(os.path.join(basedir, '*.wav'))
    data, label = get_data(files, nfft, nceps)

    train_data, test_data, train_label, test_label = train_test_split(data, label, test_size=0.33, random_state=0, stratify=label)

    feature_train_data = np.hstack((train_label.reshape(-1, 1), train_data))
    feature_test_data = np.hstack((test_label.reshape(-1, 1), test_data))

    with open("feature_data/train_data.txt", "w") as f:
        writer = csv.writer(f)
        writer.writerows(feature_train_data)
    with open("feature_data/test_data.txt", "w") as f:
        writer = csv.writer(f)
        writer.writerows(feature_test_data)

    clf = svm.SVC(kernel='linear', C=1)
    clf.fit(train_data, train_label)
    score = clf.score(test_data, test_label)

    print(score)

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2017/11/13 23:43

    ありがとうございます。上記のコードは、
    feature_train_data = np.hstack((train_label.reshape(len(train_label), 1), train_data))
    feature_test_data = np.hstack((test_label.reshape(len(test_label), 1), test_data))
    の上に書けば良いでしょうか?それとも、clf = svm.SVC(kernel='linear', C=1).fit(train_data, train_label)の上に書けば良いでしょうか?

    キャンセル

  • 2017/11/13 23:51

    feature_***_dataはファイルに出力用にあるように見えるので、今のコードの学習には影響しません。
    ですので、train_data/train_label生成後で、かつsvm.SVC.fitの前であればどこでもかまわないはずです。
    clf = svm.SVC(kernel='linear', C=1).fit(train_data, train_label)
    を、
    clf = svm.SVC(kernel='linear', C=1).fit(X_train, y_train)
    になおすのを忘れずに。

    キャンセル

  • 2017/11/14 00:45

    上のコメントはとりあえず動けばいいのであれば、間違っていません。

    少し体裁を整えるのであれば、正しくは、
    train_data, test_data, train_label, test_label = train_test_split(train_data, train_label, test_size=0.33, random_state=0, stratify=train_label)

    feature_train_data = np.hstack(...)
    の前に挿入します。
    そうすれば学習とcsvファイルの整合性がとれます。
    .fit(...)と.score(...)の中身もそのままで正しくなります。

    更に気になるのであれば、データ生成のところで、train_data/train_label/test_data/test_labelをdata/labelなどの別の名前で書いたほうがよいでしょう。
    でないと前半のtrain_dataの意味と後半の意味が変更されることになるので、今後このコードを修正・転用する際に勘違いがおきやすくなり、酷い目に遭う確率が上がります。

    キャンセル

  • 2017/11/14 16:36

    くわしい解説をありがとうございます。
    データ生成のところで、train_data/train_label/test_data/test_labelをdata/labelなどの別の名前で書いたほうがよいでしょう。
    でないと前半のtrain_dataの意味と後半の意味が変更されることになるので
    =>とありますが、なぜ前半と後半の意味が変更されることになるのでしょうか?3割に分けているという点で前半はデータの全部だけど後半はデータのランダムな3割ということでしょうか?

    キャンセル

  • 2017/11/14 16:51

    そのように考えることができます。
    例えばループ文を一番外側に追加して、中で教師・テストデータの分割の仕方をかえてみたくなることがあります。(正しいクロスバリデーションのやり方ですね。)
    注意しないとsplitするたびにデータが減っていくバグに遭遇する可能性が出てきます。

    もしくは、機械学習界隈だとjupyter notebookを使用することが多いのですが、データを学習後に続けて処理を行ったりすることがあります。
    その時も、元データの変数を再定義してしまうと元のデータを復元するために手間がかかります。

    モデルを作る際には全データ、教師に使用したデータ、それとテストデータを区別するのが一番心安らぐわけです。

    train_test_splitは手軽ですが、ちょっと凝ったことをやりたくなるとKFoldなどを直接使用します。
    ここでは、教師に使用するデータ自身ではなく、教師に使用するデータのインデックスが返り値になります。
    http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.KFold.html
    インデックスを使用することで特徴量が膨大な行列Xを複製しなくて済む利点があります。

    今回のケースでは、もとのコードにtrain_test_splitがインポートしてあったので、それを利用しました。

    キャンセル

  • 2017/11/14 16:57

    ありがとうございます!!

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.98%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る

  • Python

    5573questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

  • NumPy

    320questions

    NumPyはPythonのプログラミング言語の科学的と数学的なコンピューティングに関する拡張モジュールです。