前提・実現したいこと
・cloud mlでkeras.flow_from_directoryを使って独自のデータセットを読み込み、トレーニングをしたいが
エラーが出てしまいます。正常に独自データセットを読み込むためにはどうすればよろしいでしょうか?
・独自データセットをcloud shell内に移動(データセット名は「data」)
cloud shellで以下のコードを実行してトレーニング実行
shell
1gcloud ml-engine jobs submit training $JOB_NAME \ 2 --stream-logs \ 3 --runtime-version 1.4 \ 4 --job-dir $OUTPUT_PATH \ 5 --package-path trainer \ 6 --module-name trainer.task \ 7 --region $REGION \ 8 --scale-tier BASIC_GPU
flow_from_directoryを使用して独自データセットを読み込むつもりでしたが
以下のエラーが発生して、トレーニングを開始することができません
発生している問題・エラーメッセージ
OSError: [Errno 2] No such file or directory: '/home/my_account/data/train
該当のソースコード
python
1train_datagen = ImageDataGenerator( 2 horizontal_flip=True) 3 4train_generator = train_datagen.flow_from_directory( 5 '/home/my_account/data/train', 6 target_size=(128, 128), 7 batch_size=128, 8 class_mode='categorical')
試したこと
dataフォルダをバケットへ移動してgs://バケットネームでも実行しましたが、同じエラーが出ました
備考
同じコードをPCローカル環境で実行したところ、正常にトレーニングを開始できました
※flow_from_directoryは/Users/my/Desktop/data/trainに指定
アドバイスのほう、よろしくお願い致します。
あなたの回答
tips
プレビュー