大量の画像9万~100万をcpで下記のようにawsのs3とマウントしたディレクトリからtest_1.csvの中の画像(パス)を特定のディレクトリに移動しようとするとエラーになります
bash
1for i in $(cat test_1.csv); do cp $i ./test_img/brand_1/$i.jpg;done 2 3-bash: /bin/cp: Argument list too long
linuxでこの量の画像を特定のディレクトリに移動させる方法はないでしょうか?
**備考
これは質問のついでなので、知っていたらお願いします。
jupyter上でopencvとかでAWSのs3とマウントしたディレクトリから読み込みtfrecordに保存したいのですが、量が多すぎるので、まず早く読み込むためには、保存したい画像を特定のディレクトリにコピーしてから読み込む方法しか思いつきませんでした。
s3とマウントした大量の画像を時間をかけずに読み込むには、このような方法しかないのでしょうか?
何か参考になるものがありましたら、教えていただけないでしょうか?

回答4件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2018/06/19 12:13