実現したいこと
160GBほどのzipファイルをダウンロードして中身を見ようとしています。
一部だけでもいいのですが、ファイルの中身を確認する必要があります。
問題
普通に wget
やダウンロードボタンからダウンロードしようとすると、残り時間9時間と表示されて、残り時間も安定せず11時間とかになったりします。
Mac PCで、メモリもPCでは8GBしかないので、大きなファイルをダウンロードできるサービスや、一部だけダウンロードは可能なのでしょうか。
機械学習などで大きなサイズのファイルを扱う方はどのようにされているでしょうか。
試したこと
Linux screenコマンドで、PCを閉じている間も処理を走らせておける可能性があることや、高速にダウンロードできるコマンドがあることはわかりました。
参考記事:curlやwgetの数倍速い 爆速ダウンローダー aria2を使う
aria2では、[ERROR]で以下のように表示され、ダウンロード失敗しました。
$ aria2c -x5 URL cause: Result too large
回答3件
あなたの回答
tips
プレビュー