Pytorchを利用して、あるデバイス(Google Colablatory)の GPU で学習したモデルを、別のデバイス(Jetson Nano)の GPU で動かすときに、Pytorch で何か必要な処理はありますでしょうか?
Google Colablatory の GPU で学習したモデルを保存 → Google Colablatory で読み出してプログラムを実行
は上手くいくのですが、
Google Colablatory の GPU で学習したモデルを保存 → Jetson Nano で読み出してプログラムを実行
がエラーで実行できません。
具体的には、以下のエラーが発生します。
RuntimeError: CUDA error: too many resources requested for launch (launch_kernel at /media/nvidia/WD_BLUE_2.5_1TB/pytorch/20200116/pytorch-v1.4.0/aten/src/ATen/native/cuda/Loops.cuh:103)
frame #0: c10::Error::Error(c10::SourceLocation, std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&) + 0x78 (0x7f80044258 in /home/jetson/.virtualenvs/py33d/lib/python3.6/site-packages/torch/lib/libc10.so)
あなたの回答
tips
プレビュー