#状況説明
題意をもう少し詳しく書きます。
OS: Ubuntu Server 16.04.1 LTS
GPU: GeForce GTX 1080 (2枚)
現在、 GeForce GTX 1080
を2つ積んだマシンがあり、GPU計算を行っております。
あるGPUを使った計算を実行し、 nvidia-smi
コマンドでGPUの使用状況を確認したところ、次のような結果を得ました。
+-----------------------------------------------------------------------------+ | NVIDIA-SMI 367.57 Driver Version: 367.57 | |-------------------------------+----------------------+----------------------+ | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | |===============================+======================+======================| | 0 GeForce GTX 1080 Off | 0000:02:00.0 Off | N/A | | 68% 82C P2 136W / 180W | 7499MiB / 8112MiB | 100% Default | +-------------------------------+----------------------+----------------------+ | 1 GeForce GTX 1080 Off | 0000:03:00.0 Off | N/A | | 33% 34C P8 6W / 180W | 2MiB / 8113MiB | 0% Default | +-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+ | Processes: GPU Memory | | GPU PID Type Process name Usage | |=============================================================================| | 0 7498 C hoge 7497MiB | +-----------------------------------------------------------------------------+
このときに、さらに 別のGPU計算を実行したところ、 GPU 0 のみを使用しており、GPU 1の方を使用しておりませんでした。
#やりたいこと
つまり、いまやりたいことは
2つのGPUを使った計算プログラムをそれぞれ GPU 0, GPU 1に上で独立して動かしたい。
すなわち、現在有るリソースをフル活用したいのです。
欲しい情報
- このプロセスをそれぞれのGPUに分ける方法が知りたい。
- または、手法が書いてあるドキュメント、ないしは情報が欲しいです。CUDAのリファレンスでも構いません。
よろしくお願いします。
※念のためですが、メモリ共有をしたい、という話ではありませんので、ご注意下さい。
あなたの回答
tips
プレビュー