Google Colaboratoryにおけるtopコマンドの出力がおかしいです。
Colaboratoryにて、実行したいノートブックとtopコマンドで確認する用のノートブックの2つを動かしました。上側の出力がtop、下側がnvidia-smiの出力結果です。
VIRTが巨大化しているにもかかわらず、%CPUや%MEMは低いままです。VIRTは仮想メモリの使用量という認識なのですが、このような出力は問題ですよね?
また、nvidia-smiに、何一つとしてプロセスが表示されないことも疑問です。
この場合だと、python3と表示されるのではないのでしょうか?
top
1=Hmtop - 05:37:36 up 49 min, 0 users, load average: 0.00, 0.01, 0.03 2Tasks: 10 mtotal, 1 mrunning, 9 msleeping, 0 mstopped, 0 mzombie 3%Cpu(s): 4.6 mus, 2.8 msy, 0.0 mni, 90.8 mid, 1.7 mwa, 0.0 mhi, 0.1 msi, 0.0 mst 4KiB Mem : 13335192 mtotal, 181996 mfree, 1706156 mused, 11447040 mbuff/cache 5KiB Swap: 0 mtotal, 0 mfree, 0 mused. 11043976 mavail Mem 6 7 PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 8m 1 root 20 0 39148 6448 5048 S 0.0 0.0 0:00.10 run.sh 9m 62 root 20 0 677836 42560 25432 S 0.0 0.3 0:00.92 node 10m 72 root 20 0 682736 53372 25980 S 0.0 0.4 0:02.33 node 11m 78 root 20 0 182144 56572 12348 S 0.0 0.4 0:03.63 jupyter-no+ 12m 86 root 20 0 38.453g 927520 444764 S 0.0 7.0 0:11.70 python3 13m 110 root 20 0 38.574g 994.8m 302728 S 0.0 7.6 0:45.80 python3 14m 769 root 20 0 127784 6528 4336 S 0.0 0.0 0:00.03 dirmngr 15m 1240 root 20 0 192396 36624 9812 S 0.0 0.3 0:00.45 google-dri+ 16m 1279 root 20 0 33960 4740 3636 S 0.0 0.0 0:00.98 sh 17 1280 root 20 0 65356 7028 5276 R 0.0 0.1 0:00.00 top
nvidia
1Sun Aug 12 05:37:21 2018 2+-----------------------------------------------------------------------------+ 3| NVIDIA-SMI 384.111 Driver Version: 384.111 | 4|-------------------------------+----------------------+----------------------+ 5| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | 6| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | 7|===============================+======================+======================| 8| 0 Tesla K80 Off | 00000000:00:04.0 Off | 0 | 9| N/A 46C P0 59W / 149W | 11214MiB / 11439MiB | 0% Default | 10+-------------------------------+----------------------+----------------------+ 11 12+-----------------------------------------------------------------------------+ 13| Processes: GPU Memory | 14| GPU PID Type Process name Usage | 15|=============================================================================| 16+-----------------------------------------------------------------------------+
VIRTの巨大化を防ごうと以下のコードを実行しましたが、何の変化も得られませんでした。メモリ使用量を抑えるにはどうしたらよろしいでしょうか?
python3
1import tensorflow as tf 2from tensorflow.python.keras import backend as K 3 4# GPU接続確認 5tf.test.gpu_device_name() 6 7# GPU初期化 8K.clear_session() 9 10# メモリ使用量を必要な分だけに制限する 11config = tf.ConfigProto(gpu_options=tf.GPUOptions(allow_growth=True)) 12session = tf.Session(config=config) 13K.set_session(session)
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
退会済みユーザー
2018/08/07 04:56