質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
CUDA

CUDAは並列計算プラットフォームであり、Nvidia GPU(Graphics Processing Units)向けのプログラミングモデルです。CUDAは様々なプログラミング言語、ライブラリ、APIを通してNvidiaにインターフェイスを提供します。

WSL(Windows Subsystem for Linux)

WSL (Windows Subsystem for Linux) は、Windows10のOS上でLinux向けのバイナリプログラムを実行可能にする機能です。また、WindowsOSのAPIを用いた仕組みを提供しており、Linux側からWindowsOSへのファイルアクセスもできます。

PyTorch

PyTorchは、オープンソースのPython向けの機械学習ライブラリ。Facebookの人工知能研究グループが開発を主導しています。強力なGPUサポートを備えたテンソル計算、テープベースの自動微分による柔軟なニューラルネットワークの記述が可能です。

Kaggle

Kaggleは、機械学習モデルを構築するコンペティションのプラットフォームおよびその運営企業を指します。企業や政府といった組織とデータサイエンティスト・機械学習エンジニアを繋げるプラットフォームであり、単純なマッチングではなくコンペティションが特徴です。

Docker

Dockerは、Docker社が開発したオープンソースのコンテナー管理ソフトウェアの1つです

Q&A

0回答

2417閲覧

WSL2上でビルドしたkaggle/docker-pythonが、pytorch上でGPUを認識しない

reppeppepper

総合スコア4

CUDA

CUDAは並列計算プラットフォームであり、Nvidia GPU(Graphics Processing Units)向けのプログラミングモデルです。CUDAは様々なプログラミング言語、ライブラリ、APIを通してNvidiaにインターフェイスを提供します。

WSL(Windows Subsystem for Linux)

WSL (Windows Subsystem for Linux) は、Windows10のOS上でLinux向けのバイナリプログラムを実行可能にする機能です。また、WindowsOSのAPIを用いた仕組みを提供しており、Linux側からWindowsOSへのファイルアクセスもできます。

PyTorch

PyTorchは、オープンソースのPython向けの機械学習ライブラリ。Facebookの人工知能研究グループが開発を主導しています。強力なGPUサポートを備えたテンソル計算、テープベースの自動微分による柔軟なニューラルネットワークの記述が可能です。

Kaggle

Kaggleは、機械学習モデルを構築するコンペティションのプラットフォームおよびその運営企業を指します。企業や政府といった組織とデータサイエンティスト・機械学習エンジニアを繋げるプラットフォームであり、単純なマッチングではなくコンペティションが特徴です。

Docker

Dockerは、Docker社が開発したオープンソースのコンテナー管理ソフトウェアの1つです

0グッド

0クリップ

投稿2021/10/23 08:14

前提・実現したいこと

Windows 11 WSL2上にてKaggle配布のDocker Imageで構築した環境においてPyTorch・TensorflowがGPUを認識しません。
CUDA等は認識しているはずなのですが、原因を解消してGPUを使えるようにしたいです。

実行環境

Windows 11 Home Insider Preview Build 22478
WSL2 カーネル バージョン: 5.10.60.1
Ubuntu 20.04.3 LTS
Docker: Docker Engine - Community Version 20.10.9

https://github.com/Kaggle/docker-python をgit cloneし、WSL上で ./build --gpuを実行してimageを構築

発生している問題・エラーメッセージ

Docker Runコマンド

bash

1XXX@DESKTOP-0THGIM7:~$ docker run --mount type=bind,src=/root/work,target=/root/work --gpus all -it kaggle/python-gpu-build /bin/bash 2# Github readme.mdにはのRUNコマンドには--runtime=nvidia をオプションに指定せよとあるが、下記のエラーが発生するため --gpus allに変更している 3# docker: Error response from daemon: Unknown runtime specified nvidia.

Docker内 NVIDIA-SMI実行結果, CUDAのバージョン

bash

1root@1862737e9274:/# nvidia-smi 2Sat Oct 23 07:41:46 2021 3+-----------------------------------------------------------------------------+ 4| NVIDIA-SMI 510.00 Driver Version: 510.06 CUDA Version: 11.0 | 5|-------------------------------+----------------------+----------------------+ 6| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | 7| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | 8| | | MIG M. | 9|===============================+======================+======================| 10| 0 NVIDIA GeForce ... On | 00000000:01:00.0 On | N/A | 11| N/A 47C P8 6W / N/A | 638MiB / 6144MiB | N/A Default | 12| | | N/A | 13+-------------------------------+----------------------+----------------------+ 14 15+-----------------------------------------------------------------------------+ 16| Processes: | 17| GPU GI CI PID Type Process name GPU Memory | 18| ID ID Usage | 19|=============================================================================| 20| No running processes found | 21+-----------------------------------------------------------------------------+ 22

PyTorchのバージョン、実行結果

bash

1root@1862737e9274:/# python 2Python 3.7.10 | packaged by conda-forge | (default, Sep 13 2021, 19:43:44) 3[GCC 9.4.0] on linux 4Type "help", "copyright", "credits" or "license" for more information. 5>>> import torch 6>>> print(torch.__version__) 71.9.1 8>>> print(torch.cuda.is_available()) 9False 10# 実行結果がFALSEとなり、CUDAを認識していない

tensorflow 実行結果

python

1>>> from tensorflow.python.client import device_lib 2>>> device_lib.list_local_devices() 32021-10-23 07:47:37.338379: I tensorflow/core/platform/cpu_feature_guard.cc:142] This TensorFlow binary is optimized with oneAPI Deep Neural Network Library (oneDNN) to use the following CPU instructions in performance-critical operations: AVX2 FMA 4To enable them in other operations, rebuild TensorFlow with the appropriate compiler flags. 52021-10-23 07:47:37.398462: E tensorflow/stream_executor/cuda/cuda_driver.cc:271] failed call to cuInit: CUDA_ERROR_NO_DEVICE: no CUDA-capable device is detected 62021-10-23 07:47:37.398522: I tensorflow/stream_executor/cuda/cuda_diagnostics.cc:156] kernel driver does not appear to be running on this host (1862737e9274): /proc/driver/nvidia/version does not exist 7[name: "/device:CPU:0" 8device_type: "CPU" 9memory_limit: 268435456 10locality { 11} 12incarnation: 4884049086330557377 13] 14# device_type CPUのみであり、GPUを認識していない

補足情報

おそらくCUDA Toolkitのバージョンが古いことが原因と想定しているのですが、docker構築済の環境下における再インストールの方法が分からず、実行しておりません。もしこちらが原因とのことでしたら、適切なバージョンと再インストールの方法についてご教示いただきたく思います。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだ回答がついていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問