質問するログイン新規登録

Q&A

解決済

1回答

254閲覧

Docker+Stable Diffusionでコンテナ生成時にCUDAカーネルなしエラーが発生しました、解決方法を教えて下さい

magma189

総合スコア3

docker-compose

docker-composeとは、複数のコンテナで構成されるサービスを提供する手順を自動的し管理を簡単にするツール。composeファイルを使用しコマンド1回で設定した全サービスを作成・起動することが可能です。

Docker

Dockerは、Docker社が開発したオープンソースのコンテナー管理ソフトウェアの1つです

0グッド

0クリップ

投稿2025/12/01 00:56

0

0

実現したいこと

■目的・背景
Docker上にOpenWebUI+Ollama+Stable DiffusionのローカルAI環境を構築しようとしています
OpenWebUI+Ollamaは稼働確認できています
追加でStable Diffusionの導入でつまづいています、これを実現したいです

発生している問題・分からないこと

1、Docker Desktopを起動
2,Docker Hubタブにてdrakmail/automatic1111をイメージPull
3,Docker Desktopの下部ターミナル画面で以下コマンド入力(GPUドライバ、コンテナ名称を指定)
4,docker run --gpus all --name sd-webui-a1111 drakmail/automatic1111
5,別記エラーメッセージ発生
6,2をsimonmcnair/reforgeをイメージPullしたが5同様エラー発生
7,Dockerイメージ取得をGit経由でも試したがコンテナビルド時に5同様エラー発生

エラーメッセージ

error

1RuntimeError: CUDA error: no kernel image is available for execution on the device 2CUDA kernel errors might be asynchronously reported at some other API call, so the stacktrace below might be incorrect. 3For debugging consider passing CUDA_LAUNCH_BLOCKING=1. 4Compile with `TORCH_USE_CUDA_DSA` to enable device-side assertions.

該当のソースコード

特になし

試したこと・調べたこと

  • teratailやGoogle等で検索した
  • ソースコードを自分なりに変更した
  • 知人に聞いた
  • その他
上記の詳細・結果

1,エラーメッセージをGoogle検索
2,yamlファイル編集やenvファイル編集や、\venv\Scriptsフォルダでコマンド実施等の対策が見つかる
https://www.reddit.com/r/StableDiffusion/comments/1j3ix0m/runtimeerror_cuda_error_no_kernel_image_is/?tl=ja
https://github.com/oobabooga/text-generation-webui/issues/2002
https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q10313490440
https://stackoverflow.com/questions/79665616/cuda-error-no-kernel-image-is-available-for-execution-on-the-device
3,私はDocker環境の知識が浅いため2の場所や実施手順がわかりません

補足

■使用環境
・ホストOS:Windows 11 Pro 64bit 25H2 ビルド:26200.7171
・Docker Desktop:Docker Desktop 4.53.0
・ホストOSにインストール済:Python 3.13.7、Git、Pip、Git Bash、
・NVidiaグラフィックドライバのバージョン
nvidia-smi →Driver Version: 577.00 CUDA Version: 12.9
・CUDAのバージョン
nvcc -V →
Cuda compilation tools, release 12.8, V12.8.61
Build cuda_12.8.r12.8/compiler.35404655_0
・pytorchのバージョン
python
import torch
print(torch.version) →2.7.1+cu128
ホストOS(Windows)上ではStabilityMatrix経由でStable Diffusion reForge他が稼働できています

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

fiveHundred

2025/12/01 04:06

・NVidiaグラフィックドライバのバージョン ・CUDAのバージョン ・pytorchのバージョン 上記は全てdocker上のゲストOSでの内容ということですか? (少なくとも後者2つは、ホストOSのものについては関係ないようです)
fiveHundred

2025/12/01 04:20

というか、StabilityMatrix経由で起動できているのであれば、そちらを使えばいいと思いますが、「他の環境での動作を考えている」などといった理由があるのでしょうか?
magma189

2025/12/01 06:24

ご回答いただき有難うございます。 ・NVidiaグラフィックドライバのバージョン ・CUDAのバージョン ・pytorchのバージョン >上記は全てdocker上のゲストOSでの内容ということですか? >(少なくとも後者2つは、ホストOSのものについては関係ないようです) これらにつきましては、すべてホストOSのものです。 コンテナ環境(イメージ?)の上記値の確認方法がわからないもので。 教えて頂ければありがたく存じます。
magma189

2025/12/01 06:38

>というか、StabilityMatrix経由で起動できているのであれば、そちらを使えばいいと思いますが、「他の環境での動作を考えている」などといった理由があるのでしょうか? 質問が散らかりそうでしたので省略しました、今回の試行をさらに遡ると、 「Docker上のOpenWebUI+Ollama」→「Docker外のStable Diffusio reForge」をAPI連携 を試みたのですが、API接続先URLを以下4種類どれも無効だったため 「Docker上のStable Diffusion環境なら接続できるかも」という試案が現状です。 http://locaihost:xxxx/ http://127.0.0.1:xxxx/ http://host.docker.internal:xxxx/ http://192.168.xx.xx:xxxx/ また、「StabilityMatrixおよびStable Diffusion環境がいつか無効になるかも」の懸念から、 保険のために「Docker環境も作成できたら」、という考慮もあります。
fiveHundred

2025/12/01 08:42

> コンテナ環境(イメージ?)の上記値の確認方法 以下のページを参考にbashを起動して、そこから各コマンドを実行してください。 https://qwx.jp/docker-container-on-bash/ > StabilityMatrix経由 「--api」の設定が大前提ですが、設定していますよね?
magma189

2025/12/01 11:40

コンテナIDを取得してExec操作しようとしたら、今度は別の問題が発生しました。 drakmail/automatic1111で作成したコンテナですが、DockerDesktopで起動しても数秒で落ちます。 docker run --gpus all --name sd-webui-a1111 drakmail/automatic1111 でもすぐに落ちます。 これを落とさずに起動し続ける方法はないでしょうか。 > StabilityMatrix経由の「--api」の設定 こちらはwebui-user.batを以下に書き換えました。多分間違いはないと思いますが。。 set COMMANDLINE_ARGS=--api --listen --api-auth apiユーザ:apiパスワード
fiveHundred

2025/12/02 01:46

すみません、諸事情でしばらく触れないです。 分かる方がいればお願いします。
magma189

2025/12/02 02:21

fiveHundredさん お手数おかけしました。 頂いた「任意のDockerコンテナ上でbashを起動する」手順は非常に有用です。 コンテナが停止する問題分かる方がいれば宜しくお願い致します。
magma189

2025/12/02 03:35

コンテナが延命できそうなオプションを試しましたがngでした -d tail -f /dev/null ng -it /bin/bash ng sleep 3000 ng 以下コマンドで少し処理が前進しましたが、エラーが発生しました。ご存じの方おられますか。 docker run --gpus all --name sd-webui-a1111 -e GROUP_NAME=mygroup drakmail/automatic1111 Resolving servers.artimator.io (servers.artimator.io)... 104.21.24.60, 172.67.217.34, 2606:4700:3036::6815:183c, ... Connecting to servers.artimator.io (servers.artimator.io)|104.21.24.60|:443... connected. HTTP request sent, awaiting response... 403 Forbidden 2025-12-02 03:18:32 ERROR 403: Forbidden.
guest

回答1

0

自己解決

解決はしていませんが
課題が分散してしまいましたので、一旦クローズし、整理して質問し直します。
fiveHundred様 ならびにご心配頂いた方々
有難うございました。

投稿2025/12/05 02:55

magma189

総合スコア3

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.29%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問