質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.49%
Google Colaboratory

Google Colaboratoryとは、無償のJupyterノートブック環境。教育や研究機関の機械学習の普及のためのGoogleの研究プロジェクトです。PythonやNumpyといった機械学習で要する大方の環境がすでに構築されており、コードの記述・実行、解析の保存・共有などが可能です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

3856閲覧

google colab の実行が止まってしまいます。^Cとは何でしょうか?

MARU

総合スコア3

Google Colaboratory

Google Colaboratoryとは、無償のJupyterノートブック環境。教育や研究機関の機械学習の普及のためのGoogleの研究プロジェクトです。PythonやNumpyといった機械学習で要する大方の環境がすでに構築されており、コードの記述・実行、解析の保存・共有などが可能です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2022/12/18 10:35

###質問の内容
stable diffusion 2.0が出たとのことで、実際にgoogle colabで動かしてみようと思ったのですが、^Cと表示され実行が止まってしまいます。以前stable diffusion 1.0を動かした際には問題なく使えいました。git hubのコードを確認したところ大きく変わったところは見当たらず容量の問題かと思い調べたところ解決するような記事がなかったため、詳しい皆様のお力をお借りしたいです。

実現したいこと

stable diffusion2.0の text2image、inpaintingを実装したい。

実行結果

Global seed set to 42 Loading model from /content/drive/MyDrive/ckpt_stab/sd-v1-4.ckpt Global Step: 470000 /usr/local/lib/python3.8/dist-packages/xformers/_C.so: undefined symbol: _ZNK3c104impl13OperatorEntry20reportSignatureErrorENS0_12CppSignatureE WARNING:root:WARNING: /usr/local/lib/python3.8/dist-packages/xformers/_C.so: undefined symbol: _ZNK3c104impl13OperatorEntry20reportSignatureErrorENS0_12CppSignatureE Need to compile C++ extensions to get sparse attention suport. Please run python setup.py build develop WARNING:root:A matching Triton is not available, some optimizations will not be enabled. Error caught was: module 'triton.language' has no attribute 'constexpr' /usr/local/lib/python3.8/dist-packages/pytorch_lightning/utilities/distributed.py:258: LightningDeprecationWarning: `pytorch_lightning.utilities.distributed.rank_zero_only` has been deprecated in v1.8.1 and will be removed in v1.10.0. You can import it from `pytorch_lightning.utilities` instead. rank_zero_deprecation( LatentDiffusion: Running in eps-prediction mode Setting up MemoryEfficientCrossAttention. Query dim is 320, context_dim is None and using 5 heads. Setting up MemoryEfficientCrossAttention. Query dim is 320, context_dim is 1024 and using 5 heads. Setting up MemoryEfficientCrossAttention. Query dim is 320, context_dim is None and using 5 heads. Setting up MemoryEfficientCrossAttention. Query dim is 320, context_dim is 1024 and using 5 heads. Setting up MemoryEfficientCrossAttention. Query dim is 640, context_dim is None and using 10 heads. Setting up MemoryEfficientCrossAttention. Query dim is 640, context_dim is 1024 and using 10 heads. Setting up MemoryEfficientCrossAttention. Query dim is 640, context_dim is None and using 10 heads. Setting up MemoryEfficientCrossAttention. Query dim is 640, context_dim is 1024 and using 10 heads. Setting up MemoryEfficientCrossAttention. Query dim is 1280, context_dim is None and using 20 heads. Setting up MemoryEfficientCrossAttention. Query dim is 1280, context_dim is 1024 and using 20 heads. Setting up MemoryEfficientCrossAttention. Query dim is 1280, context_dim is None and using 20 heads. Setting up MemoryEfficientCrossAttention. Query dim is 1280, context_dim is 1024 and using 20 heads. Setting up MemoryEfficientCrossAttention. Query dim is 1280, context_dim is None and using 20 heads. Setting up MemoryEfficientCrossAttention. Query dim is 1280, context_dim is 1024 and using 20 heads. Setting up MemoryEfficientCrossAttention. Query dim is 1280, context_dim is None and using 20 heads. Setting up MemoryEfficientCrossAttention. Query dim is 1280, context_dim is 1024 and using 20 heads. Setting up MemoryEfficientCrossAttention. Query dim is 1280, context_dim is None and using 20 heads. Setting up MemoryEfficientCrossAttention. Query dim is 1280, context_dim is 1024 and using 20 heads. Setting up MemoryEfficientCrossAttention. Query dim is 1280, context_dim is None and using 20 heads. Setting up MemoryEfficientCrossAttention. Query dim is 1280, context_dim is 1024 and using 20 heads. Setting up MemoryEfficientCrossAttention. Query dim is 640, context_dim is None and using 10 heads. Setting up MemoryEfficientCrossAttention. Query dim is 640, context_dim is 1024 and using 10 heads. Setting up MemoryEfficientCrossAttention. Query dim is 640, context_dim is None and using 10 heads. Setting up MemoryEfficientCrossAttention. Query dim is 640, context_dim is 1024 and using 10 heads. Setting up MemoryEfficientCrossAttention. Query dim is 640, context_dim is None and using 10 heads. Setting up MemoryEfficientCrossAttention. Query dim is 640, context_dim is 1024 and using 10 heads. Setting up MemoryEfficientCrossAttention. Query dim is 320, context_dim is None and using 5 heads. Setting up MemoryEfficientCrossAttention. Query dim is 320, context_dim is 1024 and using 5 heads. Setting up MemoryEfficientCrossAttention. Query dim is 320, context_dim is None and using 5 heads. Setting up MemoryEfficientCrossAttention. Query dim is 320, context_dim is 1024 and using 5 heads. Setting up MemoryEfficientCrossAttention. Query dim is 320, context_dim is None and using 5 heads. Setting up MemoryEfficientCrossAttention. Query dim is 320, context_dim is 1024 and using 5 heads. DiffusionWrapper has 865.91 M params. making attention of type 'vanilla-xformers' with 512 in_channels building MemoryEfficientAttnBlock with 512 in_channels... Working with z of shape (1, 4, 32, 32) = 4096 dimensions. making attention of type 'vanilla-xformers' with 512 in_channels building MemoryEfficientAttnBlock with 512 in_channels... ^C

該当のソースコード

Python

1ソースコード 2!python scripts/txt2img.py --prompt "illustration of a dog sitting in front of a big tree" --plms --ckpt /content/drive/MyDrive/ckpt_stab/sd-v1-4.ckpt --n_samples 1

試したこと

実行するPythonファイルの中身を確認した。
^Cという実行結果について調べたが記載されている物が見つからなかった。

補足情報(FW/ツールのバージョンなど)

ソースコードや実行結果も貼らさせていただきましたが、^Cで実行が終わる理由と原因を主に教えていただきたいです。よろしくお願いします。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

meg_

2022/12/18 11:31

第三者が検証可能な手順を提示いただけないでしょうか?また実行環境の詳細も教えてください。
MARU

2022/12/18 16:11

大変失礼いたしました。 !pip install albumentations==0.4.3 !pip install diffusers !pip install opencv-python==4.1.2.30 !pip install pudb==2019.2 !pip install imageio==2.9.0 !pip install imageio-ffmpeg==0.4.2 !pip install pytorch-lightning !pip install omegaconf==2.1.1 !pip install test-tube>=0.7.5 !pip install streamlit>=0.73.1 !pip install einops==0.3.0 !pip install torch-fidelity==0.3.0 !pip install transformers==4.19.2 !pip install kornia !pip install xformers !pip install triton !pip install -e git+https://github.com/CompVis/taming-transformers.git@master#egg=taming-transformers !pip install -e git+https://github.com/openai/CLIP.git@main#egg=clip !pip install invisible-watermark !git clone https://github.com/mlfoundations/open_clip #stable diffusion 2.0 !git clone https://github.com/Stability-AI/stablediffusion %cd stablediffusion !pip install -e . これらをインストールした上で、open_clipの中の src/open_clip をstablediffusionファイルの中に移動し、stablediffusion/scripts/text2img.pyを実行した結果このような表示になりました。古いバージョンとなる https://github.com/CompVis/stable-diffusion/tree/21f890f9da3cfbeaba8e2ac3c425ee9e998d5229  のモデルではこのコードで動作確認できていたのですが、今回の実行結果はエラーで止まるわけではなく中断され、この表示が私には初めてだったため質問させていただきました。また、ドライブのマウントとGPUで行っています。
MARU

2022/12/18 16:54

また、リソースを確認したところ、システムRAMの部分が実行の際に一気に跳ね上がり停止するのですが、そこが原因ということなのでしょうか。
guest

回答1

0

ベストアンサー

メモリ不足の可能性が高そうです。

参考:Stable Diffusion 2.0のローカルインストール方法と1.5との比較
上記記事によるとGPU 40GB程度が必要なようです。

私の方で検証はしていませんが、記事作成者の方が無料版Colabでも実行できるNotebookを公開してくれているらしいので試すと良いかもしれません。
話題の画像生成AIなら愛犬の銅像を無料で描いて貰う事が可能

投稿2022/12/19 13:25

meg_

総合スコア10579

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

MARU

2022/12/20 07:55

本当にありがとうございました。ほかのやり方で試してみます。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.49%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問