質問するログイン新規登録

意見交換

クローズ

4回答

798閲覧

python で機械学習をする際、GPUを使用しているはずなのに実行速度が遅い原因を探りたい

stella-ciel

総合スコア0

CUDA

CUDAは並列計算プラットフォームであり、Nvidia GPU(Graphics Processing Units)向けのプログラミングモデルです。CUDAは様々なプログラミング言語、ライブラリ、APIを通してNvidiaにインターフェイスを提供します。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

GPU

GPUは、コンピューターの内部にある画像処理装置。画像の描写に必要な計算処理を高速に行う電子回路で、並列処理能力に優れています。また、ビックデータを高速で大量計算する処理にも優れており、スーパーコンピューターにも搭載されています。

0グッド

1クリップ

投稿2025/12/10 11:25

0

1

テーマ、知りたいこと

python環境におけるnvidiaのCPUを用いた環境についてお聞きしたいです。

背景、状況

プログラミングを始めてから機械学習に関するプログラミングを学び、処理速度を向上したいと考えました。購入したnvidiaのGPU(GeFrorce RTX 5060)をつなげてみようと試してみたのですが、がgoogle colablatoryのGPU(T4)での実行よりも遅いため何か設定に不足していることがあるのではないかと思い投稿させていただきました。
ターミナルでtorchをインストールして、print(torch.cuda.is_available()) を実行したら、
Trueと出力が確認できるところまではできました。
自作PCでの実行にはなりますが、グラフィックに明かりがついているのと、タスクマネージャーのパフォーマンスで温度が使用率が変化しているので接続はできているかと思います。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

回答4

#1

katsuko

総合スコア3640

投稿2025/12/10 22:31

5060ですか?5060tiではなくて。
5060だと、VRAMが8Gしかないそうですが、そのせいではないですか。
Google ColabのT4だと、VRAMが16Gらしいから、やる内容によるとは思いますが、それなりに差はあるんじゃないですか。

#2

stella-ciel

総合スコア0

投稿2025/12/14 09:57

回答ありがとうございます。
深層学習をするにあたって、市販のグラフィックボードを購入する場合、VRAMは16GB以上で5060Ti以上の購入を検討した方がよろしいでしょうか。
今現在やっている内容は、torchやtensorflowを使用した画素数ごとバッチ処理による画像生成(大学では使用制限のあるgoogle colab latoryのT4で学習)と大規模言語モデルのLLMを使用したテキスト生成(大規模言語モデル入門という書籍からプログラムを模写して実行して動作確認)をしています。

#3

katsuko

総合スコア3640

投稿2025/12/15 22:49

編集2025/12/15 22:59

#2

自分はStableDiffusionを触った程度で、AIは詳しくはないので、明言は避けておきますが…。

そのStableDiffusionを、Geforce1660ti(VRAM 8GB 6GB)とGeforce3060(12GB)とRadeon9060xt(16GB)で実行しましたが、1660で数分かかった処理が、他のグラボだと数十秒程度で終わる、といった感じでした。
まぁ世代も違うし、動かした環境も違うのであまりあてにはならないかもしれませんが、あまりに違いが出ているので、やっぱり8GBとそれ以上で差はあるのかなぁ、とは思っています。

ただ、ネットで調べると、やることによっては8GBでも十分、という話もあるそうです。
画像作成であれば、12GB以上は欲しい、という話も多いようです。

(てか、これ書くために仕様を確認したけど、3060ってVRAMが12GBだったのか。今までずっと16GBだと思いこんでいた)
(なんか調べ直したら、1660tiも8GBだと思っていたら、6GBだった)

#4

fiveHundred

総合スコア10535

投稿2025/12/16 02:58

横やりで失礼しますが、用途次第でVRAMの必要量が大きく変わるので、ちゃんと用途を決めてから買ったほうがいいです。

私はRTX 4060Ti 16GBですが、GPU自体が遅いのを抜きにしても

  • Qwen-Image-Edit-2509でも通常版では普通に16GBオーバーする
  • LLMだとGGUF版で14Bぐらいでないと16GBに収まらない。量子化済みなので通常版だとさらに使う。高性能モデルはまず使えない
  • 動画生成AIは低性能版が動けばラッキー、というレベル

とVRAMが収まらない事態が結構あります。

だからといって、それを超えるVRAMをもったGPUとなると、たぶん業務用になり高いので、クラウドサービスを利用する、場合によってはあきらめる、など色々考慮したほうがいいです。

逆に、VRAMを大して必要ないAI(生成系でないAIや古めのAIなど)も多いですし、何をどこまでやりたいかを明確にするのが先決だと思います。

最新の回答から1ヶ月経過したため この意見交換はクローズされました

意見をやりとりしたい話題がある場合は質問してみましょう!

質問する

関連した質問