質問するログイン新規登録

意見交換

2回答

279閲覧

python で機械学習をする際、GPUを使用しているはずなのに実行速度が遅い原因を探りたい

stella-ciel

総合スコア0

CUDA

CUDAは並列計算プラットフォームであり、Nvidia GPU(Graphics Processing Units)向けのプログラミングモデルです。CUDAは様々なプログラミング言語、ライブラリ、APIを通してNvidiaにインターフェイスを提供します。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

GPU

GPUは、コンピューターの内部にある画像処理装置。画像の描写に必要な計算処理を高速に行う電子回路で、並列処理能力に優れています。また、ビックデータを高速で大量計算する処理にも優れており、スーパーコンピューターにも搭載されています。

0グッド

1クリップ

投稿2025/12/10 11:25

0

1

テーマ、知りたいこと

python環境におけるnvidiaのCPUを用いた環境についてお聞きしたいです。

背景、状況

プログラミングを始めてから機械学習に関するプログラミングを学び、処理速度を向上したいと考えました。購入したnvidiaのGPU(GeFrorce RTX 5060)をつなげてみようと試してみたのですが、がgoogle colablatoryのGPU(T4)での実行よりも遅いため何か設定に不足していることがあるのではないかと思い投稿させていただきました。
ターミナルでtorchをインストールして、print(torch.cuda.is_available()) を実行したら、
Trueと出力が確認できるところまではできました。
自作PCでの実行にはなりますが、グラフィックに明かりがついているのと、タスクマネージャーのパフォーマンスで温度が使用率が変化しているので接続はできているかと思います。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

回答2

#1

katsuko

総合スコア3638

投稿2025/12/10 22:31

5060ですか?5060tiではなくて。
5060だと、VRAMが8Gしかないそうですが、そのせいではないですか。
Google ColabのT4だと、VRAMが16Gらしいから、やる内容によるとは思いますが、それなりに差はあるんじゃないですか。

#2

stella-ciel

総合スコア0

投稿2025/12/14 09:57

回答ありがとうございます。
深層学習をするにあたって、市販のグラフィックボードを購入する場合、VRAMは16GB以上で5060Ti以上の購入を検討した方がよろしいでしょうか。
今現在やっている内容は、torchやtensorflowを使用した画素数ごとバッチ処理による画像生成(大学では使用制限のあるgoogle colab latoryのT4で学習)と大規模言語モデルのLLMを使用したテキスト生成(大規模言語モデル入門という書籍からプログラムを模写して実行して動作確認)をしています。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

この意見交換はまだ受付中です。

会員登録して回答してみよう

アカウントをお持ちの方は

関連した質問