前提・実現したいこと
Visual Studio 2019、C#でAlea GPUを利用してGPU処理をさせようとして、ネット上のサンプルプログラムを実行してみています。
CUDA、FSharp.Core等は導入済みで、GeForce GTX 1050です。
環境の問題かと思っておりますが、全く詳しくないので、何方かご教示いただけると幸いです。
発生している問題・エラーメッセージ
例外がスローされました: 'System.Exception' (Alea.dll の中)
型 'System.Exception' のハンドルされていない例外が Alea.dll で発生しました
methodBody is null
Source location stack:
-> in C:\Users\sphal\source\repos\CNN_Test\CNN_Test\CNNTest.cs(101,25-101,72)
-> at CNN_Test.CNNTest+<>c__DisplayClass3_0.[Void <MatrixProductGpu>b__0(Int32)]
-> at Alea.Parallel.Device.DeviceFor.[Void Kernel(Int32, Int32, System.Action1[System.Int32])] -> at defining runtime64 (sm61,64bit) Loading method as kernel: -> Method: Alea.Parallel.Device.DeviceFor.[Void Kernel(Int32, Int32, System.Action
1[System.Int32])]
-> InstanceOpt: <None>
-> Argument.#0: 0
-> Argument.#1: 100
-> Argument.#2: System.Action1[System.Int32] Getting or loading method as kernel: -> Method: Alea.Parallel.Device.DeviceFor.[Void Kernel(Int32, Int32, System.Action
1[System.Int32])]
-> InstanceOpt: <None>
-> Argument.#0: 0
-> Argument.#1: 100
-> Argument.#2: System.Action`1[System.Int32]
該当のソースコード
C#
1 2 var gpu = Gpu.Default; 3 4 gpu.For(0, matrixARows, i => 5 { 6 for (int j = 0; j < matrixBColumns; j++) 7 { 8 for (int k = 0; k < matrixAColumns; k++) 9 { 10 product[i, j] += matrixA[i, k] * matrixB[k, j]; 11 } 12 } 13 });
試したこと
プラットフォームをx64,x86にする、32ビットのチェックを外す
CUDAのverを9.2にしてみる
補足情報(FW/ツールのバージョンなど)
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。