前提・実現したいこと
学習済みモデルの推論時に任意の一枚の画像を入力したときに各層の中間出力の値を可視化したい
例えばImageNetを学習した10層で構成されたモデルに任意のRGB画像を入力して推論中の各層の出力を
Layer1 : 1.1015 1.1187 1.1358 1.0844 ...
Layer2 : 1.3315 0.8887 5.5558 9.8849 ...
Layer3 : ...
...
といったように可視化したい。
試したこと
今のところ単一の画像を読み込んで推論させるところまでは出来ている。
Python
1img = Image.open('/content/drive/My Drive/mytest/imagenette-320/val/n03888257/ILSVRC2012_val_00047778.JPEG') 2inputs = transform(img) 3inputs = inputs.unsqueeze(0).to(device) 4 5model.eval() 6output = model(inputs) 7pred = output.argmax(dim=1, keepdim=True) 8print(pred[0].item())
出力(推論されたラベル)
9
実際このようなことが可能なのか不可能なのかもわからないです。
どなたかご回答いただけると幸いです。すみませんがよろしくお願いいたします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。