質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.50%
Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

0回答

2554閲覧

3D-Resnetに対してGradcamを適用したい

tikuwadayo

総合スコア1

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2021/08/18 03:22

前提・実現したいこと

三次元の入力を想定している三次元Resnetのネットワークに対してGradcamを実装したく考えております。
三次元用のGradcamに関しては、参考にしているコードが存在し、

https://github.com/fitushar/3D-GuidedGradCAM-for-Medical-Imaging

こちらのコードをそのまま使用させていただいています。

自身の環境下での画像の入力サイズが異なるために元のコードをいくつか変えなくてはいけないと思うのですが、うまくいかずエラーが解決できないといったような状況となります。

どなたか助けていただけないでしょうか、、、

発生している問題・エラーメッセージ

自身のネットワークで作成した重みを設定し、自身のネットワークの入力サイズに変更してコードを実行しているのですが、Graadcamの過程で元々の想定入力サイズとずれていることが原因なのか、次元が違うといったようなエラー分が表示されてしまいます。

ValueError: Dimensions must be equal, but are 11 and 10 for '{{node AddV2}} = AddV2[T=DT_FLOAT, _cloned=true](inputs, inputs_1)' with input shapes: [1,11,256,256,32], [1,10,256,256,32].

該当のソースコード

自身が作った3DResNetのコード
このネットワークで生成した重みを上記のGradcamコードに入力としている
入力画像は512×512×64であり、128×128×64にリサイズしたのちに下記ネットワークに入力している

def get_model(width=128, height=128, depth=64): """Build a 3D convolutional neural network model.""" inputs = keras.Input((width, height, depth, 1)) x = layers.Conv3D(filters=64, kernel_size=3, activation="relu")(inputs) x = layers.MaxPool3D(pool_size=2)(x) x = layers.BatchNormalization()(x) x = layers.Conv3D(filters=64, kernel_size=3, activation="relu")(x) x = layers.MaxPool3D(pool_size=2)(x) x = layers.BatchNormalization()(x) x = layers.Conv3D(filters=128, kernel_size=3, activation="relu")(x) x = layers.MaxPool3D(pool_size=2)(x) x = layers.BatchNormalization()(x) x = layers.Conv3D(filters=256, kernel_size=3, activation="relu")(x) x = layers.MaxPool3D(pool_size=2)(x) x = layers.BatchNormalization()(x) x = layers.GlobalAveragePooling3D()(x) x = layers.Dense(units=512, activation="relu")(x) x = layers.Dropout(0.3)(x) outputs = layers.Dense(units=1, activation="sigmoid")(x) # Define the model. model = keras.Model(inputs, outputs, name="3dcnn") return model # Build model. model = get_model(width=128, height=128, depth=64) model.summary()'

参考にしているGradcamコード guided_Gradcam3.py

## Import Libararies from __future__ import absolute_import, division, print_function, unicode_literals import tensorflow as tf import os import datetime import numpy as np import pandas as pd import SimpleITK as sitk import math #import cv2 from deploy_config import* from loss_funnction_And_matrics import* from Resnet_3D import Resnet3D #from tensorflow.keras.optimizers import Adam from matplotlib import pyplot as plt from skimage.transform import resize from Guided_GradCAM_3D_config import* # Function to get the image chunk fot guided GradCAM def Get_image_array_Array_and_give_chunk(image_array,patch_slice_slice): Devide_integer=image_array.shape[0] // patch_slice_slice Reminder= image_array.shape[0] % patch_slice_slice print('CT Volume_Shape={}'.format(image_array.shape)) print('Devide_integer={}'.format(Devide_integer)) print('Reminder={}'.format(Reminder)) print('Total of {} + {} ={} Should ={}'.format(patch_slice_slice*Devide_integer,Reminder,patch_slice_slice*Devide_integer+Reminder,image_array.shape[0])) lastpatch_starts_from= (image_array.shape[0])-patch_slice_slice print(lastpatch_starts_from) patch_list=[] patch_start=0 patch_end=patch_slice_slice for i in range(Devide_integer): #print(patch_start) #print(patch_end) ct_volume=image_array[patch_start:patch_end,:,:] #print(ct_volume.shape) patch_list.append(ct_volume) patch_start+=patch_slice_slice patch_end+=patch_slice_slice last_slice_number_would_be=image_array.shape[0] print(last_slice_number_would_be) last_patch_When_making_nifty=(patch_slice_slice)-Reminder print(last_patch_When_making_nifty) Slice_will_start_from_here=last_slice_number_would_be-patch_slice_slice print(Slice_will_start_from_here) last_patch=image_array[Slice_will_start_from_here:,:,:] last_patch.shape patch_list.append(last_patch) return patch_list,last_patch_When_making_nifty def Get_Build_model(Input_patch_size,Model_weight,Layer_name): inputs = tf.keras.Input(shape=Input_patch_size, name='CT') #Model_3D=Resnet3D(inputs,num_classes=NUMBER_OF_CLASSES) Model_3D=Resnet3D(width=128, height=128,depth=64) Model_3D.load_weights(Model_weight) #print('Loading The Model from this path--{}'.format(MODEL_PATH)) Model_3D.summary() Build_model=tf.keras.models.Model([Model_3D.inputs], [Model_3D.get_layer(Layer_name).output, Model_3D.output]) return Build_model def Guided_GradCAM_3D(Grad_model,ct_io,Class_index): # Create a graph that outputs target convolution and output grad_model = Grad_model input_ct_io=tf.expand_dims(ct_io, axis=-1) input_ct_io=tf.expand_dims(input_ct_io, axis=0) with tf.GradientTape() as tape: conv_outputs, predictions = grad_model(input_ct_io) loss = predictions[:, Class_index] # Extract filters and gradients output = conv_outputs[0] grads = tape.gradient(loss, conv_outputs)[0] ##--Guided Gradient Part gate_f = tf.cast(output > 0, 'float32') gate_r = tf.cast(grads > 0, 'float32') guided_grads = tf.cast(output > 0, 'float32') * tf.cast(grads > 0, 'float32') * grads # Average gradients spatially weights = tf.reduce_mean(guided_grads, axis=(0, 1,2)) # Build a ponderated map of filters according to gradients importance cam = np.ones(output.shape[0:3], dtype=np.float32) for index, w in enumerate(weights): cam += w * output[:, :, :, index] capi=resize(cam,(ct_io.shape)) print(capi.shape) capi = np.maximum(capi,0) heatmap = (capi - capi.min()) / (capi.max() - capi.min()) return heatmap def generate_guided_grad_cam(Nifti_path,Model_weight,Class_index,Input_patch_size_slice_number,Layer_name,Save_path): # Reading the CT img_path=Nifti_path Class_index=Class_index Model_weight=Model_weight Layer_name=Layer_name img_sitk = sitk.ReadImage(img_path, sitk.sitkFloat32) image= sitk.GetArrayFromImage(img_sitk) Input_patch_size=[Input_patch_size_slice_number,image.shape[1],image.shape[2],1] #Input_patch_size=[Input_patch_size_slice_number,128,128,1] get_grad_model=Get_Build_model(Input_patch_size,Model_weight,Layer_name) ct_patch_chunk_List,last_patch_number=Get_image_array_Array_and_give_chunk(image_array=image,patch_slice_slice=Input_patch_size_slice_number) first_heatmap=Guided_GradCAM_3D(get_grad_model,ct_patch_chunk_List[0],Class_index=Class_index) heatmap_concat=first_heatmap for i in range(1,(len(ct_patch_chunk_List)-1)): from Resnet_3D import Resnet3D get_heatmap=Guided_GradCAM_3D(get_grad_model,ct_patch_chunk_List[i],Class_index=Class_index) heatmap_concat=np.concatenate((heatmap_concat, get_heatmap), axis=0) last_heatmap=Guided_GradCAM_3D(get_grad_model,ct_patch_chunk_List[-1],Class_index=Class_index) heatmap_concat=np.concatenate((heatmap_concat, last_heatmap[last_patch_number:,:,:]), axis=0) s_itk_image = sitk.GetImageFromArray(heatmap_concat) s_itk_image.CopyInformation(img_sitk) sitk.WriteImage(s_itk_image, Save_path) return if __name__ == '__main__': img_path=NIFTI_PATH Model_weight=MODEL_WEIGHT Class_index=CLASS_INDEX Input_patch_size_slice_number=INPUT_PATCH_SIZE_SLICE_NUMBER Layer_name=LAYER_NAME Save_path=SAVE_PATH generate_guided_grad_cam(img_path,Model_weight,Class_index,Input_patch_size_slice_number,Layer_name,Save_path)

Guided_GradCAM_3D_config.py

MODEL_WEIGHT="3d_image_classification.h5" CLASS_INDEX=1 # Index of the class for which you want to see the Guided-gradcam INPUT_PATCH_SIZE_SLICE_NUMBER=64 # Input patch slice you want to feed at a time LAYER_NAME='conv3d_18' # Name of the layer from where you want to get the Guided-GradCAM NIFTI_PATH="C:/Users/souso/VSCODE/3D-GuidedGradCAM/study_0001.nii.gz" SAVE_PATH="ML_Guided_GradCaN_XXXX.nii.gz"

deploy_config.py

import tensorflow as tf import math from loss_funnction_And_matrics import* ###---Number-of-GPU NUM_OF_GPU=1 DISTRIIBUTED_STRATEGY_GPUS=["gpu:0","gpu:1","gpu:2"] ##Network Configuration #NUMBER_OF_CLASSES=5 NUMBER_OF_CLASSES=5 INPUT_PATCH_SIZE=(224,160,160, 1) #INPUT_PATCH_SIZE=(128,128,64, 1) TRAIN_NUM_RES_UNIT=3 TRAIN_NUM_FILTERS=(16, 32, 64, 128) TRAIN_STRIDES=((1, 1, 1), (2, 2, 2), (2, 2, 2), (2, 2, 2)) TRAIN_CLASSIFY_ACTICATION=tf.nn.relu6 TRAIN_KERNAL_INITIALIZER=tf.keras.initializers.VarianceScaling(distribution='uniform') TRAIN_CLASSIFY_LEARNING_RATE =1e-4 TRAIN_CLASSIFY_LOSS=Weighted_BCTL OPTIMIZER=tf.keras.optimizers.Adam(lr=TRAIN_CLASSIFY_LEARNING_RATE,epsilon=1e-5) TRAIN_CLASSIFY_METRICS=tf.keras.metrics.AUC()

補足情報(FW/ツールのバージョンなど)

ここにより詳細な情報を記載してください。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだ回答がついていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.50%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問