前提・実現したいこと
torchvisionのFaster R-CNNの第一段階(roi_heads後)の値だけ取得して特徴マップを可視化してみたいのですが
そもそもの値の取得方法が分かりません。
用いているコードはtorchvisionのFaster(Mask)R-CNNのチュートリアルです。
https://pytorch.org/tutorials/intermediate/torchvision_tutorial.html
追記:
どうやらフックで引っ掛ける方法があるようですが、このroi_headなどは
torchvisionのモジュールとなっているためあまり自分の手で変更はしたくありません、、何か方法はありますでしょうか、、
(もしなければroi_headのコードを一番下に添付しますので具体的な方法を教えて下さると助かります。)
ソースコード(model定義部分)
python
1 2 3def model (): 4 #モデルの定義 5 6 import torchvision 7 from torchvision.models.detection import FasterRCNN 8 from torchvision.models.detection.rpn import AnchorGenerator 9 10 11 # load a pre-trained model for classification and return 12 # only the features 13 backbone = torchvision.models.mobilenet_v2(pretrained=True).features 14 15 # FasterRCNN needs to know the number of 16 # output channels in a backbone. For mobilenet_v2, it's 1280 17 # so we need to add it here 18 backbone.out_channels = 1280 19 20 21 22 23 24 # let's make the RPN generate 5 x 3 anchors per spatial 25 # location, with 5 different sizes and 3 different aspect 26 # ratios. We have a Tuple[Tuple[int]] because each feature 27 # map could potentially have different sizes and 28 # aspect ratios 29 30 anchor_generator = AnchorGenerator(sizes=((32, 64, 128, 256, 512),), 31 aspect_ratios=((0.5, 1.0, 2.0),)) 32 33 # let's define what are the feature maps that we will 34 # use to perform the region of interest cropping, as well as 35 # the size of the crop after rescaling. 36 # if your backbone returns a Tensor, featmap_names is expected to 37 # be [0]. More generally, the backbone should return an 38 # OrderedDict[Tensor], and in featmap_names you can choose which 39 # feature maps to use. 40 41 42 43 44 45 46 roi_pooler =torchvision.ops.MultiScaleRoIAlign( 47 48 featmap_names=['0'], 49 output_size=3, 50 sampling_ratio=2) 51 52 53 # put the pieces together inside a FasterRCNN model 54 model = FasterRCNN(backbone, 55 #num_classes=11,#2 56 num_classes=5, 57 rpn_anchor_generator=anchor_generator) 58 #box_roi_pool=roi_pooler) 59 60 61 62 return model 63 64print(model()) 65
printで出力したモデルのアーキテクチャ
出力したいのはほぼ一番下のroi_headsの出力です。
FasterRCNN( (transform): GeneralizedRCNNTransform( Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) Resize(min_size=(800,), max_size=1333, mode='bilinear') ) (backbone): Sequential( (0): ConvBNReLU( (0): Conv2d(3, 32, kernel_size=(3, 3), stride=(2, 2), padding=(1, 1), bias=False) (1): BatchNorm2d(32, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) (2): ReLU6(inplace=True) ) ###長いので省略### ) ) (rpn): RegionProposalNetwork( (anchor_generator): AnchorGenerator() (head): RPNHead( (conv): Conv2d(1280, 1280, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (cls_logits): Conv2d(1280, 15, kernel_size=(1, 1), stride=(1, 1)) (bbox_pred): Conv2d(1280, 60, kernel_size=(1, 1), stride=(1, 1)) ) ) (roi_heads): RoIHeads( (box_roi_pool): MultiScaleRoIAlign() (box_head): TwoMLPHead( (fc6): Linear(in_features=62720, out_features=1024, bias=True) (fc7): Linear(in_features=1024, out_features=1024, bias=True) ) (box_predictor): FastRCNNPredictor( (cls_score): Linear(in_features=1024, out_features=5, bias=True) (bbox_pred): Linear(in_features=1024, out_features=20, bias=True) ) ) )
#####modelがここまできれいに出力できるならこのroi_headsの出力(fc7まで)を取り出すことはできないでしょうか??
ご教示いただければ非常に助かります。
よろしくおねがいします。
追記 roi_headのコード
#追記 FC7の部分のコード
class TwoMLPHead(nn.Module): """ Standard heads for FPN-based models Arguments: in_channels (int): number of input channels representation_size (int): size of the intermediate representation """ def __init__(self, in_channels, representation_size): super(TwoMLPHead, self).__init__() self.fc6 = nn.Linear(in_channels, representation_size) self.fc7 = nn.Linear(representation_size, representation_size) def forward(self, x): x = x.flatten(start_dim=1) x = F.relu(self.fc6(x)) x = F.relu(self.fc7(x)) return x
回答2件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2020/11/29 08:41
2020/11/29 15:25
2020/11/30 02:04