之前做的一些项目中涉及到feature map 可视化的问题,一个层中feature map的数量往往就是当前层out_channels的值,我们可以通过以下代码可视化自己网络中某层的feature map,个人感觉可视化feature map对调参还是很有用的。
发展壮大离不开广大客户长期以来的信赖与支持,我们将始终秉承“诚信为本、服务至上”的服务理念,坚持“二合一”的优良服务模式,真诚服务每家企业,认真做好每个细节,不断完善自我,成就企业,实现共赢。行业涉及小搅拌车等,在成都网站建设、营销型网站建设、WAP手机网站、VI设计、软件开发等项目上具有丰富的设计经验。不多说了,直接看代码:
import torch from torch.autograd import Variable import torch.nn as nn import pickle from sys import path path.append('/residual model path') import residual_model from residual_model import Residual_Model model = Residual_Model() model.load_state_dict(torch.load('./model.pkl')) class myNet(nn.Module): def __init__(self,pretrained_model,layers): super(myNet,self).__init__() self.net1 = nn.Sequential(*list(pretrained_model.children())[:layers[0]]) self.net2 = nn.Sequential(*list(pretrained_model.children())[:layers[1]]) self.net3 = nn.Sequential(*list(pretrained_model.children())[:layers[2]]) def forward(self,x): out1 = self.net1(x) out2 = self.net(out1) out3 = self.net(out2) return out1,out2,out3 def get_features(pretrained_model, x, layers = [3, 4, 9]): ## get_features 其实很简单 ''' 1.首先import model 2.将weights load 进model 3.熟悉model的每一层的位置,提前知道要输出feature map的网络层是处于网络的那一层 4.直接将test_x输入网络,*list(model.chidren())是用来提取网络的每一层的结构的。net1 = nn.Sequential(*list(pretrained_model.children())[:layers[0]]) ,就是第三层前的所有层。 ''' net1 = nn.Sequential(*list(pretrained_model.children())[:layers[0]]) # print net1 out1 = net1(x) net2 = nn.Sequential(*list(pretrained_model.children())[layers[0]:layers[1]]) # print net2 out2 = net2(out1) #net3 = nn.Sequential(*list(pretrained_model.children())[layers[1]:layers[2]]) #out3 = net3(out2) return out1, out2 with open('test.pickle','rb') as f: data = pickle.load(f) x = data['test_mains'][0] x = Variable(torch.from_numpy(x)).view(1,1,128,1) ## test_x必须为Varibable #x = Variable(torch.randn(1,1,128,1)) if torch.cuda.is_available(): x = x.cuda() # 如果模型的训练是用cuda加速的话,输入的变量也必须是cuda加速的,两个必须是对应的,网络的参数weight都是用cuda加速的,不然会报错 model = model.cuda() output1,output2 = get_features(model,x)## model是训练好的model,前面已经import 进来了Residual model print('output1.shape:',output1.shape) print('output2.shape:',output2.shape) #print('output3.shape:',output3.shape) output_1 = torch.squeeze(output2,dim = 0) output_1_arr = output_1.data.cpu().numpy() # 得到的cuda加速的输出不能直接转变成numpy格式的,当时根据报错的信息首先将变量转换为cpu的,然后转换为numpy的格式 output_1_arr = output_1_arr.reshape([output_1_arr.shape[0],output_1_arr.shape[1]])
另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。
网站题目:pytorch可视化featuremap的示例代码-创新互联
本文地址:https://www.cdcxhl.com/article40/dgjdeo.html
成都网站建设公司_创新互联,为您提供外贸网站建设、标签优化、面包屑导航、做网站、ChatGPT、电子商务
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联