位置: IT常识 - 正文

【torch.nn.Parameter 】参数相关的介绍和使用

编辑:rootadmin
【torch.nn.Parameter 】参数相关的介绍和使用 文章目录torch.nn.Parameter基本介绍参数构造参数访问参数初始化使用内置初始化自定义初始化参数绑定参考torch.nn.Parameter基本介绍

推荐整理分享【torch.nn.Parameter 】参数相关的介绍和使用,希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!

torch.nn.Parameter是继承自torch.Tensor的子类,其主要作用是作为nn.Module中的可训练参数使用。它与torch.Tensor的区别就是nn.Parameter会自动被认为是module的可训练参数,即加入到parameter()这个迭代器中去。

具体格式如下:

torch.nn.parameter.Parameter(data=None, requires_grad=True)

其中 data 为待传入的 Tensor,requires_grad 默认为 True。

事实上,torch.nn 中提供的模块中的参数均是 nn.Parameter 类,例如:

module = nn.Linear(3, 3)type(module.weight)# torch.nn.parameter.Parametertype(module.bias)# torch.nn.parameter.Parameter参数构造

nn.Parameter可以看作是一个类型转换函数,将一个不可训练的类型 Tensor 转换成可以训练的类型 parameter ,并将这个 parameter 绑定到这个module 里面nn.Parameter()添加的参数会被添加到Parameters列表中,会被送入优化器中随训练一起学习更新

此时调用 parameters()方法会显示参数。读者可自行体会以下两端代码:

""" 代码片段一 """class Net(nn.Module): def __init__(self): super().__init__() self.weight = torch.randn(3, 3) self.bias = torch.randn(3) def forward(self, inputs): passnet = Net()print(list(net.parameters()))# []""" 代码片段二 """class Net(nn.Module): def __init__(self): super().__init__() self.weight = **nn.Parameter**(torch.randn(3, 3)) # 将tensor转换成parameter类型 self.bias = **nn.Parameter**(torch.randn(3)) def forward(self, inputs): passnet = Net()print(list(**net.parameters()**)) # 显示参数# [Parameter containing:# tensor([[-0.4584, 0.3815, -0.4522],# [ 2.1236, 0.7928, -0.7095],# [-1.4921, -0.5689, -0.2342]], requires_grad=True), Parameter containing:# tensor([-0.6971, -0.7651, 0.7897], requires_grad=True)]

nn.Parameter相当于把传入的数据包装成一个参数,如果要直接访问/使用其中的数据而非参数本身,可对 nn.Parameter对象调用 data属性:

a = torch.tensor([1, 2, 3]).to(torch.float32)param = nn.Parameter(a)print(param)# Parameter containing:# tensor([1., 2., 3.], requires_grad=True)print(param.data)# tensor([1., 2., 3.])参数访问

nn.Module 中有 **state_dict()** 方法,该方法将以字典形式返回模块的所有状态,包括模块的参数和 persistent buffers ,字典的键就是对应的参数/缓冲区的名称。

【torch.nn.Parameter 】参数相关的介绍和使用

由于所有模块都继承 nn.Module,因此我们可以对任意的模块调用 state_dict() 方法以查看状态:

linear_layer = nn.Linear(2, 2)print(linear_layer.state_dict())# OrderedDict([('weight', tensor([[ 0.2602, -0.2318],# [-0.5192, 0.0130]])), ('bias', tensor([0.5890, 0.2476]))])print(linear_layer.state_dict().keys())# odict_keys(['weight', 'bias'])

对于线性层,除了 state_dict()之外,我们还可以对其直接调用相应的属性,如下:

linear_layer = nn.Linear(2, 1)print(linear_layer.weight)# Parameter containing:# tensor([[-0.1990, 0.3394]], requires_grad=True)print(linear_layer.bias)# Parameter containing:# tensor([0.2697], requires_grad=True)

需要注意的是以上返回的均为参数对象,如需使用其中的数据,可调用 data 属性。

参数初始化使用内置初始化

对于下面的单隐层网络,我们想对其中的两个线性层应用内置初始化器

class Net(nn.Module): def __init__(self): super().__init__() self.layers = nn.Sequential( nn.Linear(3, 2), nn.ReLU(), nn.Linear(2, 3), ) def forward(self, X): return self.layers(X)

假设权重从 N(0,1) 中采样,偏置全部初始化为 0,则初始化代码如下:

def init_normal(module): # 需要判断子模块是否为nn.Linear类,因为激活函数没有参数 if type(module) == nn.Linear: nn.init.normal_(module.weight, mean=0, std=1) nn.init.zeros_(module.bias)net = Net()net.apply(init_normal)for param in net.parameters(): print(param)# Parameter containing:# tensor([[-0.3560, 0.8078, -2.4084],# [ 0.1700, -0.3217, -1.3320]], requires_grad=True)# Parameter containing:# tensor([0., 0.], requires_grad=True)# Parameter containing:# tensor([[-0.8025, -1.0695],# [-1.7031, -0.3068],# [-0.3499, 0.4263]], requires_grad=True)# Parameter containing:# tensor([0., 0., 0.], requires_grad=True)

对 net调用 apply方法则会递归地对其下所有的子模块应用 init_normal函数。

自定义初始化

如果我们想要自定义初始化,例如使用以下的分布来初始化网络的权重:

def my_init(module): if type(module) == nn.Linear: nn.init.uniform_(module.weight, -10, 10) mask = module.weight.data.abs() >= 5 module.weight.data *= masknet = Net()net.apply(my_init)for param in net.parameters(): print(param)# Parameter containing:# tensor([[-0.0000, -5.9610, 8.0000],# [-0.0000, -0.0000, 7.6041]], requires_grad=True)# Parameter containing:# tensor([ 0.4058, -0.2891], requires_grad=True)# Parameter containing:# tensor([[ 0.0000, -0.0000],# [-6.9569, -9.5102],# [-9.0270, -0.0000]], requires_grad=True)# Parameter containing:# tensor([ 0.2521, -0.1500, -0.1484], requires_grad=True)参数绑定

对于一个三隐层网络:

net = nn.Sequential(nn.Linear(4, 8), nn.ReLU(), nn.Linear(8, 8), nn.ReLU(), nn.Linear(8, 8), nn.ReLU(), nn.Linear(8, 1))

如果我们想让第二个隐层和第三个隐层共享参数,则可以这样做:

shared = nn.Linear(8, 8)net = nn.Sequential(nn.Linear(4, 8), nn.ReLU(), shared, nn.ReLU(), shared, nn.ReLU(), nn.Linear(8, 1))参考

PyTorch学习笔记(六)–Sequential类、参数管理与GPU_Lareges的博客-CSDN博客_sequential类

torch.nn 中文文档

Python的torch.nn.Parameter初始化方法_昊大侠的博客-CSDN博客_torch.nn.parameter初始化

本文链接地址:https://www.jiuchutong.com/zhishi/293777.html 转载请保留说明!

上一篇:如何vue使用ant design Vue中的select组件实现下拉分页加载数据,并解决存在的一个问题。(ant desgin-vue)

下一篇:7.25 web前端-淘宝首页设计(淘宝前端用什么写的)

  • 电脑怎么强制格式化sd卡(电脑怎么强制格式化d盘)

    电脑怎么强制格式化sd卡(电脑怎么强制格式化d盘)

  • vivo手机怎么取消隐藏桌面变形器图标(vivo手机怎么取消专注模式)

    vivo手机怎么取消隐藏桌面变形器图标(vivo手机怎么取消专注模式)

  • vivo手机怎么设置成黑白模式(vivo手机怎么设置高清通话功能)

    vivo手机怎么设置成黑白模式(vivo手机怎么设置高清通话功能)

  • iphone13怎么看快充模式(iphone13怎么看快充标志)

    iphone13怎么看快充模式(iphone13怎么看快充标志)

  • 小米8微信视频有美颜吗(小米8微信视频聊天怎么设置美颜功能)

    小米8微信视频有美颜吗(小米8微信视频聊天怎么设置美颜功能)

  • 坐地铁可以用花呗吗(坐地铁用花呗怎么付款)

    坐地铁可以用花呗吗(坐地铁用花呗怎么付款)

  • 苹果黑名单里面的人发信息怎么看到(苹果黑名单里面的人怎么才能删除)

    苹果黑名单里面的人发信息怎么看到(苹果黑名单里面的人怎么才能删除)

  • 手机wps怎么拖公式(手机wps表格如何一键拖动复制公式)

    手机wps怎么拖公式(手机wps表格如何一键拖动复制公式)

  • 华为手机滚动截屏怎么总失败(华为手机滚动截屏怎么截长图)

    华为手机滚动截屏怎么总失败(华为手机滚动截屏怎么截长图)

  • lan1灯不亮(lan1灯不亮是不是没网)

    lan1灯不亮(lan1灯不亮是不是没网)

  • 华为手机p40 pro什么时候上市(华为手机p40pro屏幕碎了维修大概要多少钱)

    华为手机p40 pro什么时候上市(华为手机p40pro屏幕碎了维修大概要多少钱)

  • qq的匿名投票能看谁投过票(qq上匿名投票可以看见名字吗)

    qq的匿名投票能看谁投过票(qq上匿名投票可以看见名字吗)

  • 华为怎么选择卡2上网(华为怎么选择卡2发信息)

    华为怎么选择卡2上网(华为怎么选择卡2发信息)

  • 有固态硬盘还要硬盘吗(有固态硬盘还要加机械硬盘吗)

    有固态硬盘还要硬盘吗(有固态硬盘还要加机械硬盘吗)

  • oppoa73卡顿解决方法(oppo手机太卡怎么办)

    oppoa73卡顿解决方法(oppo手机太卡怎么办)

  • 声卡在主板的什么位置(主板 声卡)

    声卡在主板的什么位置(主板 声卡)

  • 显示在其他应用的上层是什么意思(显示在其他应用的上层怎么关闭)

    显示在其他应用的上层是什么意思(显示在其他应用的上层怎么关闭)

  • 主机设备包括什么(计算机主机设备)

    主机设备包括什么(计算机主机设备)

  • 结构化方法的基本原则(结构化方法的基本要点)

    结构化方法的基本原则(结构化方法的基本要点)

  • 换手机相片怎么转移到新手机上(换手机相片怎么转)

    换手机相片怎么转移到新手机上(换手机相片怎么转)

  • xr多少寸(xr多少寸改13pro的尺寸)

    xr多少寸(xr多少寸改13pro的尺寸)

  • 华为nova5pro和nova5有什么区别(华为nova5pro和nova7pro哪个好)

    华为nova5pro和nova5有什么区别(华为nova5pro和nova7pro哪个好)

  • 华为lya al00p什么型号(华为lya—al00)

    华为lya al00p什么型号(华为lya—al00)

  • mailx命令  发送和接收电子邮件(linux mail命令详解)

    mailx命令 发送和接收电子邮件(linux mail命令详解)

  • 企业取得房租收据怎么写
  • 减免增值税计入
  • 金税盘维护费发票需要认证吗
  • 交易性金融资产公允价值变动计入
  • 企业上缴税费总额怎么算
  • 成品油认证步骤
  • 基本户注销后还可以再开吗
  • 有发票章的存根联可以当发票用吗
  • 企业收到个体户开的发票
  • 电费做其他业务收入的账务处理怎么做?
  • 取得无形资产当期收入
  • 顾客退货补差价怎么做账?
  • 废品计入哪个科目
  • 购买的固定资产可以一次计入管理费用吗
  • 2020退税时间超过了怎么办
  • 税务局开票需要带什么材料
  • 贴现的利息能不能取出来
  • 水利行政事业性收费收入会计分录
  • 建筑业的合理避税
  • 企业在筹建期间发生的费用
  • 收到管理费用的会计科目
  • 公司会议案例
  • 补交地税多少钱
  • linux安装常用命令
  • 其他业务收入跨年调账
  • win10任务栏搜索如何关闭
  • ftp指什么
  • 委托加工物资如何转入生产成本
  • PHP:imagecreatefromgd2part()的用法_GD库图像处理函数
  • vue3中props
  • 股权投资准备的主要内容
  • 迭代器,生成器
  • es6的module模块
  • vue实战开发项目视频
  • 固定资产一次性折旧政策2023
  • php显示错误报告方式
  • vue之间的组件通信
  • 律师事务所主要业务范围介绍
  • 核销已计提坏账的应收账款
  • 小微企业所得税优惠政策最新2022
  • 开票和不开票的销项税额怎么算
  • 利润表期初余额怎么填
  • mongodb管理工具
  • sqlserver怎么把数据库导出来
  • 企业所得税包含员工工资吗
  • SQL Server 2008中SQL之WaitFor使用介绍
  • sql2005安装方法
  • 消费税会计处理的设置
  • 公允价值变动属于
  • 公司注销时退还实收资本要交个税吗
  • excel账务处理心得
  • 机动车销售折让红字信息表
  • 从国外进口一批原材料,海关核定的关税完税价
  • 金三税务系统怎样修改财务人员跟办税人?
  • 为什么要提前计划
  • 企业存货计价方法发生变更案例
  • 外贸内销业务哪个部门管
  • 选择业务组合的原则是什么
  • 商品流通企业如何控成本
  • sql数据库怎么执行命令
  • 在mysql中,创建数据库的基本语法格式是
  • SQL Server 2000 清理日志精品图文教程
  • mysql联合索引生效原则
  • win7系统权限设置
  • 微软官方重做系统
  • win8系统怎么设置桌面图标
  • mac u 盘启动
  • xp电脑桌面图片显示缩略图
  • profiler.exe - profiler是什么进程 有什么用
  • 复制打开网页
  • apache80端口被占用的解决方法
  • iframe语法
  • linux文件处理三剑客
  • android+
  • unity双面材质
  • scrollbottom用法
  • 汽车车船税收费标准表山西
  • 地方税务局是事业单位吗
  • 税务催报通知书怎么接收
  • 南京国税局长是谁
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设