位置: IT常识 - 正文

【Pytorch深度学习50篇】·······第六篇:【常见损失函数篇】-----BCELoss及其变种

编辑:rootadmin
【Pytorch深度学习50篇】·······第六篇:【常见损失函数篇】-----BCELoss及其变种

推荐整理分享【Pytorch深度学习50篇】·······第六篇:【常见损失函数篇】-----BCELoss及其变种,希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!

新年新气象,兄弟们新年快乐。撒花!!!

之前我们的项目已经讲过了常见的4种深度学习任务(当然还有一些没有接触到的,例如GAN和今年大红的Transformer),今天这个blog我们就来谈谈一谈常见的损失函数。损失函数的更新也是非常的快,各位大佬的想法也是层出不穷,我们站在巨人的肩膀上,就可以看的更远,走的更远。

1.BCELoss

BCELoss又叫二分类交叉熵损失,顾名思义,它是用来做二分类的损失函数,我们先来看看BCELoss的公式。

其中pt---模型预测值,target---标签值, w---权重值,一般是1

上面这个公式是单个样本的,当一个batch有N个样本时

这么说是不是显得很苍白无力,所以我们来一个例子吧,我们先创建一个pt和target

torch.manual_seed(0)pt = torch.rand(2, 3)target = torch.tensor([[0., 0., 1.], [1., 0., 0.]])print(pt)print(target)

pt我用的随机数代替的,target一般是0或者1,我们print一下,看看目前的数值是多少

这里的torch.rand(2, 3)中的2代表2个样本,3代表每个样本是一个1*3的向量

好了,我们来挨个计算:

pt的第一行第一列的值是 0.4963,它对应的标签target的第一行第一列的值是0,所以求根据刚才的公式L(pt,target) = -w*(target * ln(pt) + (1-target) * ln(1-pt)),w一般取1

L = -1 * (0*ln(0.4963)+1*ln(1-0.4963)) = -ln(1-0.4963) = 0.685774426230532 ≈ 0.6857

pt的第一行第二列的值是 0.7682,它对应的标签target的第一行第一列的值是0

L = -1 * (0*ln(0.7682)+1*ln(1-0.7682)) = -ln(1-0.7682) = 1.46188034807648  ≈ 1.4620

pt的第一行第三列的值是 0.0885,它对应的标签target的第一行第一列的值是1

L = -1 * (1*ln(0.0885)+0*ln(1-0.0885)) = -ln(0.0885) = -2.424752726968253  ≈ 2.4250

接下去,我就不算了,留个兄弟们来算,我们用代码来验证一下算对了没有吧

def com(x, y): loss = -(y * torch.log(x) + (1 - y) * torch.log(1 - x)) return loss losss = com(pt, target) print(losss)

此时x就是pt,y也就是target,值得注意的是torch.log = ln,它不是真的log,看看计算结果吧

看第一行,和我们刚刚的计算结果完全吻合,确实是这么算的,没跑了

别忘了,同时每一个样本也要求一下平均值

第一个样本的平均值是 (0.6857 + 1.4620 + 2.4250)/ 3 = 1.524233333333333333333

第二个样本的平均值是 (2.0247 + 0.3673 + 1.0053)/ 3 = 1.132433333333333333333

【Pytorch深度学习50篇】·······第六篇:【常见损失函数篇】-----BCELoss及其变种

根据公式:

 所以loss = (1.524233333333333333333 + 1.132433333333333333333)/ 2 ≈1.328333

 上代码看看是不是这么回事吧

torch.manual_seed(0) pt = torch.rand(2, 3) target = torch.tensor([[0., 0., 1.], [1., 0., 0.]]) print('pt:',pt) print('target:',target) def com(x, y): loss = -(y * torch.log(x) + (1 - y) * torch.log(1 - x)) return loss losss = com(pt, target) print(losss) losss = torch.mean(com(pt, target)) print('总loss:',losss)

看看结果

 不错,一模一样,算对了。但是你肯定有疑问了,你这是你自己手算的,代码也是你自己写的,你只能证明你的计算和你的代码是对上了,怎么证明真正的和BCELoss对上了,那我们请出Pytorch的nn.BCELoss来看看结果吧

torch.manual_seed(0)pt = torch.rand(2, 3)target = torch.tensor([[0., 0., 1.], [1., 0., 0.]])print('pt:',pt)print('target:',target)loss = nn.BCELoss()print('pytorch loss:',loss(pt, target))

怎么样,我是不是算对了。

值得注意的是,在用BCELoss的时候,要记得先经过一个sigmoid或者softmax,以保证pt是0-1之间的。当然了,pytorch不可能想不到这个啊,所以它还提供了一个函数nn.BCEWithLogitsLoss()他会自动进行sigmoid操作。棒棒的!

2.带权重的BCELoss

先看看BCELoss的公式,w就是所谓的权重

 torch.nn.BCELoss()中,其实提供了一个weight的参数

我们要保持weight的形状和维度与target一致就可以了。

于是我手写一个带权重BCELoss,上代码

class BCE_WITH_WEIGHT(torch.nn.Module): def __init__(self, alpha=0.25, reduction='mean'): super(BCE_WITH_WEIGHT, self).__init__() self.alpha = alpha self.reduction = reduction def forward(self, predict, target): pt = predict loss = -((1-self.alpha) * target * torch.log(pt+1e-5) + self.alpha * (1 - target) * torch.log(1 - pt+1e-5)) if self.reduction == 'mean': loss = torch.mean(loss) elif self.reduction == 'sum': loss = torch.sum(loss) return loss

 核心带代码是

loss = -((1-self.alpha) * target * torch.log(pt+1e-5) + self.alpha * (1 - target) * torch.log(1 - pt+1e-5))

alpha就是权重了,一般很多时候,正负样本是不平衡的,如果不加入权重,网络训练的时候,训练的关注的重点就跑到了样本多的那一类样本上去,对样本少的就不公平了,所以为了维护世界和平,贯彻爱与真实的邪恶,可爱又迷人的反派角色,带权重的损失函数就出现了。

大家可以看到,我在有一个地方是torch.log(pt+1e-5),1e-5的意思就是10的-5次方,为什么要加入1e-5,这个跟ln函数有关系,因为ln(0) = -无穷大,这样损失就爆炸了,训练就会出错误,所以默认就把它加上了。

3.BCE版本的Focal_Loss

FocalLoss的公式

此时的pt就是刚刚的那个pt了,此时的pt就是刚刚我们的BCEloss的结果了 

先上代码看看吧

class BCEFocalLoss(torch.nn.Module): def __init__(self, gamma=2, alpha=0.25, reduction='mean'): super(BCEFocalLoss, self).__init__() self.gamma = gamma self.alpha = alpha self.reduction = reduction def forward(self, predict, target): pt = predict loss = - ((1 - self.alpha) * ((1 - pt+1e-5) ** self.gamma) * (target * torch.log(pt+1e-5)) + self.alpha * ( (pt++1e-5) ** self.gamma) * ((1 - target) * torch.log(1 - pt+1e-5))) if self.reduction == 'mean': loss = torch.mean(loss) elif self.reduction == 'sum': loss = torch.sum(loss) return loss

核心代码:

loss = - ((1 - self.alpha) * ((1 - pt+1e-5) ** self.gamma) * (target * torch.log(pt+1e-5)) + self.alpha * ( (pt+1e-5) ** self.gamma) * ((1 - target) * torch.log(1 - pt+1e-5)))

Focalloss的目前不仅是为了控制样本不平衡的现象,还有个作用就是,让网络着重训练难样本。

好了,BCE讲的差不多了,讲的不对的地方,欢迎大家指出。

至此,敬礼,salute!!!

老规矩,上咩咩狗

本文链接地址:https://www.jiuchutong.com/zhishi/299220.html 转载请保留说明!

上一篇:element-ui动态表单和验证(elementui动态表单数据回显)

下一篇:【HTML+CSS】实现网页的导航栏和下拉菜单(html cssjs)

  • 未取得房屋产权证租赁
  • 税务登记证号是纳税人识别号吗?
  • 劳保用品发放制度文件
  • 个体工商户的个税税率表
  • 视同销售的八种情况
  • 其他业务利润怎么算公式
  • 应付账款借方余额在资产负债表中怎么列示
  • 财务中预付账款是什么意思
  • 行政单位年初预算怎么做
  • 收到电子承兑汇票的账务处理
  • 建筑企业在工程所在地全额征收
  • 民间非营利组织会计科目
  • 购买理财产品是不是非法集资
  • 餐饮外卖的经营范围是什么项目
  • 退还城建税
  • 进口货物账务处理外币
  • Windows11预览体验
  • widows11预览版
  • 一个非常好看的中秋礼物怎么做
  • root怎么开oppo
  • 马耳他共和国瓦莱塔福利
  • php获取文章内容图片
  • 前端后端选择
  • 开发商违法
  • 在Yii2特定页面如何禁用调试工具栏Debug Toolbar详解
  • php读取xml文件
  • 企业销售商品应该向购货单位收取的货款
  • php邮箱smtp发信源码
  • 固定资产盘盈税务处理政策
  • 所得税汇算清缴前取得跨年发票
  • 开通对公账号怎么办理
  • 会计信息不采集有什么后果
  • 出口商品没有发票可以入收入吗
  • 企业扣税方式
  • 帝国cms修改提示怎么设置
  • 试用产品的账务处理分录
  • 纸质承兑上的印花是什么
  • 资产损失税前扣除最新政策2021
  • 银行会计核算方法的特点
  • 外出经营税收缴纳
  • 母子公司之间借款要交税吗
  • sql server中事务有哪三种语句
  • 企业的存货清查包括
  • 现金流量表和其他报表的勾稽关系
  • 银行承兑汇票的特点
  • 原材料用于在建工程要进项转出吗
  • 收到房租租金下什么科目
  • 连锁药店成本会计
  • 员工报销签字流程
  • 分配股利需要缴纳个税吗
  • 实报实销有补贴嘛
  • 企业实收资本怎么计算
  • 小规模增值税减免申报表怎么填
  • 进项税额抵扣时分录
  • 商贸企业固定资产可以一次性扣除吗?
  • 销售自产农产品怎么核算成本
  • 应收账款和坏账准备的解题思路
  • 提高sql执行效率的方法
  • linux获取操作系统版本
  • 挖掘出潜能
  • 为什么好不容易瘦了两斤,两天吃好了又上来了?
  • centos 做bond
  • 迅雷看看电脑版 下载
  • windows7准备配置windows
  • ie11打不开闪退解决办法win 7
  • linux 命令连接
  • 手把手教你在家制作豆腐脑
  • python模拟reversed功能
  • python写一个备份文件功能
  • 安卓开源好处
  • cdn ajax
  • jquery防止重复提交
  • js拖拽div
  • 用python编写的程序称为
  • 浙江通用电子发票注册申请怎么填
  • 税务检查调账通知书
  • 江苏电子税务局网站官网
  • 我的电脑为什么没有微软商店
  • 税务局发票邮寄回来怎么读入?
  • 在本地买车怎么上外地牌照
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设