Pytorch 常⽤损失函数nn.BCEloss ();nn.BCEWithLogitsLos 。。。损失函数nn.BCEloss()衡量输出与⽬标之间的⼆分类交叉熵
weight : 默认None,⽤于计算损失的⼿动尺度化的权重、张量 reduction :默认mean , 指定⽤于输出的缩减⽅式,另可选:none、sum;none:不应⽤缩减,mean:输出的和除以输出内元素数;sum:输出加和
输⼊:input – 形状为,N为样本数量,*为任意其他维度
徐重阳输⼊:target – 形状,形状同input
输出:output – 标量(reduction若为none,则形状同input)nn.BCEWithLogitsLoss()此损失函数将 Sigmoid 层和 BCELoss 整合在⼀起⽐简单地将 Sigmoid 层加上 BCELoss 损失更稳定,因为使⽤了 log-sun-exp
技巧获得数值稳定性
weight =None,
reduction ='mean',
pos_weight =None
)
weight :默认 None,⽤于计算损失的⼿动尺度化的权重,张量
reduction :默认 ‘mean’,指定应⽤于输出的缩减⽅式,另可选 ‘none’,‘sum’;‘none’:不应⽤缩减;‘mean’:输出的和除以输出内元素数;‘sum’:输出加和
pos_weight :默认 None,正例的权重,需为长度为类别数的向量;输⼊:input – 形状为,为样本数量,为任意其他维度输⼊:target – 形状,形状同input宏大自动络筒机了
输出:output – 标量(reduction若为none,则形状同input)
nn.CrossEntropyLoss
N ,∗()N ,∗()
nn.CrossEntropyLoss(
weight=None,
size_average=None,
ignore_index=-100,
reduce=None,
reduction=‘mean’
)
weight:各类别的loss设置权值
ignore_index:忽略某个类别
reduction :计算模式,可为none/sum/mean,none- 逐个元素计算,sum- 所有元素求和,返回标量,mean- 加权平均,返回标量
nn.L1Loss
功能: 计算inputs与target之差的绝对值
mzg振动给料机
nn.MSELoss
市舶司功能: 计算inputs与target之差的平⽅
nn.KLDivLoss战略石油储备
功能:计算KLD(divergence),KL散度,相对熵
注意事项:需提前将输⼊计算 log-probabilities,如通过nn.logsoftmax()
allhd