mvc做网站前台代码,合肥大建设,网站做商标在那类,营销型网站手机端IB损失
自我感悟
根据对决策边界的影响程度来分配权重。影响程度越大#xff0c;分配到的权重越小#xff1b;影响程度越小#xff0c;分配到的权重越大。
最后其实就是平衡因子和交叉熵损失的输出的乘积
公式
3.2. Influence Function
影响函数允许我们在移除样本时估…IB损失
自我感悟
根据对决策边界的影响程度来分配权重。影响程度越大分配到的权重越小影响程度越小分配到的权重越大。
最后其实就是平衡因子和交叉熵损失的输出的乘积
公式
3.2. Influence Function
影响函数允许我们在移除样本时估计模型参数的变化而无需实际移除数据并重新训练模型。 3.3 影响平衡加权因子 3.4 影响平衡损失 3.5 类内重加权 m代表一个批次batch的大小这意味着公式对一个批次中的所有样本进行计算然后去平均值。 代码
criterion_ib IBLoss(weightper_cls_weights, alpha1000).cuda()
def ib_loss(input_values, ib):Computes the focal lossloss input_values * ibreturn loss.mean()
class IBLoss(nn.Module):def __init__(self, weightNone, alpha10000.):super(IBLoss, self).__init__()assert alpha 0self.alpha alphaself.epsilon 0.001self.weight weightdef forward(self, input, target, features):grads torch.sum(torch.abs(F.softmax(input, dim1) - F.one_hot(target, num_classes)),1) # N * 1ib grads * features.reshape(-1)ib self.alpha / (ib self.epsilon)return ib_loss(F.cross_entropy(input, target, reductionnone, weightself.weight), ib)1.计算梯度 grads
grads torch.sum(torch.abs(F.softmax(input, dim1) - F.one_hot(target, num_classes)), 1) # N * 1计算 softmax 概率分布F.softmax(input, dim1) 将模型的输出转换为概率分布。计算 one-hot 编码F.one_hot(target, num_classes) 将目标标签转换为 one-hot 编码。计算绝对差值通过计算 softmax 输出与 one-hot 编码之间的绝对差值得到每个样本的梯度表示样本对模型的损失贡献。 2. 计算影响平衡因子IB Factor
ib grads * features.reshape(-1)
ib self.alpha / (ib self.epsilon)影响平衡因子IB Factor确实与梯度成反比。梯度越大IB因子越小分配给该样本的权重越小梯度越小IB因子越大分配给该样本的权重越大。这一机制确保了模型在处理不平衡数据时能够更有效地减小对多数类样本的过拟合提升对少数类样本的泛化能力。 3. 计算最终损失
return ib_loss(F.cross_entropy(input, target, reductionnone, weightself.weight), ib)再理解
F.cross_entropy(input, target, reductionnone, weightself.weight)PyTorch 的 torch.nn.functional.cross_entropy 函数计算交叉熵损失。让我们详细解释这个函数的每个参数以及它们在这行代码中发生的事情。
参数解释 input 这是模型的输出通常是对数几率logits即在应用 softmax 之前的原始得分。其形状通常为 (batch_size, num_classes)。 target 这是真实的目标标签通常是一个包含类别索引的张量其形状通常为 (batch_size,)。每个元素的值是该样本的真实类别的索引。 reductionnone 这个参数指定了如何对计算出的每个样本的损失进行聚合。none 表示不进行聚合返回每个样本的损失值。其他选项包括 mean 和 sum分别表示对损失取平均值和求和。 weightself.weight 这是一个权重张量用于对每个类别的损失进行加权。其形状为 (num_classes,)。self.weight 由之前定义的类别权重 per_cls_weights 设置。这些权重用于处理类别不平衡问题。
发生了什么
在这行代码中F.cross_entropy 函数计算交叉熵损失的步骤如下 计算 softmax 首先对 input 应用 softmax 函数将对数几率转换为概率分布。 取对数
计算 softmax 概率的对数。 计算负对数似然 这里x_y 是 input 中对应于真实标签 y 的元素。
根据真实标签 target计算负对数似然损失。 应用类别权重
如果提供了 weight 参数则对每个类别的损失应用对应的权重。对于每个样本 i如果其真实标签为 y_i则对应的损失为 返回每个样本的损失
由于 reductionnone不进行聚合返回每个样本的损失值。结果是一个与 target 大小相同的张量即 (batch_size,)。
代码的作用
F.cross_entropy(input, target, reductionnone, weightself.weight)
计算 input模型输出与 target真实标签之间的交叉熵损失。每个样本的损失根据类别权重 self.weight 进行加权以处理类别不平衡问题。返回每个样本的损失值而不是将它们聚合成一个标量损失。
示例
假设有一个批次大小为 3类别数为 4 的小批次数据
import torch
import torch.nn.functional as F# 模型输出 (logits)
input torch.tensor([[2.0, 1.0, 0.1, -1.0],[1.0, 3.0, 0.1, -0.5],[-1.0, -0.5, 2.0, 0.5]])# 真实标签
target torch.tensor([0, 1, 2])# 类别权重
weight torch.tensor([1.0, 2.0, 3.0, 4.0])# 计算加权交叉熵损失
loss F.cross_entropy(input, target, reductionnone, weightweight)
print(loss)在这个例子中
input 是一个大小为 (3, 4) 的张量表示批次大小为 3每个样本有 4 个类别的对数几率。target 是一个大小为 (3,) 的张量表示每个样本的真实类别索引。weight 是一个大小为 (4,) 的张量表示每个类别的权重。
F.cross_entropy 函数将计算每个样本的交叉熵损失并应用类别权重 weight。由于 reductionnone返回每个样本的损失值。
总结
计算每个样本的交叉熵损失。应用类别权重处理类别不平衡问题。返回每个样本的损失值而不是将它们聚合成一个标量损失。
将论文中的公式与代码对应起来
论文中的公式 对应代码
首先我们来看影响平衡损失 IBLoss 的代码实现
class IBLoss(nn.Module):def __init__(self, weightNone, alpha10000.):super(IBLoss, self).__init__()assert alpha 0self.alpha alphaself.epsilon 0.001self.weight weightdef forward(self, input, target, features):grads torch.sum(torch.abs(F.softmax(input, dim1) - F.one_hot(target, num_classes)), 1) # N * 1ib grads * features.reshape(-1)ib self.alpha / (ib self.epsilon)return ib_loss(F.cross_entropy(input, target, reductionnone, weightself.weight), ib)对应关系 批次大小 m 在代码中批次大小由 train_loader 或 test_loader 的批次大小参数决定。 数据集 代码中的 train_loader 或 test_loader 提供了批次数据。 类别权重因子 在代码中通过 per_cls_weights 来实现
per_cls_weights 1.0 / np.array(cls_num_list)
per_cls_weights per_cls_weights / np.sum(per_cls_weights) * len(cls_num_list)
per_cls_weights torch.FloatTensor(per_cls_weights).cuda()4.基本损失函数 (,(,))
代码中使用 torch.nn.CrossEntropyLoss 计算交叉熵损失
base_loss F.cross_entropy(input, target, reductionnone, weightself.weight)5.模型输出 (,)f(x,w)
在代码中模型的输出为 input
output, features model(images)6.模型输出与真实标签的 L1 范数 ∥(,)−∥1
在代码中通过以下方式计算
grads torch.sum(torch.abs(F.softmax(input, dim1) - F.one_hot(target, num_classes)), 1) # N * 17.隐藏层特征向量 ℎ 和其 L1 范数 ∥ℎ∥1**
在代码中通过以下方式计算隐藏层特征向量的 L1 范数
features torch.sum(torch.abs(feats), 1).reshape(-1, 1)8.最终影响平衡因子 IB
在代码中通过以下方式计算
ib grads * features.reshape(-1)
ib self.alpha / (ib self.epsilon)9.最终影响平衡损失 IB()
通过自定义的 ib_loss 函数计算
return ib_loss(F.cross_entropy(input, target, reductionnone, weightself.weight), ib)为什么类别权重因子要这样实现
per_cls_weights 1.0 / np.array(cls_num_list)
per_cls_weights per_cls_weights / np.sum(per_cls_weights) * len(cls_num_list)
per_cls_weights torch.FloatTensor(per_cls_weights).cuda()
类别权重因子的实现旨在通过加权样本来处理类别不平衡问题。以下是详细解释为什么要这样实现 per_cls_weights 以及每一步的作用
代码实现
per_cls_weights 1.0 / np.array(cls_num_list)
per_cls_weights per_cls_weights / np.sum(per_cls_weights) * len(cls_num_list)
per_cls_weights torch.FloatTensor(per_cls_weights).cuda()每一步的解释
计算每个类别的逆频率
per_cls_weights 1.0 / np.array(cls_num_list)cls_num_list 是每个类别的样本数量列表。例如如果有三个类别且每个类别的样本数量为 [100, 200, 50]则 cls_num_list [100, 200, 50]。通过取倒数 1.0 / np.array(cls_num_list)我们得到了每个类别的逆频率。例如结果将是 [0.01, 0.005, 0.02]。逆频率反映了类别数量的稀少程度样本数量少的类别少数类将得到更高的权重。
归一化权重
per_cls_weights per_cls_weights / np.sum(per_cls_weights) * len(cls_num_list)首先计算权重的总和 np.sum(per_cls_weights)。根据前面的例子总和为 0.01 0.005 0.02 0.035。然后将每个类别的权重除以总和使得所有权重的和为 1。这是标准化步骤使得权重变为 [0.01/0.035, 0.005/0.035, 0.02/0.035]即 [0.2857, 0.1429, 0.5714]。接下来将这些标准化权重乘以类别的数量 len(cls_num_list)。在这个例子中类别数量是 3。因此最终的权重变为 [0.2857*3, 0.1429*3, 0.5714*3]即 [0.8571, 0.4286, 1.7143]。
这一步的作用是确保每个类别的权重和类别数量成正比同时保持权重的总和为类别数量。
转换为 PyTorch 张量
per_cls_weights torch.FloatTensor(per_cls_weights).cuda()将 NumPy 数组转换为 PyTorch 张量以便在 PyTorch 中使用这些权重。将权重张量移动到 GPU如果可用以加速计算。
归一化步骤的原因
归一化权重的目的是确保类别权重的相对比例合理并且所有权重的总和与类别数量一致。这有助于避免某些类别被赋予过高或过低的权重从而确保训练过程中的稳定性和效果。
处理类别不平衡的原因
类别不平衡问题是指在数据集中不同类别的样本数量差异很大。在这种情况下传统的损失函数往往会被多数类主导导致模型在少数类上的性能较差。通过加权样本特别是对少数类样本赋予更高的权重可以平衡各类样本对损失的贡献从而改善模型在少数类上的表现。
总结
逆频率权重通过取样本数量的倒数使得样本数量少的类别得到更高的权重。归一化将权重标准化并确保权重的总和与类别数量一致保持权重比例的合理性。转换为张量将权重转换为 PyTorch 张量以便在训练过程中使用。
这种权重计算方法确保了在处理类别不平衡问题时少数类样本对损失函数的贡献增加从而提高模型对少数类的识别能力。
Focal损失
def focal_loss(input_values, gamma):Computes the focal lossp torch.exp(-input_values)#loss (1 - p) ** gamma * input_valuesloss (1- p) ** gamma * input_values * 10return loss.mean()class FocalLoss(nn.Module):def __init__(self, weightNone, gamma0.):super(FocalLoss, self).__init__()assert gamma 0self.gamma gammaself.weight weightdef forward(self, input, target):return focal_loss(F.cross_entropy(input, target, reductionnone, weightself.weight), self.gamma)交叉熵损失 cross_entropy 函数的内部计算步骤 FocalLoss 中的 focal_loss 函数
在 FocalLoss 中我们有如下代码
def focal_loss(input_values, gamma):Computes the focal lossp torch.exp(-input_values)loss (1 - p) ** gamma * input_values * 10return loss.mean()解释
1.input_values这是交叉熵损失的值即负对数似然损失。
2.计算预测概率 p
p torch.exp(-input_values)由于 input_values 是负对数似然损失即负的我们可以通过取指数来恢复 。
因此p 确实是模型的预测概率。
3.应用调制因子
loss (1 - p) ** gamma * input_values * 10易区分的样本。
预测出来的概率越大通常可以说明这个样本是易区分的样本。在分类任务中模型对某个类别的预测概率越高通常意味着模型对这个类别的预测越有信心也就是说模型认为这个样本属于该类别的可能性很大。因此这个样本相对来说更容易被模型正确分类。
易区分样本和难区分样本 易区分样本 模型对其预测概率较高接近1表示模型对其预测结果非常有信心。例如对于一个二分类问题如果模型对某个样本预测为正类的概率是0.95那么模型对这个预测结果非常有信心这个样本就是易区分样本。 难区分样本 模型对其预测概率较低或接近中间值表示模型对其预测结果没有太大信心。例如对于一个二分类问题如果模型对某个样本预测为正类的概率是0.55那么模型对这个预测结果的信心较低这个样本就是难区分样本。
IB_Focal损失
自我感悟
就是在focal损失的基础上乘上了平衡因子
class IB_FocalLoss(nn.Module):def __init__(self, weightNone, alpha10000., gamma0.):super(IB_FocalLoss, self).__init__()assert alpha 0self.alpha alphaself.epsilon 0.001self.weight weightself.gamma gammadef forward(self, input, target, features):grads torch.sum(torch.abs(F.softmax(input, dim1) - F.one_hot(target, num_classes)),1) # N * 1ib grads*(features.reshape(-1))ib self.alpha / (ib self.epsilon)return ib_focal_loss(F.cross_entropy(input, target, reductionnone, weightself.weight), ib, self.gamma)def focal_loss(input_values, gamma):Computes the focal lossp torch.exp(-input_values)#loss (1 - p) ** gamma * input_valuesloss (1- p) ** gamma * input_values * 10return loss.mean()class FocalLoss(nn.Module):def __init__(self, weightNone, gamma0.):super(FocalLoss, self).__init__()assert gamma 0self.gamma gammaself.weight weightdef forward(self, input, target):return focal_loss(F.cross_entropy(input, target, reductionnone, weightself.weight), self.gamma)weight类别权重用于处理类别不平衡问题。alpha影响平衡因子的超参数控制样本的重要性。epsilon一个小值防止除零错误。gammaFocal Loss 的调制因子控制易分类样本的权重。