当前位置: 首页 > news >正文

金融类网站模板北京html5网站建设

金融类网站模板,北京html5网站建设,手机网站制作大约多少钱,老河口网站#x1f4dd;个人主页#x1f339;#xff1a;Eternity._ #x1f339;#x1f339;期待您的关注 #x1f339;#x1f339; ❀ 偏标记学习图像分类 概述算法原理核心逻辑效果演示使用方式参考文献 概述 本文复现论文 Progressive Identification of True Labels for Pa… 个人主页Eternity._ 期待您的关注 ❀ 偏标记学习图像分类 概述算法原理核心逻辑效果演示使用方式参考文献 概述 本文复现论文 Progressive Identification of True Labels for Partial-Label Learning[1] 提出的偏标记学习方法。 随着深度神经网络的发展机器学习任务对标注数据的需求不断增加。然而大量的标注数据十分依赖人力资源与标注者的专业知识。弱监督学习可以有效缓解这一问题因其不需要完全且准确的标注数据。该论文关注一个重要的弱监督学习问题——偏标记学习Partial Label Learning其中每个训练实例与一组候选标签相关联但仅有一个标签是真实的。 该论文提出了一种渐进式真实标签识别方法旨在训练过程中逐渐确定样本的真实标签。该论文所提出的方法获得了接近监督学习的性能且与具体的网络结构、损失函数、随机优化算法无关。 本文所涉及的所有资源的获取方式这里 算法原理 传统的监督学习常用交叉熵损失和随机梯度下降来优化深度神经网络。交叉熵损失定义如下 其中 x 表示样本特征 [ y [ y 1 , y 2 , … , y c ] ] [ \mathbf{y} [y_1, y_2, \ldots, y_c] ] [y[y1​,y2​,…,yc​]]表示样本标签其为独热码即除了真实标签对应维度值为 1其余为零 [ f i ( x ; θ ) ] [ f_i(x; \theta) ] [fi​(x;θ)]表示模型预测样本 x 标签为 i 的概率。 该论文提出的方法使用一个软标签 [ y ^ [ y ^ 1 , y ^ 2 , … , y ^ c ] ] [ \hat{y} [\hat{y}_1, \hat{y}_2, \ldots, \hat{y}_c] ] [y^​[y^​1​,y^​2​,…,y^​c​]]其对任意 [ i ∈ [ 0 , c ] ] [ i \in [0, c] ] [i∈[0,c]]满足 [ ∑ i y ^ i 1 且 0 ≤ y ^ i ≤ 1 ] [ \sum_{i} \hat{y}_i 1 \quad \text{且} \quad 0 \leq \hat{y}_i \leq 1 ] [∑i​y^​i​1且0≤y^​i​≤1]为了使用该软标签论文根据候选标签集 s 对软标签进行初始化 为了渐进式地识别真实标签算法在每次更新参数之前根据预测结果为下轮训练使用的软标签赋值 其中 [ I ( j ∈ s ) { 1 当且仅当  j ∈ s 为真 0 否则 ] [ I(j \in s) \begin{cases} 1 \text{当且仅当 } j \in s \text{ 为真} \\ 0 \text{否则} \end{cases} ] [I(j∈s){10​当且仅当 j∈s 为真否则​] 核心逻辑 具体的核心逻辑如下所示 import models import datasets import torch from torch.utils.data import DataLoader import numpy as np import torch.optim as optim from torch.optim.lr_scheduler import StepLR import torch.nn.functional as F import torchvision.transforms as transforms from tqdm import tqdmdef CE_loss(probs, targets):交叉熵损失函数loss -torch.sum(targets * torch.log(probs), dim -1)loss_avg torch.sum(loss)/probs.shape[0]return loss_avgclass Proden:def __init__(self, configs):self.configs configsdef train(self, save False):configs self.configs# 读取数据集dataset_path configs[dataset path]if configs[dataset] CIFAR-10:train_data, train_labels, test_data, test_labels datasets.cifar10_read(dataset_path)train_dataset datasets.Cifar(train_data, train_labels)test_dataset datasets.Cifar(test_data, test_labels)output_dimension 10elif configs[dataset] CIFAR-100:train_data, train_labels, test_data, test_labels datasets.cifar100_read(dataset_path)train_dataset datasets.Cifar(train_data, train_labels)test_dataset datasets.Cifar(test_data, test_labels)output_dimension 100# 生成偏标记partial_labels datasets.generate_partial_labels(train_labels, configs[partial rate])train_dataset.load_partial_labels(partial_labels)# 计算数据的均值和方差用于模型输入的标准化mean [np.mean(train_data[:, i, :, :]) for i in range(3)]std [np.std(train_data[:, i, :, :]) for i in range(3)]normalize transforms.Normalize(mean, std)# 设备GPU或CPUdevice torch.device(cuda if torch.cuda.is_available() else cpu)# 加载模型if configs[model] ResNet18:model models.ResNet18(output_dimension output_dimension).to(device)elif configs[model] ConvNet:model models.ConvNet(output_dimension output_dimension).to(device)# 设置学习率等超参数lr configs[learning rate]weight_decay configs[weight decay]momentum configs[momentum]optimizer optim.SGD(model.parameters(), lr lr, weight_decay weight_decay, momentum momentum)lr_step configs[learning rate decay step]lr_decay configs[learning rate decay rate]lr_scheduler StepLR(optimizer, step_sizelr_step, gammalr_decay)for epoch_id in range(configs[epoch count]):# 训练模型train_dataloader DataLoader(train_dataset, batch_size configs[batch size], shuffle True)model.train()for batch in tqdm(train_dataloader, descTraining(Epoch %d) % epoch_id, ascii 123456789#):ids batch[ids]# 标准化输入data normalize(batch[data].to(device))partial_labels batch[partial_labels].to(device)targets batch[targets].to(device)optimizer.zero_grad()# 计算预测概率logits model(data)probs F.softmax(logits, dim-1)# 更新软标签with torch.no_grad():new_targets F.normalize(probs * partial_labels, p1, dim-1)train_dataset.targets[ids] new_targets.cpu().numpy()# 计算交叉熵损失loss CE_loss(probs, targets)loss.backward()# 更新模型参数optimizer.step()# 调整学习率lr_scheduler.step()以上代码仅作展示更详细的代码文件请参见附件。 效果演示 我提前在 CIFAR-10[2] 数据集和 12 层的 ConvNet[3] 网络上训练了一份模型参数。为了测试其准确率需要配置环境并运行main.py脚本得到结果如下 由图可见该算法在测试集上获得了 89.8% 的准确率。 进一步地测试训练出的模型在真实图片上的预测结果。在线部署模型后将一张轮船的图片输入可以得到输出的预测类型为 “Ship” 网站提供了在线演示功能使用者请输入一张小于1MB、类别为上述十个类别之一、长宽尽可能相等的JPG图像。 使用方式 解压附件压缩包并进入工作目录。如果是Linux系统请使用如下命令 unzip Proden-implemention.zip cd Proden-implemention代码的运行环境可通过如下命令进行配置 pip install -r requirements.txt运行如下命令以下载并解压数据集 bash download.sh如果希望在本地训练模型请运行如下命令 python main.py -c [你的配置文件路径] -r [选择下者之一train、test、infer]如果希望在线部署请运行如下命令 python main-flask.py参考文献 [1] Lv J, Xu M, Feng L, et al. Progressive identification of true labels for partial-label learning[C]//International conference on machine learning. PMLR, 2020: 6500-6510. [2] Krizhevsky A, Hinton G. Learning multiple layers of features from tiny images[J]. 2009. [3] Laine S, Aila T. Temporal ensembling for semi-supervised learning[J]. arXiv preprint arXiv:1610.02242, 2016. 编程未来从这里启航解锁无限创意让每一行代码都成为你通往成功的阶梯帮助更多人欣赏与学习 更多内容详见这里
http://www.dnsts.com.cn/news/87842.html

相关文章:

  • 直播网站 建设WordPress行距太大
  • 绿色食品网站建设论文优秀网站设计欣赏图片
  • 做周边的网站外贸手机网站建设
  • 怎么做打鱼网站wordpress 仿微信评论
  • 关于做教育新闻的网站网站建设外地便宜
  • 合肥网站建设发布影城网站建设
  • 广州网站建设studstu国际知名设计公司排名
  • 招商加盟网站怎么做做网站服务器租一年多少钱
  • 健康养老网站建设网上接手袋做是哪一个网站
  • 国家建设部门三类人员官方网站南平抖音搜索排名seo软件
  • 杭州市富阳区建设局网站无锡网络公司服务
  • 免费网站站长查询校友网站建设
  • 南昌建网站那家好yxcms wordpress
  • 视频网站app怎么做的asp网站开发好怎么预览
  • 省级建设主管部门网站产品展示型网站模板
  • 自己可以做网站服务器吗抖音代运营怎么做
  • 电商设计参考网站做电器哪个网站好
  • 张家界建设局网站电话号码六安城市网官网
  • 陕西省住房和城乡建设厅执业资格注册中心网站图片wordpress博客
  • 网站制作要多少钱医疗网站建设咨询
  • 深圳企业网站制作公司哪家好国外网站的建设
  • 温岭做网站洛阳网站建设优惠公司
  • 海口市公司网站建设dw制作班级网站
  • html5网站制作软件网站建设维护保密协议书
  • 网站建设找星火龙新网域名注册官网
  • 天津网站建设排名建设银行的网站为什么登不上
  • 南县做网站杭州富阳网站建设公司
  • 网站开发技术协议怎么写卖代码建设网站
  • 如何制作网站链接怎么做好营销网站开发
  • 网站建设nayuwangiis网站怎么做域名绑定