当前位置: 首页 > news >正文

如何在网站上木马做网站卖广告位赚钱

如何在网站上木马,做网站卖广告位赚钱,手机网站开发公司电话,网站建设制作放之使用 PyTorch 和 Horovod 来编写一个简单的分布式训练 demo#xff0c;可以帮助你理解如何在多GPU或多节点环境中高效地训练深度学习模型。Horovod 是 Uber 开发的一个用于分布式训练的框架#xff0c;它支持 TensorFlow、Keras、PyTorch 等多个机器学习库。下面是一个基于 P…使用 PyTorch 和 Horovod 来编写一个简单的分布式训练 demo可以帮助你理解如何在多GPU或多节点环境中高效地训练深度学习模型。Horovod 是 Uber 开发的一个用于分布式训练的框架它支持 TensorFlow、Keras、PyTorch 等多个机器学习库。下面是一个基于 PyTorch 的简单例子演示了如何用 Horovod 进行分布式训练。 安装依赖 首先确保你已经安装了 PyTorch 和 Horovod。你可以通过 pip 或者 conda 来安装这些包。对于 Horovod推荐使用 MPIMessage Passing Interface进行通信因此你也需要安装 MPI 和相应的开发工具。 pip install torch torchvision horovod或者如果你使用的是 Anaconda conda install pytorch torchvision -c pytorch horovodrun --check # 如果没有安装 horovod, 可以使用以下命令安装 pip install horovod[pytorch]编写 PyTorch Horovod 代码 创建一个新的 Python 文件 train.py然后添加如下代码 import torch import torch.nn as nn import torch.optim as optim from torch.utils.data import DataLoader, TensorDataset import horovod.torch as hvd from torchvision import datasets, transforms# 初始化 Horovod hvd.init()# 设置随机种子确保结果可复现 torch.manual_seed(42)# 如果有 GPU 可用则使用 GPU if torch.cuda.is_available():torch.cuda.set_device(hvd.local_rank())# 加载数据集 (以 MNIST 数据集为例) transform transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]) train_dataset datasets.MNIST(., trainTrue, downloadTrue, transformtransform) val_dataset datasets.MNIST(., trainFalse, transformtransform)# 分布式采样器 train_sampler torch.utils.data.distributed.DistributedSampler(train_dataset, num_replicashvd.size(), rankhvd.rank()) val_sampler torch.utils.data.distributed.DistributedSampler(val_dataset, num_replicashvd.size(), rankhvd.rank())# 创建数据加载器 train_loader DataLoader(train_dataset, batch_size64, samplertrain_sampler) val_loader DataLoader(val_dataset, batch_size1000, samplerval_sampler)# 定义模型 class Net(nn.Module):def __init__(self):super(Net, self).__init__()self.conv1 nn.Conv2d(1, 32, 3, 1)self.conv2 nn.Conv2d(32, 64, 3, 1)self.dropout1 nn.Dropout2d(0.25)self.dropout2 nn.Dropout2d(0.5)self.fc1 nn.Linear(9216, 128)self.fc2 nn.Linear(128, 10)def forward(self, x):x self.conv1(x)x nn.functional.relu(x)x self.conv2(x)x nn.functional.relu(x)x nn.functional.max_pool2d(x, 2)x self.dropout1(x)x torch.flatten(x, 1)x self.fc1(x)x nn.functional.relu(x)x self.dropout2(x)x self.fc2(x)output nn.functional.log_softmax(x, dim1)return outputmodel Net()# 如果有 GPU 可用则将模型转移到 GPU 上 if torch.cuda.is_available():model.cuda()# 定义损失函数和优化器并应用 Horovod 的 DistributedOptimizer 包装 optimizer optim.Adam(model.parameters(), lr0.001 * hvd.size()) optimizer hvd.DistributedOptimizer(optimizer,named_parametersmodel.named_parameters(),ophvd.Average)# 损失函数 criterion nn.CrossEntropyLoss()# 训练模型 def train(epoch):model.train()for batch_idx, (data, target) in enumerate(train_loader):if torch.cuda.is_available():data, target data.cuda(), target.cuda()optimizer.zero_grad()output model(data)loss criterion(output, target)loss.backward()optimizer.step()if batch_idx % 100 0:print(Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}.format(epoch, batch_idx * len(data), len(train_sampler),100. * batch_idx / len(train_loader), loss.item()))# 验证模型 def validate():model.eval()validation_loss 0correct 0with torch.no_grad():for data, target in val_loader:if torch.cuda.is_available():data, target data.cuda(), target.cuda()output model(data)validation_loss criterion(output, target).item() # sum up batch losspred output.argmax(dim1, keepdimTrue) # get the index of the max log-probabilitycorrect pred.eq(target.view_as(pred)).sum().item()validation_loss / len(val_loader.dataset)accuracy 100. * correct / len(val_loader.dataset)print(\nValidation set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n.format(validation_loss, correct, len(val_loader.dataset), accuracy))# 调用训练和验证函数 for epoch in range(1, 4):train_sampler.set_epoch(epoch)train(epoch)validate()# 广播模型状态从rank 0到其他进程 hvd.broadcast_parameters(model.state_dict(), root_rank0) hvd.broadcast_optimizer_state(optimizer, root_rank0)运行代码 要运行这段代码你需要使用 horovodrun 命令来启动多个进程。例如在单个节点上的 4 个 GPU 上运行该脚本可以这样做 horovodrun -np 4 -H localhost:4 python train.py这将在本地主机上启动四个进程每个进程都会占用一个 GPU。如果你是在多台机器上运行你需要指定每台机器的地址和可用的 GPU 数量。 请注意这个例子是一个非常基础的实现实际应用中可能还需要考虑更多的细节比如更复杂的模型结构、数据预处理、超参数调整等。
http://www.dnsts.com.cn/news/243420.html

相关文章:

  • 怎么去投诉做网站的公司网站视频插件代码
  • 整套html企业网站模板新增接入 新增网站
  • 合肥 企业网站设计屏蔽右键网站
  • jsp 企业建站网站如何做tag
  • 英文网站建设大概多少钱手机网站用什么软件
  • 小说网站建设wordpress简体中文下载地址
  • 制作网站能挣钱搜索引擎排名优化公司
  • 免费在线网站网站开发和浏览器兼容问题
  • 推广型网站建设公司wordpress 搭建多站点
  • 怎么做娱乐网站网络设计采用的方法和原则
  • asp.net mvc 做网站wordpress加入音乐
  • 公路水运建设质量与安全监督系统网站深圳品牌策划机构
  • 中小企业网站制作报价律师网站建设推荐
  • 网站与公众号的区别招商加盟项目推荐
  • 成都哪个公司做网站图片展示型网站
  • 公司网站建设的意义方案做网站珊瑚橙颜色怎么搭配好看
  • 有哪些做的推文排版的网站重庆食品商城网站设计
  • 做网站行业现状木马科技网站建设
  • wordpress教育网站拖拽式建站
  • 网站设计的价格一般通过手机号加微信的好友
  • 汕头网站制作哪里好做网站出路
  • 山西网络网站建设销售公司网页设计与制作教程书
  • 泰安中商网络做的网站怎么进入电商sem是什么意思
  • 广丰做网站公司wordpress搞笑
  • 直播:广东防疫新闻发布会网站优化哪个公司好
  • 建立网站的相关信息做网站的职位
  • 微信官方网站怎么进入建设工程合同司法解释
  • 清远网站制作公司江门网站建设报价
  • 哪些大学网站做的比较好微信优惠券网站怎么做的
  • 互展科技网站建设什么是网络设计方案网络设计的原则有哪些