当前位置: 首页 > news >正文

58同城网站建设案例wordpress数据库在哪

58同城网站建设案例,wordpress数据库在哪,银锭网那个网站做的 好,陕西培训网站建设系列文章#xff1a; 《PyTorch 基础学习》文章索引 介绍 Transformer模型是近年来在自然语言处理#xff08;NLP#xff09;领域中非常流行的一种模型架构#xff0c;尤其是在机器翻译任务中表现出了优异的性能。与传统的循环神经网络#xff08;RNN#xff09;不同 《PyTorch 基础学习》文章索引 介绍 Transformer模型是近年来在自然语言处理NLP领域中非常流行的一种模型架构尤其是在机器翻译任务中表现出了优异的性能。与传统的循环神经网络RNN不同Transformer模型完全基于注意力机制避免了序列处理中的长距离依赖问题。本教程将通过一个简单的实例详细讲解如何在PyTorch中实现一个基于Transformer的机器翻译模型。 Transformer的原理简介 Transformer模型由Vaswani等人在2017年提出其核心思想是利用注意力机制来捕捉输入序列中的长程依赖关系。模型主要包括两个模块编码器Encoder和解码器Decoder。每个模块由多个层Layer堆叠而成每一层又包含多个子层Sub-layer如自注意力机制Self-Attention、前馈神经网络Feed-Forward Neural Network等。 1. 自注意力机制Self-Attention 自注意力机制是Transformer的核心主要用于计算输入序列中各元素之间的相互依赖关系。通过自注意力机制模型可以在每一步中考虑到整个序列的信息而不是仅仅依赖于固定的上下文窗口。 2. 多头注意力机制Multi-Head Attention 多头注意力机制是对自注意力机制的扩展通过引入多个注意力头Attention Heads模型可以在不同的子空间中独立地计算注意力从而捕捉到输入序列中更多的特征。 3. 前馈神经网络Feed-Forward Neural Network 在每个编码器和解码器层中注意力机制后接一个前馈神经网络。该网络在每个时间步上独立应用于序列中的每一个位置。 4. 残差连接与层归一化Residual Connection Layer Normalization 为了缓解梯度消失的问题Transformer模型在每个子层之间使用了残差连接并在每个子层后使用层归一化。 实例代码及讲解 下面我们将通过一个简单的示例代码详细讲解如何在PyTorch中实现一个基于Transformer的句子推理。 1. 导入必要的库 import torch import torch.nn as nn import torch.optim as optim from torch.utils.data import DataLoader, Dataset from torch.nn.utils.rnn import pad_sequence import numpy as np2. 定义数据集类 class TranslationDataset(Dataset):def __init__(self, source_sentences, target_sentences, src_vocab, tgt_vocab):self.source_sentences source_sentencesself.target_sentences target_sentencesself.src_vocab src_vocabself.tgt_vocab tgt_vocabdef __len__(self):return len(self.source_sentences)def __getitem__(self, idx):src [self.src_vocab[word] for word in self.source_sentences[idx].split()]tgt [self.tgt_vocab[word] for word in self.target_sentences[idx].split()]return torch.tensor(src), torch.tensor(tgt)TranslationDataset类继承自Dataset用于处理机器翻译任务中的数据集。__getitem__方法根据索引idx返回源句子和目标句子的张量表示。 3. 定义collate_fn函数 def collate_fn(batch):src_batch, tgt_batch zip(*batch)src_batch pad_sequence(src_batch, padding_value0, batch_firstTrue)tgt_batch pad_sequence(tgt_batch, padding_value0, batch_firstTrue)return src_batch, tgt_batchcollate_fn函数用于将一个批次的数据进行填充使得每个批次的源句子和目标句子长度一致。 4. 定义Transformer模型 class TransformerModel(nn.Module):def __init__(self, src_vocab_size, tgt_vocab_size, d_model512, nhead8, num_encoder_layers6, num_decoder_layers6,dim_feedforward2048, dropout0.1):super(TransformerModel, self).__init__()self.embedding_src nn.Embedding(src_vocab_size, d_model)self.embedding_tgt nn.Embedding(tgt_vocab_size, d_model)self.transformer nn.Transformer(d_model, nhead, num_encoder_layers, num_decoder_layers, dim_feedforward,dropout)self.fc_out nn.Linear(d_model, tgt_vocab_size)self.d_model d_modeldef forward(self, src, tgt):src self.embedding_src(src) * np.sqrt(self.d_model)tgt self.embedding_tgt(tgt) * np.sqrt(self.d_model)src src.permute(1, 0, 2)tgt tgt.permute(1, 0, 2)output self.transformer(src, tgt)output self.fc_out(output)return outputdef generate(self, src, max_len, sos_idx):self.eval()src self.embedding_src(src) * np.sqrt(self.d_model)src src.permute(1, 0, 2) # [sequence_length, batch_size, d_model]memory self.transformer.encoder(src)# 初始化解码器输入开始标记ys torch.ones(1, 1).fill_(sos_idx).type(torch.long).to(src.device)for i in range(max_len - 1):tgt self.embedding_tgt(ys) * np.sqrt(self.d_model)tgt_mask nn.Transformer.generate_square_subsequent_mask(tgt.size(0)).to(src.device)out self.transformer.decoder(tgt, memory, tgt_masktgt_mask)out self.fc_out(out)prob out[-1, :, :].max(dim-1)[1]ys torch.cat([ys, prob.unsqueeze(0)], dim0)if prob 2: # eos token indexbreakreturn ys.transpose(0, 1)TransformerModel类继承自nn.Module封装了Transformer模型。forward方法定义了模型的前向传播逻辑包括对源句子和目标句子进行嵌入、通过Transformer层处理以及通过线性层输出预测结果。generate方法用于推理生成翻译结果。 5. 训练和评估函数 def train(model, dataloader, optimizer, criterion, num_epochs10):model.train()for epoch in range(num_epochs):epoch_loss 0for src, tgt in dataloader:tgt_input tgt[:, :-1]tgt_output tgt[:, 1:]optimizer.zero_grad()output model(src, tgt_input)output output.view(-1, output.shape[-1])tgt_output tgt_output.reshape(-1)loss criterion(output, tgt_output)loss.backward()torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm1.0)optimizer.step()epoch_loss loss.item()print(fEpoch {epoch 1}, Loss: {epoch_loss / len(dataloader)})def evaluate(model, dataloader, criterion):model.eval()total_loss 0with torch.no_grad():for src, tgt in dataloader:tgt_input tgt[:, :-1]tgt_output tgt[:, 1:]output model(src, tgt_input)output output.view(-1, output.shape[-1])tgt_output tgt_output.reshape(-1)loss criterion(output, tgt_output)total_loss loss.item()print(fEvaluation Loss: {total_loss / len(dataloader)})train函数用于训练模型逐批处理数据计算损失并更新模型参数。evaluate函数用于评估模型的性能计算整个数据集的平均损失。 6. 推理函数 def inference(model, src_sentence, src_vocab, tgt_vocab, max_len2):model.eval()src_indexes [src_vocab[word] for word in src_sentence.split()]src_tensor torch.LongTensor(src_indexes).unsqueeze(0).to(next(model.parameters()).device) # 确保是 LongTensor 类型sos_idx tgt_vocab[sos]generated_tensor model.generate(src_tensor, max_len, sos_idx)generated_sentence .join([list(tgt_vocab.keys())[i] for i in generated_tensor.squeeze().tolist()])return generated_sentenceinference函数用于对单个句子进行翻译生成对应的目标句子。 7. 运行示例 if __name__ __main__:# 假设我们有一个简单的词汇表和句子对vocab {pad: 0,sos: 1,eos: 2,hello: 3,world: 4,good: 5,morning: 6,night: 7,how: 8,are: 9,you: 10,today: 11,friend: 12,goodbye: 13,see: 14,take: 15,care: 16,welcome: 17,back: 18}sentences [hello world,good morning,goodbye friend,see you,take care,welcome back,]src_vocab vocabtgt_vocab vocabsource_sentences sentencestarget_sentences sentences# 创建数据集和数据加载器dataset TranslationDataset(source_sentences, target_sentences, src_vocab, tgt_vocab)dataloader DataLoader(dataset, batch_size2, shuffleTrue, collate_fncollate_fn)# 模型初始化model TransformerModel(len(src_vocab), len(tgt_vocab))optimizer optim.Adam(model.parameters(), lr0.0001)criterion nn.CrossEntropyLoss(ignore_index0)# 训练模型train(model, dataloader, optimizer, criterion, num_epochs20)# 评估模型evaluate(model, dataloader, criterion)# 推理测试test_sentence hellotranslated_sentence inference(model, test_sentence, src_vocab, tgt_vocab)print(fInput: {test_sentence})print(fOutput: {translated_sentence})test_sentence seetranslated_sentence inference(model, test_sentence, src_vocab, tgt_vocab)print(fInput: {test_sentence})print(fOutput: {translated_sentence})test_sentence welcometranslated_sentence inference(model, test_sentence, src_vocab, tgt_vocab)print(fInput: {test_sentence})print(fOutput: {translated_sentence})在这个运行示例中我们首先定义了一个简单的词汇表和句子对然后创建数据集和数据加载器。接下来我们初始化Transformer模型设置优化器和损失函数训练模型并进行评估。最后通过推理函数对一些输入句子进行翻译并输出结果。 完整代码实例 import torch import torch.nn as nn import torch.optim as optim from torch.utils.data import DataLoader, Dataset from torch.nn.utils.rnn import pad_sequence import numpy as np# 定义数据集类用于加载源语言和目标语言的句子 class TranslationDataset(Dataset):def __init__(self, source_sentences, target_sentences, src_vocab, tgt_vocab):self.source_sentences source_sentences # 源语言句子列表self.target_sentences target_sentences # 目标语言句子列表self.src_vocab src_vocab # 源语言词汇表self.tgt_vocab tgt_vocab # 目标语言词汇表def __len__(self):return len(self.source_sentences) # 返回数据集中句子的数量def __getitem__(self, idx):# 将源语言和目标语言的句子转换为词汇表中的索引src [self.src_vocab[word] for word in self.source_sentences[idx].split()]tgt [self.tgt_vocab[word] for word in self.target_sentences[idx].split()]return torch.tensor(src), torch.tensor(tgt) # 返回源句子和目标句子的索引张量# 定义collate_fn函数用于在批处理中对序列进行填充 def collate_fn(batch):src_batch, tgt_batch zip(*batch) # 将批次中的源和目标句子分开src_batch pad_sequence(src_batch, padding_value0, batch_firstTrue) # 对源句子进行填充tgt_batch pad_sequence(tgt_batch, padding_value0, batch_firstTrue) # 对目标句子进行填充return src_batch, tgt_batch # 返回填充后的源和目标句子张量# 定义Transformer模型 class TransformerModel(nn.Module):def __init__(self, src_vocab_size, tgt_vocab_size, d_model512, nhead8, num_encoder_layers6, num_decoder_layers6,dim_feedforward2048, dropout0.1):super(TransformerModel, self).__init__()# 定义源语言和目标语言的嵌入层self.embedding_src nn.Embedding(src_vocab_size, d_model)self.embedding_tgt nn.Embedding(tgt_vocab_size, d_model)# 定义Transformer模型self.transformer nn.Transformer(d_model, nhead, num_encoder_layers, num_decoder_layers, dim_feedforward,dropout)# 定义输出的全连接层将Transformer的输出转换为词汇表中的分布self.fc_out nn.Linear(d_model, tgt_vocab_size)self.d_model d_model # d_model是嵌入向量的维度def forward(self, src, tgt):# 将源语言和目标语言的索引转换为嵌入向量并进行缩放src self.embedding_src(src) * np.sqrt(self.d_model)tgt self.embedding_tgt(tgt) * np.sqrt(self.d_model)# 调整维度以适应Transformer输入的要求src src.permute(1, 0, 2)tgt tgt.permute(1, 0, 2)# 将源语言和目标语言嵌入输入到Transformer中output self.transformer(src, tgt)# 使用全连接层将Transformer的输出转换为目标词汇表中的分布output self.fc_out(output)return outputdef generate(self, src, max_len, sos_idx):self.eval() # 设置模型为评估模式# 对源语言进行嵌入并缩放src self.embedding_src(src) * np.sqrt(self.d_model)src src.permute(1, 0, 2) # 调整维度memory self.transformer.encoder(src) # 通过编码器获取源语言的记忆表示# 初始化解码器输入使用start of sequence标记ys torch.ones(1, 1).fill_(sos_idx).type(torch.long).to(src.device)for i in range(max_len - 1):# 对目标语言进行嵌入并缩放tgt self.embedding_tgt(ys) * np.sqrt(self.d_model)# 生成用于掩码的下三角矩阵以确保模型不能看到未来的词tgt_mask nn.Transformer.generate_square_subsequent_mask(tgt.size(0)).to(src.device)# 使用Transformer解码器生成输出out self.transformer.decoder(tgt, memory, tgt_masktgt_mask)out self.fc_out(out) # 通过全连接层生成词汇表的分布prob out[-1, :, :].max(dim-1)[1] # 选择概率最大的词作为输出# 将生成的词拼接到解码器的输入中ys torch.cat([ys, prob.unsqueeze(0)], dim0)if prob 2: # 如果生成了end of sequence标记则停止生成breakreturn ys.transpose(0, 1) # 返回生成的序列# 训练函数 def train(model, dataloader, optimizer, criterion, num_epochs10):model.train() # 设置模型为训练模式for epoch in range(num_epochs):epoch_loss 0 # 记录每个epoch的损失for src, tgt in dataloader:tgt_input tgt[:, :-1] # 获取目标句子中除了最后一个词的部分作为输入tgt_output tgt[:, 1:] # 获取目标句子中除了第一个词的部分作为输出optimizer.zero_grad() # 清零梯度output model(src, tgt_input) # 前向传播计算输出output output.view(-1, output.shape[-1]) # 将输出展平为2D张量tgt_output tgt_output.reshape(-1) # 将目标输出展平为1D张量loss criterion(output, tgt_output) # 计算损失loss.backward() # 反向传播计算梯度torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm1.0) # 对梯度进行裁剪以防止梯度爆炸optimizer.step() # 更新模型参数epoch_loss loss.item() # 累加损失print(fEpoch {epoch 1}, Loss: {epoch_loss / len(dataloader)}) # 输出每个epoch的平均损失# 评估函数 def evaluate(model, dataloader, criterion):model.eval() # 设置模型为评估模式total_loss 0 # 记录总损失with torch.no_grad(): # 在评估时不需要计算梯度for src, tgt in dataloader:tgt_input tgt[:, :-1] # 获取目标句子中除了最后一个词的部分作为输入tgt_output tgt[:, 1:] # 获取目标句子中除了第一个词的部分作为输出output model(src, tgt_input) # 前向传播计算输出output output.view(-1, output.shape[-1]) # 将输出展平为2D张量tgt_output tgt_output.reshape(-1) # 将目标输出展平为1D张量loss criterion(output, tgt_output) # 计算损失total_loss loss.item() # 累加损失print(fEvaluation Loss: {total_loss / len(dataloader)}) # 输出平均评估损失# 推理函数用于在模型训练完毕后进行句子翻译 def inference(model, src_sentence, src_vocab, tgt_vocab, max_len2):model.eval() # 设置模型为评估模式# 将源语言句子转换为索引序列src_indexes [src_vocab[word] for word in src_sentence.split()]# 将索引序列转换为张量并添加批次维度src_tensor torch.LongTensor(src_indexes).unsqueeze(0).to(next(model.parameters()).device)sos_idx tgt_vocab[sos] # 获取sos标记的索引# 使用模型生成目标语言的句子generated_tensor model.generate(src_tensor, max_len, sos_idx)# 将生成的索引序列转换为词语序列generated_sentence .join([list(tgt_vocab.keys())[i] for i in generated_tensor.squeeze().tolist()])return generated_sentence # 返回生成的句子# 示例运行 if __name__ __main__:# 假设我们有一个简单的词汇表和句子对vocab {pad: 0,sos: 1,eos: 2,hello: 3,world: 4,good: 5,morning: 6,night: 7,how: 8,are: 9,you: 10,today: 11,friend: 12,goodbye: 13,see: 14,take: 15,care: 16,welcome: 17,back: 18}sentences [hello world,good morning,goodbye friend,see you,take care,welcome back,]src_vocab vocab # 源语言词汇表tgt_vocab vocab # 目标语言词汇表source_sentences sentences # 源语言句子列表target_sentences sentences # 目标语言句子列表# 创建数据集和数据加载器dataset TranslationDataset(source_sentences, target_sentences, src_vocab, tgt_vocab)dataloader DataLoader(dataset, batch_size2, shuffleTrue, collate_fncollate_fn)# 模型初始化model TransformerModel(len(src_vocab), len(tgt_vocab))optimizer optim.Adam(model.parameters(), lr0.0001)criterion nn.CrossEntropyLoss(ignore_index0) # 使用交叉熵损失函数忽略填充标记的损失# 训练模型train(model, dataloader, optimizer, criterion, num_epochs20)# 评估模型evaluate(model, dataloader, criterion)# 推理测试test_sentence hellotranslated_sentence inference(model, test_sentence, src_vocab, tgt_vocab)print(fInput: {test_sentence})print(fOutput: {translated_sentence})test_sentence seetranslated_sentence inference(model, test_sentence, src_vocab, tgt_vocab)print(fInput: {test_sentence})print(fOutput: {translated_sentence})test_sentence welcometranslated_sentence inference(model, test_sentence, src_vocab, tgt_vocab)print(fInput: {test_sentence})print(fOutput: {translated_sentence})运行结果 ...... Epoch 18, Loss: 0.0005644524741607407 Epoch 19, Loss: 0.0005254073378940424 Epoch 20, Loss: 0.0004640306190898021 Evaluation Loss: 0.00014784792438149452 Input: hello Output: sos world Input: see Output: sos you Input: welcome Output: sos back总结 通过这个教程我们从理论到实践详细讲解了Transformer模型的基本原理并展示了如何使用PyTorch实现一个简单的机器推理模型。虽然这个示例中的模型和数据集都非常简化但它为进一步学习和研究更复杂的NLP任务打下了基础。希望通过这个教程你能够对Transformer模型有更深入的理解并能够在自己的项目中灵活应用。
http://www.dnsts.com.cn/news/23823.html

相关文章:

  • 专门做折扣的网站有哪些网页制作背景图代码
  • 珠海企业网站搭建制作wordpress建两个网站
  • 网站建设情况的自查报告山东东营市旅游景点大全
  • 黄埔移动网站建设电商平台推广员是做什么的
  • 惠州制作网站软件网站开发工作协议书范本
  • 市政建设招标网站有哪些网上购物网站建设的实训报告
  • 网站虚拟主持人网站开发中都引用什么文献
  • 怎样建立一个公司网站DW做旅游网站模板
  • 网站关键词优化建议网页制作与设计怎么设置圆角
  • 济南网站优化推广公司电话东莞免费建站模板
  • 网站开发需要注意的问题编程软件python下载
  • 网站开发工程师的职位网页升级访问最新区域每天自动更新
  • 电子商务网站的作用wordpress全站转移
  • 佛山网站快速优化排名android开发环境
  • 外贸论坛网站有哪些wordpress 添加qq
  • 设计什么网站简单深圳网站的优化公司
  • 网站开发的网课在哪网站开发培训教程
  • 装修网站排名手机站点
  • 对网站开发与管理的分析网站建设责任分工
  • 怎么接做网站的任务网络交友的网站建设
  • 红酒网站制作网站空间试用
  • 交通局网站模板南宁会制作网站的技术人员
  • 甘肃建设厅网站二级建造师报名时间外贸网站程序
  • 烟台网站开发百度推广运营
  • 海南门户网站开发公司毕业设计网站用什么做
  • 宝安网站建设推广茶陵网站建设
  • 移动端网站的优势岳阳网站设计改版
  • wordpress轮播全屏百度seo公司整站优化软件
  • 网站建设季度考核评价工作总结京东网上商城购物
  • 建个企业网站一年需要多少钱企业网站建设的策划书