宁波网站推广平台咨询,百度推广外包哪家不错,零基础网站建设,北京搜索优化推广公司深度学习推荐系统(五)DeepCrossing模型及其在Criteo数据集上的应用
在2016年#xff0c; 随着微软的Deep Crossing#xff0c; 谷歌的WideDeep以及FNN、PNN等一大批优秀的深度学习模型被提出#xff0c; 推荐系统全面进入了深度学习时代#xff0c; 时至今日Crossing模型及其在Criteo数据集上的应用
在2016年 随着微软的Deep Crossing 谷歌的WideDeep以及FNN、PNN等一大批优秀的深度学习模型被提出 推荐系统全面进入了深度学习时代 时至今日 依然是主流。 推荐模型主要有下面两个进展 与传统的机器学习模型相比 深度学习模型的表达能力更强 能够挖掘更多数据中隐藏的模式 深度学习模型结构非常灵活 能够根据业务场景和数据特点 灵活调整模型结构 使模型与应用场景完美契合
深度学习推荐模型以多层感知机(MLP)为核心 通过改变神经网络结构进行演化。 1 DeepCrossing模型原理
1.1 DeepCrossing模型提出的背景 WideDeep 模型的提出不仅综合了记忆能力和泛化能力而且开启了不同网络结构融合的新思路。 在 WideDeep 模型之后有越来越多的工作集中于分别改进WideDeep模型的 Wide部分或是 Deep 部分。 典型的工作是2017年由斯坦福大学和谷歌的研究人员提出的 DeepCross模型(简称DCN)。 DeepCross 模型的主要思路是使用 Cross 网络替代原来的 Wide 部分。由于 Deep 部分的设计思路并没有本质的改变最主要的创新点是Cross 部分的设计思路。
1.2 DeepCrossing的模型结构
DCN模型的结构非常简洁从下往上依次为Embedding和Stacking层、Cross网络层与Deep网络层并列、输出合并层得到最终的预测结果。 1.2.1 Embedding and stacking layer
Embedding层作用依然是把稀疏离散的类别型特征变成低维密集型。
然后需要将所有的密集型特征(数值型特征)与通过embedding转换后的特征进行联合Stacking。 1.2.2 Cross NetWork模型 举例说明 可以看到 x1中包含了所有的x0的1,2阶特征的交互。第l层特征对应的最高的叉乘阶数为l1 Cross网络的参数是共享的 每一层的这个权重特征之间共享 这个可以使得模型泛化到看不见的特征交互作用 并且对噪声更具有鲁棒性。 Deep Network及组合层比较简单不再赘述。
1.3 DeepCrossing模型代码复现
import torch.nn as nn
import torch.nn.functional as F
import torchclass CrossNetwork(nn.Module):Cross Networkdef __init__(self, layer_num, input_dim):super(CrossNetwork, self).__init__()self.layer_num layer_num# 定义网络层的参数self.cross_weights nn.ParameterList([nn.Parameter(torch.rand(input_dim, 1))for i in range(self.layer_num)])self.cross_bias nn.ParameterList([nn.Parameter(torch.rand(input_dim, 1))for i in range(self.layer_num)])def forward(self, x):# x是(batchsize, dim)的形状 先扩展一个维度到(batchsize, dim, 1)x_0 torch.unsqueeze(x, dim2)x x_0.clone()xT x_0.clone().permute((0, 2, 1)) # batchsize, 1, dim)for i in range(self.layer_num):x torch.matmul(torch.bmm(x_0, xT), self.cross_weights[i]) self.cross_bias[i] x # (batchsize, dim, 1)xT x.clone().permute((0, 2, 1)) # (batchsize, 1, dim)x x.squeeze(2) # (batchsize, dim)return xclass Dnn(nn.Module):Dnn partdef __init__(self, hidden_units, dropout0.):hidden_units: 列表 每个元素表示每一层的神经单元个数 比如[256, 128, 64], 两层网络 第一层神经单元128 第二层64 第一个维度是输入维度dropout: 失活率super(Dnn, self).__init__()self.dnn_network nn.ModuleList([nn.Linear(layer[0], layer[1]) for layer in list(zip(hidden_units[:-1], hidden_units[1:]))])self.dropout nn.Dropout(pdropout)def forward(self, x):for linear in self.dnn_network:x linear(x)x F.relu(x)x self.dropout(x)return xclass DCN(nn.Module):def __init__(self, feature_info, hidden_units, layer_num, embed_dim8,dnn_dropout0.):feature_info: 特征信息数值特征 类别特征 类别特征embedding映射)hidden_units: 列表 隐藏单元的个数(多层残差那里的)layer_num cross network的层数embed_dim: embedding维度dnn_dropout: Dropout层的失活比例super(DCN, self).__init__()self.dense_features, self.sparse_features, self.sparse_features_map feature_info# embedding层 这里需要一个列表的形式 因为每个类别特征都需要embeddingself.embed_layers nn.ModuleDict({embed_ str(key): nn.Embedding(num_embeddingsval, embedding_dimembed_dim)for key, val in self.sparse_features_map.items()})# 统计embedding_dim的总维度# 一个离散型(类别型)变量 通过embedding层变为10纬embed_dim_sum sum([embed_dim] * len(self.sparse_features))# 总维度 数值型特征的纬度 离散型变量经过embedding后的纬度dim_sum len(self.dense_features) embed_dim_sumhidden_units.insert(0, dim_sum)# 1、cross Network# layer_num是交叉网络的层数 hidden_units[0]表示输入的整体维度大小self.cross_network CrossNetwork(layer_num, hidden_units[0])# 2、Deep Networkself.dnn_network Dnn(hidden_units,dnn_dropout)# 最后一层线性层输入纬度是cross Network输出纬度 Deep Network输出纬度self.final_linear nn.Linear(hidden_units[-1] hidden_units[0], 1)def forward(self, x):# 1、先把输入向量x分成两部分处理、因为数值型和类别型的处理方式不一样dense_input, sparse_inputs x[:, :len(self.dense_features)], x[:, len(self.dense_features):]# 2、转换为long形sparse_inputs sparse_inputs.long()# 2、不同的类别特征分别embeddingsparse_embeds [self.embed_layers[embed_ key](sparse_inputs[:, i]) for key, i inzip(self.sparse_features_map.keys(), range(sparse_inputs.shape[1]))]# 3、把类别型特征进行拼接,即emdedding后由3行转换为1行sparse_embeds torch.cat(sparse_embeds, axis-1)# 4、数值型和类别型特征进行拼接x torch.cat([sparse_embeds, dense_input], axis-1)# cross Networkcross_out self.cross_network(x)# Deep Networkdeep_out self.dnn_network(x)# Concatenatetotal_x torch.cat([cross_out, deep_out], axis-1)# outoutputs F.sigmoid(self.final_linear(total_x))return outputsif __name__ __main__:x torch.rand(size(1, 5), dtypetorch.float32)feature_info [[I1, I2], # 连续性特征[C1, C2, C3], # 离散型特征{C1: 20,C2: 20,C3: 20}]# 建立模型hidden_units [128, 64, 32]net DCN(feature_info, hidden_units,layer_num2)print(net)print(net(x))DCN((embed_layers): ModuleDict((embed_C1): Embedding(20, 8)(embed_C2): Embedding(20, 8)(embed_C3): Embedding(20, 8))(cross_network): CrossNetwork((cross_weights): ParameterList((0): Parameter containing: [torch.FloatTensor of size 26x1](1): Parameter containing: [torch.FloatTensor of size 26x1])(cross_bias): ParameterList((0): Parameter containing: [torch.FloatTensor of size 26x1](1): Parameter containing: [torch.FloatTensor of size 26x1]))(dnn_network): Dnn((dnn_network): ModuleList((0): Linear(in_features26, out_features128, biasTrue)(1): Linear(in_features128, out_features64, biasTrue)(2): Linear(in_features64, out_features32, biasTrue))(dropout): Dropout(p0.0, inplaceFalse))(final_linear): Linear(in_features58, out_features1, biasTrue)
)
tensor([[0.9349]], grad_fnSigmoidBackward0)2 DeepCrossing模型在Criteo数据集的应用
数据的预处理可以参考
深度学习推荐系统(二)Deep Crossing及其在Criteo数据集上的应用_undo_try的博客-CSDN博客
2.1 准备训练数据
import pandas as pdimport torch
from torch.utils.data import TensorDataset, Dataset, DataLoaderimport torch.nn as nn
from sklearn.metrics import auc, roc_auc_score, roc_curveimport warnings
warnings.filterwarnings(ignore)# 封装为函数
def prepared_data(file_path):# 读入训练集验证集和测试集train_set pd.read_csv(file_path train_set.csv)val_set pd.read_csv(file_path val_set.csv)test_set pd.read_csv(file_path test.csv)# 这里需要把特征分成数值型和离散型# 因为后面的模型里面离散型的特征需要embedding 而数值型的特征直接进入了stacking层 处理方式会不一样data_df pd.concat((train_set, val_set, test_set))# 数值型特征直接放入stacking层dense_features [I str(i) for i in range(1, 14)]# 离散型特征需要需要进行embedding处理sparse_features [C str(i) for i in range(1, 27)]# 定义一个稀疏特征的embedding映射 字典{key: value},# key表示每个稀疏特征 value表示数据集data_df对应列的不同取值个数 作为embedding输入维度sparse_feas_map {}for key in sparse_features:sparse_feas_map[key] data_df[key].nunique()feature_info [dense_features, sparse_features, sparse_feas_map] # 这里把特征信息进行封装 建立模型的时候作为参数传入# 把数据构建成数据管道dl_train_dataset TensorDataset(# 特征信息torch.tensor(train_set.drop(columnsLabel).values).float(),# 标签信息torch.tensor(train_set[Label].values).float())dl_val_dataset TensorDataset(# 特征信息torch.tensor(val_set.drop(columnsLabel).values).float(),# 标签信息torch.tensor(val_set[Label].values).float())dl_train DataLoader(dl_train_dataset, shuffleTrue, batch_size16)dl_vaild DataLoader(dl_val_dataset, shuffleTrue, batch_size16)return feature_info,dl_train,dl_vaild,test_setfile_path ./preprocessed_data/feature_info,dl_train,dl_vaild,test_set prepared_data(file_path)2.2 建立DeepCrossing模型
from _01_DeepAndCrossing import DCN# 建立模型
hidden_units [128, 64, 32]net DCN(feature_info, hidden_units,layer_numlen(hidden_units))# 测试一下模型
for feature, label in iter(dl_train):out net(feature)print(feature.shape)print(out.shape)print(out)break2.3 模型的训练
from AnimatorClass import Animator
from TimerClass import Timer# 模型的相关设置
def metric_func(y_pred, y_true):pred y_pred.datay y_true.datareturn roc_auc_score(y, pred)def try_gpu(i0):if torch.cuda.device_count() i 1:return torch.device(fcuda:{i})return torch.device(cpu)def train_ch(net, dl_train, dl_vaild, num_epochs, lr, device):⽤GPU训练模型print(training on, device)net.to(device)# 二值交叉熵损失loss_func nn.BCELoss()optimizer torch.optim.Adam(paramsnet.parameters(), lrlr)animator Animator(xlabelepoch, xlim[1, num_epochs],legend[train loss, train auc, val loss, val auc],figsize(8.0, 6.0))timer, num_batches Timer(), len(dl_train)log_step_freq 10for epoch in range(1, num_epochs 1):# 训练阶段net.train()loss_sum 0.0metric_sum 0.0for step, (features, labels) in enumerate(dl_train, 1):timer.start()# 梯度清零optimizer.zero_grad()# 正向传播predictions net(features)loss loss_func(predictions, labels.unsqueeze(1) )try: # 这里就是如果当前批次里面的y只有一个类别 跳过去metric metric_func(predictions, labels)except ValueError:pass# 反向传播求梯度loss.backward()optimizer.step()timer.stop()# 打印batch级别日志loss_sum loss.item()metric_sum metric.item()if step % log_step_freq 0:animator.add(epoch step / num_batches,(loss_sum/step, metric_sum/step, None, None))# 验证阶段net.eval()val_loss_sum 0.0val_metric_sum 0.0for val_step, (features, labels) in enumerate(dl_vaild, 1):with torch.no_grad():predictions net(features)val_loss loss_func(predictions, labels.unsqueeze(1))try:val_metric metric_func(predictions, labels)except ValueError:passval_loss_sum val_loss.item()val_metric_sum val_metric.item()if val_step % log_step_freq 0:animator.add(epoch val_step / num_batches, (None,None,val_loss_sum / val_step , val_metric_sum / val_step))print(ffinal: loss {loss_sum/len(dl_train):.3f}, auc {metric_sum/len(dl_train):.3f},f val loss {val_loss_sum/len(dl_vaild):.3f}, val auc {val_metric_sum/len(dl_vaild):.3f})print(f{num_batches * num_epochs / timer.sum():.1f} examples/sec on {str(device)})lr, num_epochs 0.001, 10
train_ch(net, dl_train, dl_vaild, num_epochs, lr, try_gpu())2.4 模型的预测
y_pred_probs net(torch.tensor(test_set.values).float())
y_pred torch.where(y_pred_probs0.5,torch.ones_like(y_pred_probs),torch.zeros_like(y_pred_probs)
)
y_pred.data[:10]