网站开发创新点,贵阳两学一做网站,网站网站建设平台,wordpress新编辑器D2L.AI#xff5c;《动手学深度学习》Notebooks 目录
面向中文读者的能运行、可讨论的深度学习教科书
含 PyTorch、NumPy/MXNet、TensorFlow 和 PaddlePaddle 实现
被全球 70 多个国家 500 多所大学用于教学 github 下面是整理好的#xff0c;可以直接运行的notebook
0 前…D2L.AI《动手学深度学习》Notebooks 目录
面向中文读者的能运行、可讨论的深度学习教科书
含 PyTorch、NumPy/MXNet、TensorFlow 和 PaddlePaddle 实现
被全球 70 多个国家 500 多所大学用于教学 github 下面是整理好的可以直接运行的notebook
0 前言1 引言2 预备知识 2.1 数据操作2.2 数据预处理2.3 线性代数2.4 微积分2.5 自动微分2.6 概率2.7 查阅文档 3 线性神经网络 3.1 线性回归3.2 线性回归的从零开始实现3.3 线性回归的简洁实现3.4 softmax回归3.5 图像分类数据集3.6 softmax回归的从零开始实现3.7 softmax回归的简洁实现 4 多层感知机 4.1 多层感知机4.10 实战Kaggle比赛预测房价4.2 多层感知机的从零开始实现4.3 多层感知机的简洁实现4.4 模型选择、欠拟合和过拟合4.5 权重衰减4.6 暂退法Dropout4.7 前向传播、反向传播和计算图4.8 数值稳定性和模型初始化4.9 环境和分布偏移 5 深度学习计算 5.1 层和块5.2 参数管理5.3延后初始化5.4 自定义层5.5 读写文件5.6 GPU 6 卷积神经网络 6.1 从全连接层到卷积6.2 图像卷积6.3 填充和步幅6.4 多输入多输出通道6.5 汇聚层6.6 卷积神经网络LeNet 7 现代卷积神经网络 7.1 深度卷积神经网络AlexNet7.2 使用块的网络VGG7.3 网络中的网络NiN7.4 含并行连结的网络GoogLeNet7.5 批量规范化7.6 残差网络ResNet7.7稠密连接网络DenseNet 8 循环神经网络 8.1 序列模型8.2 文本预处理8.3 语言模型和数据集8.4 循环神经网络8.5 循环神经网络的从零开始实现8.6 循环神经网络的简洁实现8.7 通过时间反向传播 9 现代循环神经网络 9.1 门控循环单元GRU9.2 长短期记忆网络LSTM9.3 深度循环神经网络9.4 双向循环神经网络9.5 机器翻译与数据集9.6 编码器-解码器架构9.7 序列到序列学习seq2seq9.8 束搜索 10. 注意力机制 10.1 注意力提示10.2 注意力汇聚Nadaraya-Watson 核回归10.3 注意力评分函数10.4 Bahdanau 注意力10.5 多头注意力10.6 自注意力和位置编码10.7 Transformer 11 优化算法 11.1 优化和深度学习11.10 Adam算法11.11 学习率调度器11.2 凸性11.3 梯度下降11.4 随机梯度下降11.5 小批量随机梯度下降11.6 动量法11.7 AdaGrad算法11.8 RMSProp算法11.9 Adadelta 12 计算性能 12.1 编译器和解释器12.2异步计算12.3自动并行12.4硬件12.5多GPU训练12.6 多GPU的简洁实现12.7参数服务器 13 计算机视觉 13.1 图像增广13.2 微调13.3 目标检测和边界框13.4 锚框13.5 多尺度目标检测13.6 目标检测数据集13.7 单发多框检测SSD13.8 区域卷积神经网络R-CNN系列13.9 语义分割和数据集13.10 转置卷积13.11 全卷积网络13.12 风格迁移13.13 实战 Kaggle 比赛图像分类 (CIFAR-10)13.14 实战Kaggle比赛狗的品种识别ImageNet Dogs 14 自然语言处理预训练 14.1 词嵌入word2vec14.10 预训练BERT14.2 近似训练14.3 用于预训练词嵌入的数据集14.4 预训练word2vec14.5 全局向量的词嵌入GloVe14.6 子词嵌入14.7 词的相似性和类比任务14.8 来自Transformers的双向编码器表示BERT14.9 用于预训练BERT的数据集 15 自然语言处理应用 15.1 情感分析及数据集15.2 情感分析使用循环神经网络15.3 情感分析使用卷积神经网络15.4 自然语言推断与数据集15.5 自然语言推断使用注意力15.6 针对序列级和词元级应用微调BERT15.7 自然语言推断微调BERT