封面
版权信息
前言
第1章 数字识别
1.1 MNIST数据集
1.1.1 MNIST 数据集简介
1.1.2 导入数据集
1.2 构建模型
1.2.1 定义神经网络
1.2.2 前向传播
1.2.3 计算损失
1.2.4 反向传播与更新参数
1.3 开始训练
1.4 观察模型预测结果
1.5 总结
第2章 ImageNet图像识别模型与CIFAR-10
2.1 图像分类器
2.1.1 CIFAR-10数据集简介
2.1.2 加载数据集
2.1.3 定义卷积神经网络
2.1.4 定义损失函数和优化器
2.1.5 训练网络
2.1.6 使用测试集评估
2.1.7 使用GPU加速
2.2 ImageNet和图像识别模型
2.2.1 ImageNet
2.2.2 基于 ImageNet 的图像识别模型
2.3 总结
第3章 从零构建图像分类模型
3.1 预训练模型原理
3.1.1 状态字典
3.1.2 通过设备保存
3.2 加载ImageNet预训练模型
3.3 准备数据
3.3.1 加载数据集
3.3.2 使用matplotlib可视化数据
3.4 开始训练
3.5 使用torchvision微调模型
3.6 观察模型预测结果
3.7 固定模型的参数
3.8 使用tensorbord可视化训练情况
3.9 总结
第4章 文本生成
4.1 RNN原理及其结构
4.1.1 经典RNN结构
4.1.2 N VS 1式RNN结构
4.1.3 1 VS N RNN结构
4.1.4 N VS M RNN结构
4.2 明确任务
4.3 准备数据
4.4 构建模型
4.5 开始训练
4.6 观察交互结果
4.7 总结
第5章 目标检测和实例分割
5.1 快速了解目标检测
5.1.1 评估方法
5.1.2 直观方法
5.2 R-CNN系列模型的原理
5.2.1 R-CNN原理
5.2.2 Fast R-CNN原理
5.2.3 Faster R-CNN原理
5.2.4 Mask R-CNN原理
5.3 使用torchvison微调模型
5.3.1 使用Penn-Fudan数据集
5.3.2 搭建目标检测模型
5.3.3 下载必要的工具文件
5.3.4 改造模型以适应新的数据集
5.3.5 调用工具文件训练模型
5.3.6 评估和测试模型
5.4 总结
第6章 人脸检测与识别
6.1 模型介绍
6.2 facenet-pytorch库
6.3 预训练模型
6.4 总结
第7章 利用DCGAN生成假脸
7.1 GAN及其原理
7.2 DCGAN简介
7.3 实现一个假脸生成模型
7.3.1 模型设定
7.3.2 人脸数据集
7.3.3 实现生成器
7.3.4 实现判别器
7.3.5 损失函数和优化器
7.4 训练假脸生成模型
7.4.1 训练的整体流程
7.4.2 更新判别器
7.4.3 更新生成器
7.5 可视化结果
7.6 总结
第8章 pix2pix为黑白图片上色
8.1 带约束的生成对抗网络
8.2 pix2pix的原理
8.3 实现图到图翻译模型
8.3.1 Facade数据集
8.3.2 U-Net作为生成器
8.3.3 PatchGAN作为判别器
8.4 训练判别器和生成器
8.4.1 更新判别器
8.4.2 更新生成器
8.5 根据立面结构生成房屋图片
8.6 黑白图片自动上色
8.7 总结
第9章 Neural-Style与图像风格迁移
9.1 理解图像风格迁移算法
9.1.1 传统风格迁移
9.1.2 Neural-Style算法原理
9.2 加载图像
9.3 定义损失模块
9.3.1 内容损失模块
9.3.2 风格损失模块
9.4 导入预训练模型
9.5 使用L-BFGS进行梯度下降
9.6 训练自己的风格
9.7 总结
第10章 对抗机器学习和欺骗模型
10.1 模型的潜在威胁
10.2 快速梯度符号法
10.3 攻击一个图像识别模型
10.3.1 被攻击的模型
10.3.2 FGSM算法
10.4 开始攻击
10.4.1 攻击流程
10.4.2 攻击结果
10.5 总结
第11章 word2vec与词向量
11.1 词嵌入作用
11.2 词嵌入原理
11.2.1 CBOW实现
11.2.2 Skip-Gram实现
11.3 在PyTorch中实现词嵌入
11.3.1 数据准备
11.3.2 构造模型
11.3.3 训练模型
11.3.4 可视化
11.4 工具包word2vec结合中文词嵌入
11.4.1 word2vec使用
11.4.2 中文词嵌入
11.5 总结
第12章 命名实体识别
12.1 NER背景介绍
12.2 LSTM
12.2.1 LSTM原理
12.2.2 在PyTorch中使用LSTM
12.3 CRF
12.3.1 发射分数和转移分数
12.3.2 损失函数
12.3.3 预测
12.4 构建模型
12.4.1 模型结构
12.4.2 模型代码
12.5 开始训练
12.6 总结
第13章 基于AG_NEWS的文本分类
13.1 数据预处理
13.1.1 原始数据迭代器
13.1.2 数据处理
13.2 准备模型
13.2.1 初始化一个实例
13.2.2 定义函数训练和评估模型
13.3 训练模型
13.4 评估和测试模型
13.4.1 评估模型
13.4.2 随机新闻测试
13.5 总结
第14章 基于 BERT 的文本分类
14.1 transformers数据处理
14.1.1 加载预训练的序列化工具
14.1.2 基本用法
14.2 微调预训练模型
14.2.1 数据集介绍和处理
14.2.2 导入模型
14.2.3 定义训练器
14.3 总结
第15章 文本翻译
15.1 Seq2Seq网络
15.2 注意力机制Attention
15.3 准备数据
15.4 构建模型
15.4.1 编码器
15.4.2 解码器
15.4.3 注意力机制解码器
15.5 开始训练
15.5.1 准备训练数据
15.5.2 训练技巧Teacher Forcing
15.5.3 训练模型
15.6 观察模型效果
15.6.1 评估模型
15.6.2 可视化注意力
15.7 总结
第16章 文本阅读理解
16.1 阅读理解任务介绍
16.2 模型实现
16.3 总结
第17章 为图像添加文本描述
17.1 编码器-解码器架构
17.2 Image Caption模型
17.2.1 神经图像字幕生成器
17.2.2 加入注意力机制
17.3 中文图像字幕数据集
17.3.1 数据结构
17.3.2 构建词典
17.3.3 构建数据集
17.4 构建Image Caption模型
17.4.1 编码器
17.4.2 解码器
17.4.3 注意力层
17.5 模型训练和评估
17.5.1 训练编码器和解码器
17.5.2 计算BLEU指标
17.5.3 可视化结果
17.6 总结
第18章 聊天机器人
18.1 准备数据
18.1.1 数据预处理
18.1.2 为模型准备数据
18.2 构建模型
18.2.1 Encoder
18.2.2 Decoder
18.3 训练准备
18.4 评估模型
18.5 训练模型
18.6 总结
第19章 CycleGAN 模型
19.1 CycleGAN模型架构
19.2 CycleGAN 模型的应用
19.2.1 安装依赖包
19.2.2 准备数据集
19.2.3 预训练模型
19.2.4 训练模型
19.2.5 测试模型
19.2.6 结果可视化
19.3 总结
第20章 图像超分辨率与ESPCN
20.1 理解图像超分辨率和ESPCN算法
20.1.1 图像超分辨率背景介绍
20.1.2 ESPCN算法原理
20.2 制作数据集
20.3 构建ESPCN模型
20.4 训练ESPCN模型
20.5 测试ESPCN模型
20.6 总结
第21章 强化学习
21.1 任务准备
21.1.1 任务说明
21.1.2 需要的包
21.2 记忆重放
21.3 DQN算法
21.3.1 Q-Learning算法
21.3.2 Q-Net模型
21.3.3 抓取输入图像(获得状态表示)
21.3.4 超参数设置和工具函数
21.3.5 训练模型
21.4 总结
更新时间:2025-03-28 14:40:08