译者序
原书前言
章 Keras不错深度学习入门
1.1 为什么Keras是完美的深度学习库
1.1.1 安装Keras和TensorFlow
1.2 实现核心深度学习模型——MLP、CNN和RNN
1.2.1 MLP、CNN和RNN之间的差异
1.3 多层感知器(MLP)
1.3.1 MNIST数据集
1.3.2 MNIST数字分类模型
1.3.3 正则化
1.3.4 输出激活与损失函数
1.3.5 优化
1.3.6 性能评价
1.3.7 模型概述
1.4 卷积神经网络(CNN)
1.4.1 卷积
1.4.2 池化操作
1.4.3 性能评价与模型概要
1.5 循环神经网络(RNN)
1.6 小结
参考文献
第2章 深度神经网络
2.1 函数式API
2.1.1 创建一个两输入单输出模型
2.2 深度残差网络(ResNet)
2.3 ResNetv2
2.4 密集连接卷积网络(DenseNet))
2.4.1 为CIFAR10数据集构建一个100层的DenseNet-BC网络
2.5 小结
参考文献
第3章 自编码器
3.1 自编码器原理
3.2 使用Keras构建自编码器
3.3 去噪自编码器(DAE)
3.4 自动色彩迁移自编码器
3.5 小结
参考文献
第4章 生成对抗网络
4.1 GAN概要
4.2 GAN原理
4.3 Keras中的GAN实现
4.4 条件GAN
4.5 小结
参考文献
第5章 改进的GAN方法
5.1 WassersteinGAN
5.1.1 距离函数
5.1.2 GAN中的距离函数
5.1.3 Wasserstein损失函数的使用
5.1.4 使用Keras实现WGAN
5.2 最小二乘GAN(LSGAN)
5.3 辅助分类器GAN(ACGAN)
5.4 小结
参考文献
第6章 分离表示GAN
6.1 分离表示
6.2 InfoGAN
6.3 在Keras中实现InfoGAN
6.4 InfoGAN生成器的输出
6.5 StackedGAN
6.6 在Keras中实现StackedGAN
6.7 StackedGAN的生成器输出
6.8 小结
参考文献
第7章 跨域GAN
7.1 CycleGAN原理
7.1.1 CycleGAN模型
7.1.2 使用Keras实现CycleGAN
7.1.3 CycleGAN生成器的输出?
7.1.4 CycleGAN用于MNIST和SVHN数据集
7.2 小结
参考文献
第8章 变分自编码器
8.1 VAE原理
8.1.1 变分推断
8.1.2 核心公式
8.1.3 优化
8.1.4 再参数化的技巧
8.1.5 解码测试
8.1.6 VAE的Keras实现
8.1.7 将CNN应用于VAE
8.2 条件VAE(CVAE)
8.3 β-VAE:可分离的隐式表示VAE
8.4 小结
参考文献
第9章 深度强化学习
9.1 强化学习原理
9.2 Q值
9.3 Q-Learning例子
9.3.1 用Python实现Q-Learning
9.4 非确定性环境
9.5 时序差分学习
9.5.1 OpenAIGym中应用Q-Learning
9.6 深度Q网络(DQN)
9.6.1 用Keras实现DQN
9.6.2 双Q-Learning(DDQN)
9.7 小结
参考文献
0章 策略梯度方法
10.1 策略梯度定理
10.2 蒙特卡罗策略梯度(REINFORCE)方法
10.3 基线REINFORCE方法
10.4 Actor-Critic方法
10.5 优势Actor-Critic方法
10.6 Keras中的策略梯度方法
10.7 策略梯度方法的性能评估
10.8 小结
参考文献