《KERAS高级深度学习》求取 ⇩

第1章Keras高级深度学习入门1

1.1为什么Keras是完美的深度学习库1

1.1.1 安装Keras和TensorFlow2

1.2实现核心深度学习模型——MLP、CNN和RNN3

1.2.1 MLP、CNN和RNN之间的差异4

1.3多层感知器(MLP)4

1.3.1 MNIST数据集4

1.3.2 MNIST数字分类模型6

1.3.3 正则化11

1.3.4 输出激活与损失函数12

1.3.5 优化13

1.3.6 性能评价16

1.3.7 模型概述18

1.4卷积神经网络(CNN)19

1.4.1 卷积21

1.4.2 池化操作23

1.4.3 性能评价与模型概要23

1.5 循环神经网络(RNN)25

1.6 小结30

参考文献31

第2章深度神经网络32

2.1函数式API32

2.1.1 创建一个两输入单输出模型35

2.2 深度残差网络(ResNet)40

2.3 ResNet v245

2.4密集连接卷积网络(DenseNet)48

2.4.1 为CIFAR10数据集构建一个100层的DenseNet-BC网络50

2.5 小结53

参考文献54

第3章自编码器55

3.1 自编码器原理55

3.2 使用Keras构建自编码器57

3.3 去噪自编码器(DAE)65

3.4 自动色彩迁移自编码器69

3.5 小结75

参考文献76

第4章生成对抗网络77

4.1 GAN概要77

4.2 GAN原理78

4.3 Keras中的GAN实现81

4.4 条件GAN89

4.5 小结96

参考文献97

第5章改进的GAN方法98

5.1Wasserstein GAN98

5.1.1 距离函数99

5.1.2 GAN中的距离函数100

5.1.3 Wasserstein损失函数的使用102

5.1.4 使用Keras实现WGAN105

5.2 最小二乘GAN(LSGAN)111

5.3 辅助分类器GAN(ACGAN)114

5.4 小结126

参考文献126

第6章分离表示GAN127

6.1 分离表示127

6.2 InfoGAN129

6.3 在Keras中实现InfoGAN131

6.4 InfoGAN生成器的输出140

6.5 StackedGAN142

6.6 在Keras中实现StackedGAN143

6.7 StackedGAN的生成器输出158

6.8 小结160

参考文献161

第7章跨域GAN162

7.1CycleGAN原理162

7.1.1 CycleGAN模型164

7.1.2 使用Keras实现CycleGAN167

7.1.3 CycleGAN生成器的输出180

7.1.4 CycleGAN用于MNIST和SVHN数据集182

7.2 小结188

参考文献189

第8章变分自编码器190

8.1VAE原理190

8.1.1 变分推断191

8.1.2 核心公式192

8.1.3 优化192

8.1.4 再参数化的技巧193

8.1.5 解码测试194

8.1.6 VAE的Keras实现194

8.1.7 将CNN应用于VAE199

8.2 条件VAE(CVAE)204

8.3 β-VAE:可分离的隐式表示VAE212

8.4 小结216

参考文献216

第9章深度强化学习217

9.1 强化学习原理217

9.2 Q值219

9.3Q-Learning例子220

9.3.1 用Python实现Q-Learning224

9.4 非确定性环境230

9.5时序差分学习230

9.5.1 OpenAI Gym中应用Q-Learning231

9.6深度Q网络(DQN)235

9.6.1 用Keras实现DQN237

9.6.2 双Q-Learning(DDQN)242

9.7 小结243

参考文献244

第10章策略梯度方法245

10.1 策略梯度定理245

10.2 蒙特卡罗策略梯度(REINFORCE)方法247

10.3 基线REINFORCE方法249

10.4 Actor-Critic方法250

10.5 优势Actor-Critic方法251

10.6 Keras中的策略梯度方法252

10.7 策略梯度方法的性能评估266

10.8 小结270

参考文献271

2020《KERAS高级深度学习》由于是年代较久的资料都绝版了,几乎不可能购买到实物。如果大家为了学习确实需要,可向博主求助其电子版PDF文件。对合法合规的求助,我会当即受理并将下载地址发送给你。