《深度学习入门 基于PYTORCH和TENSORFLOW的理论与实现》求取 ⇩

第1章深度学习基础1

1.1深度学习概述1

1.1.1 什么是深度学习1

1.1.2 深度学习的应用场景3

1.1.3 深度学习的发展动力4

1.1.4 深度学习的未来4

1.2Python入门5

1.2.1 Python简介5

1.2.2 Python的安装6

1.2.3 Python基础知识6

1.2.4 NumPy矩阵运算11

1.2.5 Matplotlib绘图15

1.3Anaconda与Jupyter Notebook19

1.3.1 Anaconda19

1.3.2 Jupyter Notebook21

第2章PyTorch26

2.1PyTorch概述26

2.1.1 什么是PyTorch26

2.1.2 为什么使用PyTorch27

2.2 PyTorch的安装27

2.3张量30

2.3.1 张量的创建30

2.3.2 张量的数学运算31

2.3.3 张量与NumPy数组32

2.3.4 CUDA张量33

2.4自动求导33

2.4.1 返回值是标量33

2.4.2 返回值是张量34

2.4.3 禁止自动求导34

2.5torch.nn和torch.optim35

2.5.1 torch.nn35

2.5.2 torch.optim36

2.6线性回归37

2.6.1 线性回归的基本原理37

2.6.2 线性回归的PyTorch实现38

第3章TensorFlow41

3.1TensorFlow概述41

3.1.1 什么是TensorFlow41

3.1.2 为什么使用TensorFlow41

3.2 TensorFlow的安装42

3.3张量44

3.3.1 张量的创建44

3.3.2 张量的数学运算44

3.4 数据流图45

3.5 会话46

3.6 线性回归的TensorFlow实现48

3.7TensorBoard51

3.7.1 TensorBoard代码51

3.7.2 TensorBoard显示52

第4章神经网络基础知识55

4.1感知机55

4.1.1 感知机模型55

4.1.2 感知机与逻辑电路56

4.2多层感知机59

4.2.1 感知机的局限性59

4.2.2 多层感知机实现异或门逻辑61

4.3逻辑回归62

4.3.1 基本原理62

4.3.2 损失函数63

4.3.3 梯度下降算法65

4.3.4 逻辑回归的Python实现69

第5章神经网络74

5.1 基本结构74

5.2 前向传播75

5.3 激活函数76

5.4 反向传播80

5.5 更新参数81

5.6 初始化81

5.7神经网络的Python实现82

5.7.1 准备数据82

5.7.2 参数初始化83

5.7.3 前向传播84

5.7.4 交叉熵损失85

5.7.5 反向传播85

5.7.6 更新参数86

5.7.7 构建整个神经网络模型87

5.7.8 训练88

5.7.9 预测88

第6章深层神经网络91

6.1 深层神经网络的优势91

6.2 符号标记93

6.3 前向传播与反向传播93

6.4多分类函数Softmax96

6.4.1 Softmax函数的基本原理96

6.4.2 Softmax损失函数97

6.4.3 对Softmax函数求导97

6.5深层神经网络的Python实现99

6.5.1 准备数据99

6.5.2 参数初始化101

6.5.3 前向传播102

6.5.4 交叉熵损失104

6.5.5 反向传播105

6.5.6 更新参数107

6.5.7 构建整个神经网络108

6.5.8 训练与预测109

第7章优化神经网络112

7.1正则化112

7.1.1 什么是过拟合112

7.1.2 L2正则化和L1正则化115

7.1.3 Dropout正则化117

7.1.4 其他正则化技巧120

7.2梯度优化121

7.2.1 批量梯度下降、随机梯度下降和小批量梯度下降121

7.2.2 动量梯度下降算法124

7.2.3 牛顿动量126

7.2.4 AdaGrad127

7.2.5 RMSprop127

7.2.6 Adam128

7.2.7 学习率衰减129

7.3网络初始化与超参数调试130

7.3.1 输入标准化130

7.3.2 权重参数初始化132

7.3.3 批归一化134

7.3.4 超参数调试136

7.4模型评估与调试138

7.4.1 模型评估138

7.4.2 训练集、验证集和测试集139

7.4.3 偏差与方差141

7.4.4 错误分析141

第8章卷积神经网络144

8.1 为什么选择卷积神经网络144

8.2 卷积神经网络的基本结构145

8.3卷积层145

8.3.1 卷积146

8.3.2 边缘检测147

8.3.3 填充148

8.3.4 步幅149

8.3.5 卷积神经网络卷积150

8.3.6 卷积层的作用153

8.4 池化层153

8.5 全连接层156

8.6 卷积神经网络模型157

8.7典型的卷积神经网络模型158

8.7.1 LeNet-5159

8.7.2 AlexNet159

8.8卷积神经网络模型的PyTorch实现160

8.8.1 准备数据160

8.8.2 定义卷积神经网络模型163

8.8.3 损失函数与梯度优化164

8.8.4 训练模型165

8.8.5 测试模型166

8.9卷积神经网络模型的TensorFlow实现167

8.9.1 准备数据167

8.9.2 定义卷积神经网络模型168

8.9.3 损失函数与优化算法170

8.9.4 训练并测试170

第9章循环神经网络171

9.1 为什么选择循环神经网络171

9.2 循环神经网络的基本结构172

9.3 模型参数173

9.4 梯度消失174

9.5 GRU175

9.6 LSTM176

9.7 多种循环神经网络模型177

9.8循环神经网络模型的PyTorch实现179

9.8.1 准备数据180

9.8.2 定义循环神经网络模型182

9.8.3 损失函数与梯度优化183

9.8.4 训练模型183

9.8.5 测试模型184

9.9循环神经网络模型的TensorFlow实现185

9.9.1 准备数据185

9.9.2 定义循环神经网络模型185

9.9.3 损失函数与优化算法187

9.9.4 训练并测试187

后记188

参考文献189

2020《深度学习入门 基于PYTORCH和TENSORFLOW的理论与实现》由于是年代较久的资料都绝版了,几乎不可能购买到实物。如果大家为了学习确实需要,可向博主求助其电子版PDF文件。对合法合规的求助,我会当即受理并将下载地址发送给你。