《TENSORFLOW 2.0深度学习从零开始学》求取 ⇩

第1章TensorFlow 2.0的安装1

1.1Python基本安装和用法1

1.1.1 Anaconda的下载与安装1

1.1.2 Python编译器PyCharm的安装4

1.1.3 使用Python计算softmax函数7

1.2TensorFlow 2.0 GPU版本的安装8

1.2.1 检测Anaconda中的TensorFlow版本8

1.2.2 TensorFlow 2.0 GPU版本基础显卡推荐和前置软件安装9

1.3 Hello TensorFlow 2.012

1.4 本章小结13

第2章TensorFlow 2.0令人期待的变化14

2.1新的架构、新的运行、新的开始14

2.1.1 API精简15

2.1.2 EagerExecution15

2.1.3 取消全局变量15

2.1.4 使用函数而不是会话15

2.1.5 弃用collection16

2.2配角转成主角:从TensorFlow Eager Execution转正谈起16

2.2.1 Eager简介与调用17

2.2.2 读取数据18

2.3使用TensorFlow 2.0模式进行线性回归的一个简单例子20

2.3.1 模型的工具与数据的生成20

2.3.2 模型的定义20

2.3.3 损失函数的定义21

2.3.4 梯度函数的更新计算21

2.4 TensorFlow 2.0进阶——AutoGraph和tf.function23

2.5 本章小结26

第3章TensorFlow和Keras27

3.1 模型!模型!模型!还是模型27

3.2使用Keras API实现鸢尾花分类的例子(顺序模式)28

3.2.1 数据的准备29

3.2.2 数据的处理30

3.2.3 梯度更新函数的写法31

3.2.4 使用Keras函数式编程实现鸢尾花分类的例子(重点)32

3.2.5 使用保存的Keras模式对模型进行复用35

3.2.6 使用TensorFlow 2.0标准化编译对iris模型进行拟合35

3.3多输入单一输出TensorFlow 2.0编译方法(选学)40

3.3.1 数据的获取与处理40

3.3.2 模型的建立41

3.3.3 数据的组合41

3.4 多输入多输出TensorFlow 2.0编译方法(选学)44

3.5全连接层详解46

3.5.1 全连接层的定义与实现46

3.5.2 使用TensorFlow 2.0自带的API实现全连接层47

3.5.3 打印显示TensorFlow 2.0设计的模型结构和参数51

3.6 本章小结53

第4章TensorFlow 2.0语法基础54

4.1 BP神经网络简介54

4.2BP神经网络的两个基础算法58

4.2.1 最小二乘法(LS算法)58

4.2.2 道士下山的故事——梯度下降算法61

4.3反馈神经网络反向传播算法63

4.3.1 深度学习基础63

4.3.2 链式求导法则64

4.3.3 反馈神经网络原理与公式推导66

4.3.4 反馈神经网络原理的激活函数72

4.3.5 反馈神经网络原理的Python实现73

4.4 本章小结78

第5章卷积层与MNIST实战79

5.1卷积运算79

5.1.1 卷积运算的基本概念80

5.1.2 TensorFlow 2.0中卷积函数的实现81

5.1.3 池化运算83

5.1.4 softmax激活函数84

5.1.5 卷积神经网络原理86

5.2TensorFlow 2.0编程实战:MNIST手写体识别89

5.2.1 MNIST数据集89

5.2.2 MNIST数据集特征和标注91

5.2.3 TensorFlow 2.0编程实战:MNIST数据集93

5.2.4 使用自定义的卷积层实现MNIST识别97

5.3 本章小结101

第6章TensorFlow 2.0 Dataset使用详解102

6.1Dataset API基本结构和内容102

6.1.1 Dataset API数据种类103

6.1.2 Dataset API基础使用104

6.2Dataset API高级用法105

6.2.1 Dataset API数据转换方法107

6.2.2 读取图片数据集的例子110

6.3使用TFRecord API创建和使用数据集111

6.3.1 TFRecord的基本概念112

6.3.2 TFRecord的创建113

6.3.3 TFRecord的读取118

6.4TFRecord实战:带有处理模型的完整例子124

6.4.1 创建数据集125

6.4.2 创建解析函数125

6.4.3 创建数据模型126

6.4.4 创建读取函数126

6.5 本章小结128

第7章TersorFlow Datasets和TensorBoard详解129

7.1TensorFlow Datasets简介129

7.1.1 Datasets数据集的安装131

7.1.2 Datasets数据集的使用131

7.2Datasets数据集的使用——FashionMNIST133

7.2.1 FashionMNIST数据集下载与显示134

7.2.2 模型的建立与训练136

7.3使用Keras对FashionMNIST数据集进行处理138

7.3.1 获取数据集138

7.3.2 数据集的调整139

7.3.3 使用Python类函数建立模型139

7.3.4 模型的查看和参数的打印141

7.3.5 模型的训练和评估142

7.4使用TensorBoard可视化训练过程144

7.4.1 TensorBoard的文件夹设置145

7.4.2 显式地调用TensorBoard146

7.4.3 使用TensorBoard148

7.5 本章小结152

第8章从冠军开始:ResNet153

8.1ResNet基础原理与程序设计基础153

8.1.1 ResNet诞生的背景154

8.1.2 模块工具的TensorFlow实现——不要重复发明轮子157

8.1.3 TensorFlow高级模块layers的用法157

8.2ResNet实战:CIFAR-100数据集分类165

8.2.1 CIFAR-100数据集165

8.2.2 ResNet残差模块的实现168

8.2.3 ResNet网络的实现170

8.2.4 使用ResNet对CIFAR-100数据集进行分类173

8.3ResNet的兄弟——ResNeXt175

8.3.1 ResNeXt诞生的背景175

8.3.2 ResNeXt残差模块的实现177

8.3.3 ResNeXt网络的实现178

8.3.4 ResNeXt和ResNet的比较180

8.4 本章小结180

第9章注意力机制181

9.1 何为“注意力”181

9.2注意力机制的两种常见形式182

9.2.1 Hard Attention(硬性注意力)183

9.2.2 Soft Attention(软性注意力)183

9.3注意力机制的两种实现形式183

9.3.1 Spatial Attention(空间注意力)184

9.3.2 Channel Attention(通道注意力)185

9.4注意力机制的两种经典模型186

9.4.1 最后的冠军——SENet186

9.4.2 结合Spatial和Channel的CBAM模型189

9.4.3 注意力的前沿研究——基于细粒度的图像注意力机制194

9.5 本章小结196

第10章卷积神经网络实战:识文断字也可以197

10.1文本数据处理198

10.1.1 数据集介绍和数据清洗198

10.1.2 停用词的使用201

10.1.3 词向量训练模型word2vec的使用203

10.1.4 文本主题的提取:基于TF-IDF(选学)207

10.1.5 文本主题的提取:基于TextRank(选学)211

10.2针对文本的卷积神经网络模型——字符卷积214

10.2.1 字符(非单词)文本的处理214

10.2.2 卷积神经网络文本分类模型的实现——Conv1D(一维卷积)222

10.3针对文本的卷积神经网络模型——词卷积224

10.3.1 单词的文本处理224

10.3.2 卷积神经网络文本分类模型的实现——Conv2D(二维卷积)227

10.4使用卷积对文本分类的补充内容230

10.4.1 汉字的文本处理230

10.4.2 其他的细节233

10.5 本章小结233

2020《TENSORFLOW 2.0深度学习从零开始学》由于是年代较久的资料都绝版了,几乎不可能购买到实物。如果大家为了学习确实需要,可向博主求助其电子版PDF文件。对合法合规的求助,我会当即受理并将下载地址发送给你。