《TENSORFLOW 2.0卷积神经网络实战》求取 ⇩

第1章Python和TensorFlow 2.0的安装1

1.1Python基本安装和用法1

1.1.1 Anaconda的下载与安装2

1.1.2 Python编译器PyCharm的安装5

1.1.3 使用Python计算softmax函数8

1.2TensorFlow 2.0 GPU版本的安装9

1.2.1 检测Anaconda中的TensorFlow版本9

1.2.2 TensorFlow 2.0 GPU版本基础显卡推荐和前置软件安装10

1.3 Hello TensorFlow13

1.4 本章小结14

第2章简化代码的复杂性:TensorFlow 2.0基础与进阶15

2.1配角转成主角——从TensorFlow Eager Execution转正谈起16

2.1.1 Eager简介与调用16

2.1.2 读取数据18

2.1.3 使用TensorFlow 2.0模式进行线性回归的一个简单的例子20

2.2Hello TensorFlow&Keras22

2.2.1 MODEL!MODEL!MODEL!还是MODEL23

2.2.2 使用Keras API实现鸢尾花分类的例子(顺序模式)24

2.2.3 使用Keras函数式编程实现鸢尾花分类的例子(重点)27

2.2.4 使用保存的Keras模式对模型进行复用30

2.2.5 使用TensorFlow 2.0标准化编译对Iris模型进行拟合31

2.2.6 多输入单一输出TensorFlow 2.0编译方法(选学)35

2.2.7 多输入多输出TensorFlow 2.0编译方法(选学)39

2.3全连接层详解41

2.3.1 全连接层的定义与实现41

2.3.2 使用TensorFlow 2.0自带的API实现全连接层43

2.3.3 打印显示TensorFlow 2.0设计的Model结构和参数46

2.4 本章小结48

第3章TensorFlow 2.0语法基础49

3.1 BP神经网络简介49

3.2BP神经网络两个基础算法详解53

3.2.1 最小二乘法(LS算法)详解53

3.2.2 道士下山的故事——梯度下降算法56

3.3反馈神经网络反向传播算法介绍59

3.3.1 深度学习基础59

3.3.2 链式求导法则61

3.3.3 反馈神经网络原理与公式推导62

3.3.4 反馈神经网络原理的激活函数68

3.3.5 反馈神经网络原理的Python实现70

3.4 本章小结74

第4章卷积层详解与MNIST实战75

4.1卷积运算基本概念75

4.1.1 卷积运算76

4.1.2 TensorFlow 2.0中卷积函数实现详解78

4.1.3 池化运算80

4.1.4 softmax激活函数81

4.1.5 卷积神经网络原理83

4.2Tensor.Flow 2.0编程实战——MNIST手写体识别86

4.2.1 MNIST数据集86

4.2.2 MNIST数据集特征和标签介绍88

4.2.3 TensorFlow 2.0编程实战MNIST数据集90

4.2.4 使用自定义的卷积层实现MNIST识别95

4.3 本章小结98

第5章TensorFlow 2.0 Dataset使用详解99

5.1Dataset API基本结构和内容99

5.1.1 Dataset API数据种类100

5.1.2 Dataset API基础使用101

5.2Dataset API高级用法102

5.2.1 Dataset API数据转换方法104

5.2.2 一个读取图片数据集的例子108

5.3使用TFRecord API创建和使用数据集108

5.3.1 TFRecord详解109

5.3.2 TFRecord的创建111

5.3.3 TFRecord的读取115

5.4TFRecord实战——带有处理模型的完整例子121

5.4.1 创建数据集121

5.4.2 创建解析函数122

5.4.3 创建数据模型123

5.4 本章小结124

第6章从冠军开始:ResNet125

6.1ResNet基础原理与程序设计基础125

6.1.1 ResNet诞生的背景126

6.1.2 模块工具的TensorFlow实现——不要重复造轮子129

6.1.3 TensorFlow高级模块layers用法简介129

6.2ResNet实战CIFAR-100数据集分类137

6.2.1 CIFAR-100数据集简介137

6.2.2 ResNet残差模块的实现140

6.2.3 ResNet网络的实现142

6.2.4 使用ResNet对CIFAR-100进行分类145

6.3ResNet的兄弟——ResNeXt147

6.3.1 ResNeXt诞生的背景147

6.3.2 ResNeXt残差模块的实现149

6.3.3 ResNeXt网络的实现150

6.3.4 ResNeXt和ResNet的比较151

6.4其他的卷积神经模型简介152

6.4.1 SqueezeNet模型简介153

6.4.2 Xception模型简介155

6.5 本章小结156

第7章Attention is all we need!157

7.1简单的理解注意力机制158

7.1.1 何为“注意力”158

7.1.2 “hard or soft?”——注意力机制的两种常见形式159

7.1.3 “Spatial and Channel!”——注意力机制的两种实现形式160

7.2SENet和CBAM注意力机制的经典模型163

7.2.1 最后的冠军——SENet163

7.2.2 结合了Spatial和Channel的CBAM模型166

7.2.3 注意力的前沿研究——基于细粒度的图像注意力机制171

7.3 本章小结173

第8章卷积神经网络实战:识文断字我也可以174

8.1文本数据处理175

8.1.1 数据集介绍和数据清洗175

8.1.2 停用词的使用177

8.1.3 词向量训练模型word2vec使用介绍180

8.1.4 文本主题的提取——基于TF-IDF(选学)183

8.1.5 文本主题的提取——基于TextRank(选学)187

8.2针对文本的卷积神经网络模型简介——字符卷积190

8.2.1 字符(非单词)文本的处理191

8.2.2 卷积神经网络文本分类模型的实现——Conv1D(一维卷积)199

8.3针对文本的卷积神经网络模型简介——词卷积201

8.3.1 单词的文本处理201

8.3.2 卷积神经网络文本分类模型的实现——Conv2D(二维卷积)203

8.4使用卷积对文本分类的补充内容207

8.4.1 汉字的文本处理207

8.4.2 其他的一些细节210

8.5 本章小结211

2020《TENSORFLOW 2.0卷积神经网络实战》由于是年代较久的资料都绝版了,几乎不可能购买到实物。如果大家为了学习确实需要,可向博主求助其电子版PDF文件。对合法合规的求助,我会当即受理并将下载地址发送给你。

高度相关资料

神经网络与模糊控制(1998 PDF版)
神经网络与模糊控制
1998 北京:清华大学出版社
深度学习快速实践:基于TENSORFLOW和KERAS的深度神经网络优化与训练(2020 PDF版)
深度学习快速实践:基于TENSORFLOW和KERAS的深度神经网络优化与训练
2020
神经网络实现技术(1998 PDF版)
神经网络实现技术
1998 长沙:国防科技大学出版社
信息高速公路上宽带业务的灵魂 视频点播 VOD(1998 PDF版)
信息高速公路上宽带业务的灵魂 视频点播 VOD
1998 北京:海洋出版社
现代神经网络应用(1996 PDF版)
现代神经网络应用
1996 北京:电子工业出版社
人工神经网络(1992 PDF版)
人工神经网络
1992 北京:高等教育出版社
神经网络应用技术(1993 PDF版)
神经网络应用技术
1993 长沙:国防科技大学出版社
数学建模优秀案例选编(1998 PDF版)
数学建模优秀案例选编
1998 广州:华南理工大学出版社
神经网络及其应用(1992 PDF版)
神经网络及其应用
1992 合肥:中国科学技术大学出版社
神经网络及其应用(1993 PDF版)
神经网络及其应用
1993 西安:西安交通大学出版社
神经网络计算(1993 PDF版)
神经网络计算
1993 西安:西安电子科技大学出版社
神经网络的应用与实现(1993 PDF版)
神经网络的应用与实现
1993 西安:西安电子科技大学出版社
神经网络与神经计算机导论(1994 PDF版)
神经网络与神经计算机导论
1994 西安:西北工业大学出版社
多媒体技术基础及应用(1999 PDF版)
多媒体技术基础及应用
1999 西安:西北工业大学出版社
神经网络模型(1995 PDF版)
神经网络模型
1995 大连:大连理工大学出版社