《快乐机器学习》求取 ⇩
作者 | (新加坡)王圣元著 编者 |
---|---|
出版 | 未查询到或未知 |
参考页数 | ✅ 真实服务 非骗流量 ❤️ |
出版时间 | 2020(求助前请核对) 目录预览 |
ISBN号 | 无 — 违规投诉 / 求助条款 |
PDF编号 | 820162558(学习资料 勿作它用) |
求助格式 | 扫描PDF(若分多册发行,每次仅能受理1册) |
第1章机器学习是什么——机器学习定义1
引言2
1.1数据5
1.1.1结构型与非结构型数据5
1.1.2原始数据与加工7
1.1.3样本内数据与样本外数据9
1.2机器学习类别9
1.2.1有监督学习10
1.2.2无监督学习10
1.2.3半监督学习11
1.2.4增强学习11
1.2.5深度学习11
1.2.6迁移学习12
1.3性能度量12
1.3.1误差函数13
1.3.2回归度量14
1.3.3分类度量15
1.4总结19
参考资料20
第2章机器学习可行吗——计算学习理论22
引言23
2.1基础知识25
2.1.1二分类25
2.1.2对分26
2.1.3增长函数29
2.1.4突破点30
2.2核心推导31
2.2.1机器学习可行条件31
2.2.2从已知推未知33
2.2.3从民意调查到机器学习35
2.2.4从单一到有限36
2.2.5从有限到无限37
2.2.6从无限到有限38
2.3结论应用39
2.3.1VC不等式39
2.3.2 VC维度40
2.3.3模型复杂度40
2.3.4样本复杂度41
2.4总结42
参考资料43
技术附录43
第3章机器学习怎么学——模型评估选择47
引言48
3.1模型评估52
3.2训练误差和测试误差52
3.2.1训练误差52
3.2.2真实误差54
3.2.3测试误差57
3.2.4学习理论57
3.3验证误差和交叉验证误差60
3.3.1验证误差60
3.3.2交叉验证误差61
3.3.3学习理论62
3.4误差剖析64
3.4.1误差来源64
3.4.2偏差——方差权衡66
3.5模型选择67
3.6总结70
参考资料71
技术附录71
第4章线性回归73
引言74
4.1基础知识75
4.1.1标量微积分75
4.1.2向量微积分76
4.2模型介绍77
4.2.1核心问题77
4.2.2通用线性回归模型83
4.2.3特征缩放84
4.2.4学习率设定86
4.2.5数值算法比较87
4.2.6代码实现89
4.3总结90
参考资料90
第5章对率回归92
引言93
5.1基础内容94
5.1.1联系函数94
5.1.2函数绘图95
5.2模型介绍96
5.2.1核心问题96
5.2.2查准和查全102
5.2.3类别不平衡104
5.2.4线性不可分105
5.2.5多分类问题106
5.2.6代码实现109
5.3总结110
参考资料111
第6章正则化回归112
引言113
6.1基础知识114
6.1.1等值线图114
6.1.2坐标下降116
6.2模型介绍116
6.2.1核心问题116
6.2.2模型对比122
6.2.3最佳模型125
6.2.4代码实现126
6.3总结126
参考资料127
第7章支持向量机128
引言129
7.1基础知识133
7.1.1向量初体验133
7.1.2拉格朗日量136
7.1.3原始和对偶137
7.2模型介绍138
7.2.1硬间隔SVM原始问题138
7.2.2硬间隔SVM对偶问题144
7.2.3软间隔SVM原始问题148
7.2.4软间隔SVM对偶问题150
7.2.5空间转换151
7.2.6核技巧155
7.2.7核SVM158
7.2.8SMO算法159
7.2.9模型选择161
7.3总结162
参考资料164
技术附录164
第8章朴素贝叶斯170
引言171
8.1基础知识174
8.1.1两种概率学派174
8.1.2两种独立类别174
8.1.3两种学习算法175
8.1.4两种估计方法176
8.1.5两类概率分布177
8.2模型介绍179
8.2.1问题剖析179
8.2.2朴素贝叶斯算法182
8.2.3多元伯努利模型183
8.2.4多项事件模型184
8.2.5高斯判别分析模型184
8.2.6多分类问题186
8.2.7拉普拉斯校正187
8.2.8最大似然估计和最大后验估计188
8.3总结190
参考资料191
技术附录191
第9章决策树195
引言196
9.1基础知识198
9.1.1多数规则198
9.1.2熵和条件熵198
9.1.3信息增益和信息增益比200
9.1.4基尼指数201
9.2模型介绍201
9.2.1二分类决策树201
9.2.2多分类决策树209
9.2.3连续值分裂210
9.2.4欠拟合和过拟合211
9.2.5预修剪和后修剪212
9.2.6数据缺失215
9.2.7代码实现218
9.3总结219
参考资料219
第10章人工神经网络220
引言221
10.1基本知识223
10.1.1转换函数223
10.1.2单输入单层单输出神经网络224
10.1.3多输入单层单输出神经网络224
10.1.4多输入单层多输出神经网络225
10.1.5多输入多层多输出神经网络225
10.2模型应用227
10.2.1创建神经网络模型227
10.2.2回归应用230
10.2.3分类应用238
第11章正向/反向传播246
引言247
11.1基础知识250
11.1.1神经网络元素250
11.1.2链式法则254
11.2算法介绍254
11.2.1正向传播254
11.2.2梯度下降257
11.2.3反向传播258
11.2.4代码实现262
11.3总结268
参考资料268
技术附录269
第12章集成学习272
引言273
12.1结合假设277
12.1.1语文和数学277
12.1.2准确和多样278
12.1.3独裁和民主279
12.1.4学习并结合279
12.2装袋法280
12.2.1基本概念280
12.2.2自助采样280
12.2.3结合假设281
12.3提升法282
12.3.1基本概念282
12.3.2最优加权283
12.3.3结合假设285
12.4集成方式286
12.4.1同质学习器286
12.4.2异质学习器286
12.5总结288
参考资料288
第13章随机森林和提升树289
引言290
13.1基础知识293
13.1.1分类回归树293
13.1.2前向分布算法294
13.1.3置换检验295
13.2模型介绍296
13.2.1随机森林296
13.2.2提升树302
13.2.3代码实现306
13.3总结307
参考资料307
第14章极度梯度提升309
引言310
14.1基础知识311
14.1.1树的重定义311
14.1.2树的复杂度313
14.2模型介绍313
14.2.1XGB简介313
14.2.2 XGB的泛化度314
14.2.3 XGB的精确度315
14.2.4 XGB的速度318
14.2.5代码实现324
14.3总结325
参考资料326
第15章本书总结327
15.1正交策略328
15.2单值评估指标330
15.3偏差和方差332
15.3.1理论定义332
15.3.2实用定义334
15.3.3最优误差335
15.3.4两者权衡336
15.3.5学习曲线336
结语339
2020《快乐机器学习》由于是年代较久的资料都绝版了,几乎不可能购买到实物。如果大家为了学习确实需要,可向博主求助其电子版PDF文件。对合法合规的求助,我会当即受理并将下载地址发送给你。
高度相关资料
- 快乐哲学
- 1993 北京:中国工人出版社
- Python高级机器学习
- 2020
- 全球信息社会发展报告
- 2020 北京:社会科学文献出版社
- 机器学习 第2卷 下
- 1987 人工智能资料中心
- 快快乐乐学DOS
- 1994 北京:电子工业出版社
- 快快乐乐学中文Windows 95
- 1996 北京:清华大学出版社
- 快快乐乐学dBASE
- 1994 北京:电子工业出版社
- 中华学习机机器语言
- 1991 北京:气象出版社
- 快快乐乐学WPS 试用本
- 1994 上海:上海交通大学出版社
- 权力意志 重估一切价值的尝试
- 1991 北京:商务印书馆
提示:百度云已更名为百度网盘(百度盘),天翼云盘、微盘下载地址……暂未提供。➥ PDF文字可复制化或转WORD