图书介绍
机器学习PDF|Epub|txt|kindle电子书版本网盘下载
![机器学习](https://www.shukui.net/cover/47/33360785.jpg)
- 著
- 出版社:
- ISBN:
- 出版时间:未知
- 标注页数:0页
- 文件大小:22MB
- 文件页数:298页
- 主题词:
PDF下载
下载说明
机器学习PDF格式电子书版下载
下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!
(文件页数 要大于 标注页数,上中下等多册电子书除外)
注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具
图书目录
第1章 引言1
1.1 学习问题的标准描述2
1.2 设计一个学习系统3
1.2.1 选择训练经验4
1.2.2 选择目标函数5
1.2.3 选择目标函数的表示6
1.2.4 选择函数逼近算法7
1.2.5 最终设计8
1.3 机器学习的一些观点和问题10
1.4 如何阅读本书11
1.5 小结和补充读物12
习题13
第2章 概念学习和一般到特殊序15
2.1 简介15
2.2 概念学习任务15
2.2.1 术语定义16
2.2.2 归纳学习假设17
2.3 作为搜索的概念学习17
2.4 FIND-S:寻找极大特殊假设19
2.5 变型空间和候选消除算法21
2.5.1 表示21
2.5.2 列表后消除算法21
2.5.3 变型空间的更简洁表示22
2.5.4 候选消除学习算法23
2.5.5 算法的举例24
2.6 关于变型空间和候选消除的说明26
2.6.1 候选消除算法是否会收敛到正确的假设26
2.6.2 下一步需要什么样的训练样例27
2.6.3 怎样使用不完全学习概念27
2.7 归纳偏置28
2.7.1 一个有偏的假设空间28
2.7.2 无偏的学习器29
2.7.3 无偏学习的无用性30
2.8 小结和补充读物32
习题34
第3章 决策树学习38
3.1 简介38
3.2 决策树表示法38
3.3 决策树学习的适用问题39
3.4 基本的决策树学习算法40
3.4.1 哪个属性是最佳的分类属性40
3.4.2 举例43
3.5 决策树学习中的假设空间搜索45
3.6 决策树学习的归纳偏置46
3.6.1 限定偏置和优选偏置46
3.6.2 为什么短的假设优先47
3.7 决策树学习的常见问题48
3.7.1 避免过度拟合数据49
3.7.2 合并连续值属性53
3.7.3 属性选择的其他度量标准53
3.7.4 处理缺少属性值的训练样例54
3.7.5 处理不同代价的属性55
3.8 小结和补充读物56
习题56
第4章 人工神经网络60
4.1 简介60
4.2 神经网络表示61
4.3 适合神经网络学习的问题62
4.4 感知器63
4.4.1 感知器的表征能力63
4.4.2 感知器训练法则64
4.4.3 梯度下降和 delta 法则65
4.4.4 小结69
4.5 多层网络和反向传播算法70
4.5.1 可微阈值单元70
4.5.2 反向传播算法71
4.5.3 反向传播法则的推导74
4.6 反向传播算法的说明76
4.6.1 收敛性和局部极小值76
4.6.2 前馈网络的表征能力77
4.6.3 假设空间搜索和归纳偏置77
4.6.4 隐藏层表示78
4.6.5 泛化、过度拟合和停止判据79
4.7 举例:人脸识别82
4.7.1 任务82
4.7.2 设计要素83
4.7.3 学习到的隐藏层表示85
4.8 人工神经网络的高级课题86
4.8.1 其他可选的误差函数86
4.8.2 其他可选的误差最小化过程87
4.8.3 递归网络87
4.8.4 动态修改网络结构88
4.9 小结和补充读物89
习题90
第5章 评估假设95
5.1 动机95
5.2 估计假设精度95
5.2.1 样本错误率和真实错误率96
5.2.2 离散值假设的置信区间96
5.3 采样理论基础98
5.3.1 错误率估计和二项比例估计98
5.3.2 二项分布99
5.3.3 均值和方差100
5.3.4 估计量、偏差和方差100
5.3.5 置信区间101
5.3.6 双侧和单侧边界103
5.4 推导置信区间的一般方法104
5.5 两个假设错误率间的差异105
5.6 学习算法比较106
5.6.1 配对 t 测试108
5.6.2 实际考虑109
5.7 小结和补充读物109
习题110
第6章 贝叶斯学习112
6.1 简介112
6.2 贝叶斯法则113
6.3 贝叶斯法则和概念学习115
6.3.1 BRUTE-FORCE 贝叶斯概念学习115
6.3.2 MAP 假设和一致学习器117
6.4 极大似然和最小误差平方假设118
6.5 用于预测概率的极大似然假设121
6.6 最小描述长度准则123
6.7 贝叶斯最优分类器125
6.8 GIBBS 算法126
6.9 朴素贝叶斯分类器126
6.10 举例:学习分类文本129
6.11 贝叶斯信念网132
6.11.1 条件独立性132
6.11.2 表示133
6.11.3 推理134
6.11.4 学习贝叶斯信念网134
6.11.5 贝叶斯网的梯度上升训练134
6.11.6 学习贝叶斯网的结构136
6.12 EM 算法136
6.12.1 估计 k 个高斯分布的均值137
6.12.2 EM 算法的一般表述138
6.12.3 k 均值算法的推导139
6.13 小结和补充读物140
习题141
第7章 计算学习理论144
7.1 简介144
7.2 可能学习近似正确假设145
7.2.1 问题框架145
7.2.2 假设的错误率146
7.2.3 PAC 可学习性147
7.3 有限假设空间的样本复杂度148
7.3.1 不可知学习和不一致假设150
7.3.2 布尔文字的合取是 PAC 可学习的151
7.3.3 其他概念类别的 PAC 可学习性152
7.4 无限假设空间的样本复杂度153
7.4.1 打散一个实例集合153
7.4.2 Vapnik-Chervonenkis 维度154
7.4.3 样本复杂度和 VC 维155
7.4.4 神经网络的 VC 维156
7.5 学习的出错界限模型157
7.5.1 FIND-S 算法的出错界限157
7.5.2 HALVING 算法的出错界限158
7.5.3 最优出错界限159
7.5.4 加权多数算法159
7.6 小结和补充读物161
习题162
第8章 基于实例的学习165
8.1 简介165
8.2 k-近邻算法166
8.2.1 距离加权最近邻算法167
8.2.2 对 k-近邻算法的说明168
8.2.3 术语注解169
8.3 局部加权回归169
8.3.1 局部加权线性回归169
8.3.2 局部加权回归的说明170
8.4 径向基函数170
8.5 基于案例的推理172
8.6 对消极学习和积极学习的评论175
8.7 小结和补充读物176
习题177
第9章 遗传算法179
9.1 动机179
9.2 遗传算法179
9.2.1 表示假设181
9.2.2 遗传算子182
9.2.3 适应度函数和假设选择183
9.3 举例184
9.4 假设空间搜索186
9.5 遗传编程188
9.5.1 程序表示188
9.5.2 举例189
9.5.3 遗传编程说明190
9.6 进化和学习模型191
9.6.1 拉马克进化191
9.6.2 鲍德温效应191
9.7 并行遗传算法192
9.8 小结和补充读物192
习题193
第10章 学习规则集合197
10.1 简介197
10.2 序列覆盖算法198
10.2.1 一般到特殊的柱状搜索198
10.2.2 几种变型200
10.3 学习规则集:小结201
10.4 学习一阶规则202
1O.4.1 一阶 Horn 子句203
10.4.2 术语203
10.5 学习一阶规则集:FOIL204
10.5.1 FOIL 中的候选特化式的生成206
10.5.2 引导 FOIL 的搜索206
10.5.3 学习递归规则集208
10.5.4 FOIL 小结208
10.6 作为逆演绎的归纳208
10.7 逆归纳210
10.7.1 一阶归纳212
10.7.2 逆归纳:一阶情况212
10.7.3 逆归纳小结214
10.7.4 泛化、θ-包容和涵蕴214
10.7.5 PROGOL215
10.8 小结和补充读物215
习题217
第11章 分析学习220
11.1 简介220
11.2 用完美的领域理论学习:PROLOG-EBG223
11.3 对基于解释的学习的说明228
11.3.1 发现新特征229
11.3.2 演绎学习230
11.3.3 基于解释的学习的归纳偏置230
11.3.4 知识级的学习231
11.4 搜索控制知识的基于解释的学习232
11.5 小结和补充读物234
习题236
第12章 归纳和分析学习的结合239
12.1 动机239
12.2 学习的归纳-分析途径241
12.2.1 学习问题241
12.2.2 假设空间搜索242
12.3 使用先验知识得到初始假设242
12.3.1 KBANN 算法243
12.3.2 举例243
12.3.3 说明245
12.4 使用先验知识改变搜索目标247
12.4.1 TANGENTPROP 算法248
12.4.2 举例249
12.4.3 说明250
12.4.4 EBNN 算法251
12.4.5 说明254
12.5 使用先验知识来扩展搜索算子255
12.5.1 FOCL 算法255
12.5.2 说明257
12.6 研究现状258
12.7 小结和补充读物258
习题259
第13章 增强学习263
13.1 简介263
13.2 学习任务265
13.3 Q 学习267
13.3.1 Q 函数267
13.3.2 一个学习 Q 的算法268
13.3.3 举例269
13.3.4 收敛性270
13.3.5 实验策略271
13.3.6 更新序列271
13.4 非确定性回报和动作272
13.5 时间差分学习274
13.6 从样例中泛化275
13.7 与动态规划的联系275
13.8 小结和补充读物276
习题277
附录 符号约定281