图书介绍

神经网络与机器学习 原书第3版PDF|Epub|txt|kindle电子书版本网盘下载

神经网络与机器学习 原书第3版
  • (加)海金著 著
  • 出版社: 北京:机械工业出版社
  • ISBN:9787111324133
  • 出版时间:2011
  • 标注页数:572页
  • 文件大小:64MB
  • 文件页数:594页
  • 主题词:人工神经-神经网络;机器学习

PDF下载


点此进入-本书在线PDF格式电子书下载【推荐-云解压-方便快捷】直接下载PDF格式图书。移动端-PC端通用
种子下载[BT下载速度快]温馨提示:(请使用BT下载软件FDM进行下载)软件下载地址页直链下载[便捷但速度慢]  [在线试读本书]   [在线获取解压码]

下载说明

神经网络与机器学习 原书第3版PDF格式电子书版下载

下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。

建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!

(文件页数 要大于 标注页数,上中下等多册电子书除外)

注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具

图书目录

第0章 导言1

0.1什么是神经网络1

0.2人类大脑4

0.3神经元模型7

0.4被看作有向图的神经网络10

0.5反馈11

0.6网络结构13

0.7知识表示14

0.8学习过程20

0.9学习任务22

0.10结束语27

注释和参考文献27

第1章Rosenblatt感知器28

1.1引言28

1.2感知器28

1.3感知器收敛定理29

1.4高斯环境下感知器与贝叶斯分类器的关系33

1.5计算机实验:模式分类36

1.6批量感知器算法38

1.7小结和讨论39

注释和参考文献39

习题40

第2章 通过回归建立模型28

2.1引言41

2.2线性回归模型:初步考虑41

2.3参数向量的最大后验估计42

2.4正则最小二乘估计和MAP估计之间的关系46

2.5计算机实验:模式分类47

2.6最小描述长度原则48

2.7固定样本大小考虑50

2.8工具变量方法53

2.9小结和讨论54

注释和参考文献54

习题55

第3章 最小均方算法56

3.1引言56

3.2 LMS算法的滤波结构56

3.3无约束最优化:回顾58

3.4维纳滤波器61

3.5最小均方算法63

3.6用马尔可夫模型来描画 LMS算法和维纳滤波器的偏差64

3.7朗之万方程:布朗运动的特点65

3.8 Kushner直接平均法66

3.9小学习率参数下统计LMS学习理论67

3.10计算机实验I:线性预测68

3.11计算机实验Ⅱ:模式分类69

3.12 LMS算法的优点和局限71

3.13学习率退火方案72

3.14小结和讨论73

注释和参考文献74

习题74

第4章 多层感知器77

4.1引言77

4.2一些预备知识78

4.3批量学习和在线学习79

4.4反向传播算法81

4.5异或问题89

4.6改善反向传播算法性能的试探法90

4.7计算机实验:模式分类94

4.8反向传播和微分95

4.9 Hessian矩阵及其在在线学习中的规则96

4.10学习率的最优退火和自适应控制98

4.11泛化102

4.12函数逼近104

4.13交叉验证107

4.14复杂度正则化和网络修剪109

4.15反向传播学习的优点和局限113

4.16作为最优化问题看待的监督学习117

4.17卷积网络126

4.18非线性滤波127

4.19小规模和大规模学习问题131

4.20小结和讨论136

注释和参考文献137

习题138

第5章 核方法和径向基函数网络144

5.1引言144

5.2模式可分性的Cover定理144

5.3插值问题148

5.4径向基函数网络150

5.5 K-均值聚类152

5.6权向量的递归最小二乘估计153

5.7 RBF网络的混合学习过程156

5.8计算机实验:模式分类157

5.9高斯隐藏单元的解释158

5.10核回归及其与RBF网络的关系160

5.11小结和讨论162

注释和参考文献164

习题165

第6章 支持向量机168

6.1引言168

6.2线性可分模式的最优超平面168

6.3不可分模式的最优超平面173

6.4使用核方法的支持向量机176

6.5支持向量机的设计178

6.6 XOR问题179

6.7计算机实验:模式分类181

6.8回归:鲁棒性考虑184

6.9线性回归问题的最优化解184

6.10表示定理和相关问题187

6.11小结和讨论191

注释和参考文献192

习题193

第7章 正则化理论197

7.1引言197

7.2良态问题的Hadamard条件198

7.3 Tikhonov正则化理论198

7.4正则化网络205

7.5广义径向基函数网络206

7.6再论正则化最小二乘估计209

7.7对正则化的附加要点211

7.8正则化参数估计212

7.9半监督学习215

7.10流形正则化:初步的考虑216

7.11可微流形217

7.12广义正则化理论220

7.13光谱图理论221

7.14广义表示定理222

7.15拉普拉斯正则化最小二乘算法223

7.16用半监督学习对模式分类的实验225

7.17小结和讨论227

注释和参考文献228

习题229

第8章 主分量分析232

8.1引言232

8.2自组织原则232

8.3自组织的特征分析235

8.4主分量分析:扰动理论235

8.5基于Hebb的最大特征滤波器241

8.6基于Hebb的主分量分析247

8.7计算机实验:图像编码251

8.8核主分量分析252

8.9自然图像编码中的基本问题256

8.10核Hebb算法257

8.11小结和讨论260

注释和参考文献262

习题264

第9章 自组织映射268

9.1引言268

9.2两个基本的特征映射模型269

9.3自组织映射270

9.4特征映射的性质275

9.5计算机实验I:利用SOM解网格动力学问题280

9.6上下文映射281

9.7分层向量量化283

9.8核自组织映射285

9.9计算机实验Ⅱ:利用核SOM解点阵动力学问题290

9.10核SOM和相对熵之间的关系291

9.11小结和讨论293

注释和参考文献294

习题295

第10章 信息论学习模型299

10.1引言299

10.2熵300

10.3最大熵原则302

10.4互信息304

10.5相对熵306

10.6系词308

10.7互信息作为最优化的目标函数310

10.8最大互信息原则311

10.9最大互信息和冗余减少314

10.10空间相干特征316

10.11空间非相干特征318

10.12独立分量分析320

10.13自然图像的稀疏编码以及与ICA编码的比较324

10.14独立分量分析的自然梯度学习326

10.15独立分量分析的最大似然估计332

10.16盲源分离的最大熵学习334

10.17独立分量分析的负熵最大化337

10.18相关独立分量分析342

10.19速率失真理论和信息瓶颈347

10.20数据的最优流形表达350

10.21计算机实验:模式分类354

10.22小结和讨论354

注释和参考文献356

习题361

第11章 植根于统计力学的随机方法366

11.1引言366

11.2统计力学367

11.3马尔可夫链368

11.4 Metropolis算法374

11.5模拟退火375

11.6 Gibbs抽样377

11.7 Boltzmann机378

11.8 logistic信度网络382

11.9深度信度网络383

11.10确定性退火385

11.11和EM算法的类比389

11.12小结和讨论390

注释和参考文献390

习题392

第12章 动态规划396

12.1引言396

12.2马尔可夫决策过程397

12.3 Bellman最优准则399

12.4策略迭代401

12.5值迭代402

12.6逼近动态规划:直接法406

12.7时序差分学习406

12.8 Q-学习410

12.9逼近动态规划:非直接法412

12.10最小二乘策略评估414

12.11逼近策略迭代417

12.12小结和讨论419

注释和参考文献421

习题422

第13章 神经动力学425

13.1引言425

13.2动态系统426

13.3平衡状态的稳定性428

13.4 吸引子432

13.5神经动态模型433

13.6作为递归网络范例的吸引子操作435

13.7 Hopfield模型435

13.8 Cohen-Grossberg定理443

13.9盒中脑状态模型445

13.10奇异吸引子和混沌448

13.11混沌过程的动态重构452

13.12小结和讨论455

注释和参考文献457

习题458

第14章 动态系统状态估计的贝叶斯滤波461

14.1引言461

14.2状态空间模型462

14.3卡尔曼滤波器464

14.4发散现象及平方根滤波469

14.5扩展的卡尔曼滤波器474

14.6贝叶斯滤波器477

14.7数值积分卡尔曼滤波器:基于卡尔曼滤波器480

14.8粒子滤波器484

14.9计算机实验:扩展的卡尔曼滤波器和粒子滤波器对比评价490

14.10大脑功能建模中的卡尔曼滤波493

14.11小结和讨论494

注释和参考文献496

习题497

第15章 动态驱动递归网络501

15.1引言501

15.2递归网络体系结构502

15.3通用逼近定理505

15.4 可控性和可观测性507

15.5递归网络的计算能力510

15.6学习算法511

15.7通过时间的反向传播512

15.8实时递归学习515

15.9递归网络的消失梯度519

15.10利用非线性逐次状态估计的递归网络监督学习框架521

15.11计算机实验:Mackay-Glass吸引子的动态重构526

15.12自适应考虑527

15.13实例学习:应用于神经控制的模型参考529

15.14小结和讨论530

注释和参考文献533

习题534

参考文献538

热门推荐