网站首页  软件下载  游戏下载  翻译软件  电子书下载  电影下载  电视剧下载  教程攻略

请输入您要查询的图书:

 

书名 人工智能实践教程 从Python入门到机器学习
分类 教育考试-大中专教材-大学教材
作者 邵一川,赵骞,李常迪
出版社 电子工业出版社
下载
简介
内容推荐
本书分为三部分,第一部分介绍Python编程,包括Python基础、Python面向对象和Python高级编程;第二部分介绍机器学习,包括机器学习概述、机器学习-经典算法和机器学习-回归算法;第三部分介绍神经网络,包括从感知机到神经网络、神经网络-反向传播算法、神经网络的训练方法、卷积神经网络和项目实例-表情识别。从模型构造到模型训练,本书全面介绍了人工智能相关内容及人工智能在计算机视觉、自然语言处理中的应用,不仅阐述算法原理,还基于Python语言实现了算法。本书的每个知识点都给出了与之对应的程序,读者不但能直接阅读,而且可以运行程序,以获得交互式的学习体验。本书面向希望了解人工智能,特别是对实际应用人工智能感兴趣的本科生、研究生、工程师和研究人员,可作为高等院校人工智能课程的教材。
目录
第一部分 Python编程
第1章 Python基础\t3
1.1 Python简介及开发环境搭建\t3
1.1.1 Python的安装\t3
1.1.2 集成开发环境\t4
1.2 Python变量标识符和关键字\t7
1.2.1 变量定义\t7
1.2.2 变量的类型\t8
1.2.3 变量的命名\t11
1.3 Python运算符\t13
1.3.1 算术运算符\t13
1.3.2 比较(关系)运算符\t13
1.3.3 逻辑运算符\t14
1.3.4 赋值运算符\t14
1.3.5 运算符的优先级\t14
1.4 Python分支与循环\t15
1.4.1 条件语句\t15
1.4.2 循环语句\t17
1.4.3 随机数的处理\t21
1.5 Python函数\t22
1.5.1 函数定义\t23
1.5.2 函数的参数\t24
1.5.3 函数的返回值\t25
1.5.4 函数作用域\t26
1.5.5 匿名函数\t27
1.5.6 内置函数\t28
1.5.7 函数式编程\t31
1.5.8 将函数存储在模块中\t33
1.5.9 函数文档字符串\t35
第2章 Python面向对象\t36
2.1 面向对象基本特征\t36
2.2 类的定义\t37
2.2.1 定义只包含方法的类\t37
2.2.2 面向对象程序举例\t37
2.3 self参数\t37
2.3.1 给对象设置属性\t38
2.3.2 理解self参数到底是什么\t38
2.4 __init__方法\t38
2.5 __str__方法\t39
2.6 面向过程和面向对象\t40
2.7 私有属性――封装\t43
2.8 将实例用作属性-对象组合\t43
2.9 类属性、类方法、静态方法\t46
2.10 继承\t49
2.11 __new__方法\t52
2.12 所有Python类型的父类\t53
2.13 单例模式\t54
2.14 参数注解\t54
第3章 Python高级编程\t56
3.1 Python闭包和装饰器\t56
3.1.1 闭包\t56
3.1.2 装饰器\t57
3.1.3 被装饰的函数有返回值\t60
3.1.4 装饰器带参数\t61
3.1.5 多个装饰器装饰同一个函数\t62
3.1.6 基于类实现的装饰器\t63
3.2 Python可迭代对象、迭代器及生成器\t64
3.2.1 可迭代对象\t65
3.2.2 迭代器\t68
3.2.3 生成器\t71
3.3 Python内置方法\t78
3.3.1 构造和初始化\t78
3.3.2 属性访问控制\t79
3.3.3 描述符\t79
3.3.4 构造自定义容器(Container)\t83
3.3.5 上下文管理器\t84
3.3.6 比较运算\t87
3.3.7 __str__和__repr__方法\t89
3.3.8 内置方法之__call__\t92
第二部分 机器学习
第4章 机器学习概述\t95
4.1 机器学习分类\t95
4.2 常用的机器学习算法\t96
4.3 机器学习的步骤\t97
4.3.1 问题定义\t97
4.3.2 数据采集\t98
4.3.3 数据准备\t98
4.3.4 数据分割\t99
4.3.5 算法的选择与训练\t99
4.3.6 算法的使用\t100
第5章 机器学习?经典算法\t110
5.1 主成分分析\t110
5.1.1 主成分分析简介\t110
5.1.2 使用梯度上升法实现主成分分析\t113
5.1.3 选取数据的前k个主成分\t117
5.1.4 高维数据向低维数据映射\t120
5.1.5 使用主成分分析对数据进行降维可视化\t125
5.2 K-Means算法\t128
5.2.1 K-Means算法原理\t129
5.2.2 K-Means程序实例\t131
5.2.3 MiniBatch算法\t133
5.2.4 K-Means 算法分析\t134
5.3 KNN算法\t138
5.3.1 KNN算法的原理\t138
5.3.2 KNN算法程序实例\t138
5.4 梯度下降法\t140
5.4.1 一维梯度下降法\t140
5.4.2 多维梯度下降法\t141
第6章 机器学习?回归算法\t144
6.1 线性回归\t144
6.1.1 线性回归简介\t144
6.1.2 简单线性回归的最小二乘法推导过程\t145
6.1.3 衡量线性回归的指标\t150
6.1.4 多元线性回归简介\t157
6.2 多项式回归\t161
6.2.1 多项式回归的概念\t161
6.2.2 scikit-learn中的多项式回归和Pipeline\t165
6.2.3 过拟合和欠拟合\t166
6.2.4 训练数据和测试数据\t170
6.2.5 学习曲线\t172
6.2.6 交叉验证\t175
6.2.7 模型正则化\t179
6.2.8 岭回归和 LASSO 回归\t179
第三部分 神经网络
第7章 从感知机到神经网络\t189
7.1 感知机\t189
7.1.1 简单逻辑电路\t190
7.1.2 感知机的实现\t191
7.1.3 感知机的局限性\t193
7.1.4 多层感知机\t195
7.2 神经网络\t197
7.2.1 神经网络举例\t197
7.2.2 感知机知识回顾\t197
7.2.3 激活函数初探\t198
7.3 激活函数\t199
7.3.1 阶跃函数\t199
7.3.2 Sigmoid函数\t199
7.3.3 阶跃函数的实现\t200
7.3.4 Sigmoid函数的实现\t201
7.3.5 比较Sigmoid函数和阶跃函数\t202
7.3.6 ReLU函数\t203
7.4 多维数组的运算\t204
7.4.1 多维数组\t204
7.4.2 矩阵乘法\t205
7.4.3 神经网络乘积\t207
7.5 神经网络的实现\t208
7.5.1 符号确认\t209
7.5.2 各层间信号传递的实现\t209
7.5.3 代码实现小结\t212
7.6 输出层的设计\t213
7.6.1 恒等函数和Softmax函数\t213
7.6.2 实现Softmax函数的注意事项\t214
7.6.3 Softmax函数的性质\t215
7.6.4 输出层的神经元数量\t216
7.7 手写数字识别\t216
7.7.1 MNIST数据集\t216
7.7.2 神经网络的推理处理\t218
7.7.3 批处理\t220
第8章 神经网络-反向传播算法\t222
8.1 计算图\t222
8.1.1 用计算图求解\t222
8.1.2 局部计算\t223
8.1.3 为何用计算图解决问题\t224
8.2 链式法则\t225
8.2.1 计算图的反向传播\t225
8.2.2 链式法则的原理\t225
8.2.3 链式法则和计算图\t226
8.3 反向传播\t227
8.3.1 加法节点的反向传播\t227
8.3.2 乘法节点的反向传播\t229
8.3.3 “苹果”的例子\t230
8.4 简单层的实现\t230
8.4.1 乘法层的实现\t231
8.4.2 加法层的实现\t232
8.5 激活函数层的实现\t233
8.5.1 ReLU层的实现\t233
8.5.2 Sigmoid层的实现\t234
8.6 Affine层和Softmax 层的实现\t237
8.6.1 Affine层的实现\t237
8.6.2 Softmax层的实现\t240
8.7 误差反向传播的实现\t242
8.7.1 神经网络的实现步骤\t242
8.7.2 误差反向传播的神经网络的实现\t242
8.7.3 误差反向传播的梯度确认\t245
8.7.4 误差反向传播的神经网络的学习\t246
第9章 神经网络的训练方法\t247
9.1 参数的更新\t247
9.1.1 很优化问题的困难之处\t247
9.1.2 随机梯度下降\t247
9.1.3 Momentum方法\t250
9.1.4 AdaGrad方法\t251
9.1.5 Adam方法\t253
9.1.6 选择参数更新方法\t253
9.2 权重初始值\t255
9.2.1 可以将权重初始值设为0吗\t255
9.2.2 隐藏层的激活值分布\t255
9.2.3 ReLU的权重初始值\t258
9.2.4 基于MNIST数据集的不同权重初始值的比较\t259
9.3 BatchNormalization算法\t260
9.3.1 算法原理\t260
9.3.2 算法评估\t261
9.4 正则化\t263
9.4.1 过拟合\t263
9.4.2 权重衰减\t264
9.4.3 Dropout方法\t265
9.5 超参数的验证\t267
9.5.1 验证数据\t267
9.5.2 超参数的很优化\t268
9.5.3 超参数很优化的实现\t269
第10章 卷积神经网络\t271
10.1 整体结构\t271
10.2 卷积层\t272
10.2.1 全连接层存在的问题\t272
10.2.2 卷积运算\t272
10.2.3 填充\t274
10.2.4 步幅\t275
10.2.5 3维数据的卷积运算\t276
10.2.6 批处理\t278
10.3 池化层\t279
10.4 卷积层和池化层的实现\t281
10.4.1 问题简化\t281
10.4.2 卷积层的实现\t283
10.4.3 池化层的实现\t284
10.5 卷积神经网络的实现\t286
10.6 卷积神经网络的可视化\t289
10.6.1 卷积层权重的可视化\t289
10.6.2 基于分层结构的信息提取\t290
10.7 具有代表性的卷积神经网络\t291
第11章 项目实例-表情识别\t293
11.1 典型的人脸表情识别数据集fer2013\t293
11.1.1 fer2013人脸表情数据集简介\t293
11.1.2 将表情图片提取出来\t294
11.2 加载fer2013数据集\t296
11.3 断点续训\t298
11.3.1 Checkpoint神经网络模型\t298
11.3.2 Checkpoint神经网络模型改进\t298
11.3.3 Checkpoint很好神经网络模型\t300
11.3.4 加载Checkpoint神经网络模型\t301
11.4 表情识别的PyTorch实现\t303
11.4.1 数据整理\t303
11.4.2 简单分析\t304
11.4.3 数据增强处理 304
11.4.4 模型搭建\t305
11.4.5 对比几种模型的训练过程\t306
随便看

 

霍普软件下载网电子书栏目提供海量电子书在线免费阅读及下载。

 

Copyright © 2002-2024 101bt.net All Rights Reserved
更新时间:2025/2/23 5:04:56