![]()
作者简介 迈克尔·尼尔森,计算机科学家、量子物理学家、科普作家,Y Combinator Research的研究Fellow,曾受邀在哈佛大学、斯坦福大学、麻省理工学院、剑桥大学、牛津大学等高校以及谷歌和微软等公司做主题演讲,另著有高分作品《重塑发现》和《量子计算和量子信息》。 目录 前言 第 1章 使用神经网络识别手写数字 1.1 感知机 1.2 sigmoid神经元 1.3 神经网络的架构 1.4 一个简单的神经网络:分类手写数字 1.5 利用梯度下降算法进行学习 1.6 实现分类数字的神经网络 1.7 迈向深度学习 第 2章 反向传播算法工作原理 2.1 热身:使用矩阵快速计算输出 2.2 关于代价函数的两个假设 2.3 阿达马积s⊙t 2.4 反向传播的4个基本方程 2.5 基本方程的证明(选学) 2.6 反向传播算法 2.7 反向传播代码 2.8 就何而言,反向传播算快 2.9 反向传播:全局观 第3章 改进神经网络的学习方法 3.1 交叉熵代价函数 3.1.1 引入交叉熵代价函数 3.1.2 使用交叉熵来对MNIST数字进行分类 3.1.3 交叉熵的含义与起源 3.1.4 softmax 3.2 过拟合和正则化 3.2.1 正则化 3.2.2 为何正则化有助于减轻过拟合 3.2.3 其他正则化技术 3.3 权重初始化 3.4 复探手写识别问题:代码 3.5 如何选择神经网络的超参数 3.6 其他技术 3.6.1 随机梯度下降算法的变化形式 3.6.2 其他人工神经元模型 3.6.3 有关神经网络的故事 第4章 神经网络可以计算任何函数的可视化证明 4.1 两个预先声明 4.2 一个输入和一个输出的普遍性 4.3 多个输入变量 4.4 不止sigmoid神经元 4.5 修补阶跃函数 4.6 小结 第5章 为何深度神经网络很难训练 5.1 梯度消失问题 5.2 梯度消失的原因 5.2.1 为何出现梯度消失 5.2.2 梯度爆炸问题 5.2.3 梯度不稳定问题 5.2.4 梯度消失问题普遍存在 5.3 复杂神经网络中的梯度不稳定 5.4 深度学习的其他障碍 第6章 深度学习 6.1 卷积神经网络入门 6.1.1 局部感受野 6.1.2 共享权重和偏置 6.1.3 池化层 6.2 卷积神经网络的实际应用 6.2.1 使用修正线性单元 6.2.2 扩展训练数据 6.2.3 插入额外的全连接层 6.2.4 集成神经网络 6.3 卷积神经网络的代码 6.4 图像识别领域近期的进展 6.4.1 2012年的LRMD论文 6.4.2 2012年的KSH论文 6.4.3 2014年的ILSVRC竞赛 6.4.4 其他活动 6.5 其他深度学习模型 导语 李航、马少平、邱锡鹏等多位科学家重磅推荐 Michael Nielsen高分深度学习入门讲义正式版 配套动态示例,有助于直观理解神经网络输出。 内容推荐 本书深入讲解神经网络和深度学习技术,侧重于阐释深度学习的核心概念。作者以技术原理为导向,辅以贯穿全书的MNIST手写数字识别项目示例,介绍神经网络架构、反向传播算法、过拟合解决方案、卷积神经网络等内容,以及如何利用这些知识改进深度学习项目。学完本书后,读者将能够通过编写Python代码来解决复杂的模式识别问题。 |