网站首页  软件下载  游戏下载  翻译软件  电子书下载  电影下载  电视剧下载  教程攻略

请输入您要查询的图书:

 

书名 Python深度学习
分类
作者 (印)尼基尔·盖德卡尔
出版社 清华大学出版社
下载
简介
内容推荐
尼基尔·盖德卡尔著的《Python深度学习》详细阐述了与Python深度学习相关的基本解决方案,主要包括深度学习介绍、机器学习基础、前馈神经网络、Theano介绍、卷积神经网络、递归神经网络、Keras介绍、随机梯度下降、自动求导、GPU介绍等内容。此外,本书还提供了丰富的示例及代码,帮助读者进一步理解相关方案的实现过程。
本书既适合作为高等院校计算机及相关专业的教材和教学参考书,也可作为相关开发人员的自学教材和参考手册。
目录
第1章 深度学习介绍
1.1 历史背景
1.2 相关领域的进展
1.3 先决条件
1.4 后续章节概述
1.5 安装所需函数库
第2章 机器学习基础
2.1 直觉
2.2 二元分类
2.3 回归
2.4 泛化
2.5 正规化
2.6 总结
第3章 前馈神经网络
3.1 单元
3.1.1 神经网络的整体结构
3.1.2 用向量形式表示神经网络
3.1.3 评估神经网络的输出
3.1.4 神经网络训练
3.2 使用极大似然估计成本函数
3.2.1 二元交叉熵
3.2.2 交叉熵
3.2.3 平方差
3.2.4 损失函数总结
3.3 单元/激活函数/层的类型
3.3.1 线性单元
3.3.2 Sigmoid单元
3.3.3 Softmax层
3.3.4 线性整流函数
3.3.5 双曲正切
3.4 用AutoGrad手写神经网络
3.5 总结
第4章 Theano介绍
4.1 什么是Theano
4.2 上手Theano
4.3 总结
第5章 卷积神经网络
5.1 卷积操作
5.2 池化操作
5.3 卷积-探测-池化
5.4 其他卷积
5.5 CNN背后的直觉
5.6 总结
第6章 递归神经网络
6.1 RNN基础
6.2 训练RNN
6.3 双向RNN
6.4 梯度爆炸和梯度消失
6.5 梯度削减
6.6 长短期记忆
6.7 总结
第7章 Keras介绍
7.1 单层神经网络
7.2 两层神经网络
7.2.1 用于多元分类的两层神经网络
7.2.2 两层神经网络的回归
7.3 Keras快速迭代
7.3.1 使用Keras构建卷积神经网络(CNN)
7.3.2 使用Keras构建LSTM
7.4 总结
第8章 随机梯度下降
8.1 优化问题
8.2 最速下降的方法
8.3 批量,随机(单例和迷你批)下降
8.3.1 批量
8.3.2 随机单例
8.3.3 随机迷你批
8.3.4 批量VS随机
8.4 SGD的挑战
8.4.1 局部最小值
8.4.2 鞍点
8.4.3 选择学习速率
8.4.4 窄谷中进展缓慢
8.5 SGD的算法变体
8.5.1 动量
8.5.2 Nesterov加速梯度(NAS)
8.5.3 退火和学习速率计划
8.5.4 Adagrad
8.5.5 RMSProp
8.5.6 Adadelta
8.5.7 Adam
8.5.8 弹性反向传播
8.5.9 平衡SGD
8.6 使用SGD的技巧和提示
8.6.1 输入数据预处理
8.6.2 激活函数的选择
8.6.3 预处理目标值
8.6.4 参数初始化
8.6.5 打散数据
8.6.6 批标准化
8.6.7 提前停止
8.6.8 梯度噪声
8.7 并行和分布式SGD
8.7.1 Hogwild
8.7.2 Downpour
8.8 用Downhill动手实践SGD
8.9 总结
第9章 自动求导
9.1 数值求导
9.2 符号求导
9.3 自动求导基础
9.3.1 正向/正切线性模型
9.3.2 反向/余切/伴随线性模式
9.3.3 自动求导实现
9.4 源代码转换
9.5 运算符重载
9.6 用Autograd实现自动求导
9.7 总结
第10章 GPU介绍
10.1 基于GPU计算的关键要素
10.2 OpenCL系统物理视图
10.3 OpenCL系统的逻辑视图
10.4 OpenCL设备上的逻辑内存空间
10.5 OpenCL设备的编程模型
10.6 索引的符号
10.7 总结
随便看

 

霍普软件下载网电子书栏目提供海量电子书在线免费阅读及下载。

 

Copyright © 2002-2024 101bt.net All Rights Reserved
更新时间:2025/3/15 5:40:18