![]()
编辑推荐 1.李宏毅老师亲笔推荐,杨小康、周明、叶杰平、邱锡鹏鼎力推荐! 2.数百万次播放的深度学习课程配套书,李宏毅老师亲自点赞的开源项目,GitHub超10000次Star的开源笔记。 3.从Transformer到ChatGPT技术原理一个不落GPT中的T代表的正是Transformer。如何理解这一在深度学习领域具有深远影响的概念?从经典的论文开始,逐步深度介绍Transformer的原理。本书包含单独的ChatGPT章节,不仅介绍了ChatGPT的原理,还探讨了我们应当以怎样的态度对待Al的发展。 内容推荐 本书根据李宏毅老师“机器学习”公开课中与深度学习相关的内容编写而成,介绍了卷积神经网络、Transformer、生成模型、自监督学习(包括 BERT 和 GPT)等深度学习常见算法,并讲解了对抗攻击、领域自适应、强化学习、元学习、终身学习、网络压缩等深度学习相关的进阶算法. 在理论严谨的基础上,本书保留了公开课中大量生动有趣的例子,帮助读者从生活化的角度理解深度学习的概念、建模过程和核心算法细节. 目录 第 1 章 机器学习基础 1 1.1 案例学习 2 1.2 线性模型 7 1.2.1 分段线性曲线 9 1.2.2 模型变形 17 1.2.3 机器学习框架 21 第 2 章 实践方法论 22 2.1 模型偏差 22 2.2 优化问题 23 2.3 过拟合 25 2.4 交叉验证 29 2.5 不匹配 30 参考资料 31 第 3 章 深度学习基础 32 3.1 局部最小值与鞍点 32 3.1.1 临界点及其种类 32 3.1.2 判断临界值种类的方法 33 3.1.3 逃离鞍点的方法 37 3.2 批量和动量 39 3.2.1 批量大小对梯度下降法的影响..40 3.2.2 动量法 45 3.3 自适应学习率 47 3.3.1 AdaGrad 50 3.3.2 RMSProp 53 3.3.3 Adam 54 3.4 学习率调度 54 3.5 优化总结 56 3.6 分类 57 3.6.1 分类与回归的关系 57 3.6.2 带有 softmax 函数的分类 58 3.6.3 分类损失 59 3.7 批量归一化 61 3.7.1 放入深度神经网络 64 3.7.2 测试时的批量归一化 67 3.7.3 内部协变量偏移 68 参考资料 69 第 4 章 卷积神经网络 71 4.1 观察 1:检测模式不需要整幅图像 .. 73 4.2 简化 1:感受野 74 4.3 观察 2:同样的模式可能出现在图像的不同区域 .. 78 4.4 简化 2:共享参数 79 4.5 简化 1 和简化 2 的总结 .. 81 4.6 观察 3:下采样不影响模式检测 .. 86 4.7 简化 3:汇聚 86 4.8 卷积神经网络的应用:下围棋 .. 88 参考资料 91 第 5 章 循环神经网络 92 5.1 独热编码 93 5.2 什么是 RNN 94 5.3 RNN 架构 96 5.4 其他 RNN 97 5.4.1 Elman 网络和 Jordan 网络 98 5.4.2 双向循环神经网络 98 5.4.3 LSTM 99 5.4.4 LSTM 举例 101 5.4.5 LSTM 运算示例 102 5.5 LSTM 网络原理 105 5.6 RNN 的学习方式 109 5.7 如何解决 RNN 的梯度消失或梯度爆炸问题..113 5.8 RNN 的其他应用 114 5.8.1 多对一序列 114 5.8.2 多对多序列 115 5.8.3 序列到序列 117 参考资料 119 第 6 章 自注意力机制 120 6.1 输入是向量序列的情况.. 120 6.1.1 类型 1:输入与输出数量相同 122 6.1.2 类型 2:输入是一个序列,输出是一个标签 123 6.1.3 类型 3:序列到序列任务 124 6.2 自注意力机制的运作原理..124 6.3 多头自注意力 134 6.4 位置编码 136 6.5 截断自注意力 138 6.6 对比自注意力与卷积神经网络 139 6.7 对比自注意力与循环神经网络 141 参考资料 143 第 7 章 Transformer 145 7.1 序列到序列模型 145 7.1.1 语音识别、机器翻译与语音翻译 145 7.1.2 语音合成 146 7.1.3 聊天机器人 147 7.1.4 问答任务 147 7.1.5 句法分析 148 7.1.6 多标签分类 149 7.2 Transformer 结构 149 7.3 Transformer 编码器 151 7.4 Transformer 解码器 154 7.4.1 自回归解码器 154 7.4.2 非自回归解码器 161 7.5 编码器–解码器注意力 162 7.6 Transformer 的训练过程 .. 164 7.7 序列到序列模型训练常用技巧 166 7.7.1 复制机制 166 7.7.2 引导注意力 166 7.7.3 束搜索 167 7.7.4 加入噪声 168 7.7.5 使用强化学习训练 168 7.7.6 计划采样 169 参考资料 170 第 8 章 生成模型 171 8.1 生成对抗网络 171 8.1.1 生成器 171 8.1.2 判别器 175 8.2 生成器与判别器的训练过程 176 8.3 GAN 的应用案例 178 8.4 GAN 的理论介绍 180 8.5 WGAN 算法 183 8.6 GAN 训练的难点与技巧 .. 188 8.7 GAN 的性能评估方法 190 8.8 条件型生成 194 8.9 CycleGAN 196 参考资料 199 第 9 章 扩散模型 201 9.1 扩散模型生成图片的过程..201 9.2 去噪模块 202 9.3 训练噪声预测器 203 第 10 章 自监督学习 206 10.1 BERT 207 10.1.1 BERT 的使用方式 211 10.1.2 BERT 有用的原因 221 10.1.3 BERT 的变体 227 10.2 GPT 230 参考资料 234 第 11 章 自编码器 235 11.1 自编码器的概念 235 11.2 为什么需要自编码器 237 11.3 去噪自编码器 238 11.4 自编码器应用之特征解耦 239 11.5 自编码器应用之离散隐表征 242 11.6 自编码器的其他应用 245 第 12 章 对抗攻击 246 12.1 对抗攻击简介 246 12.2 如何进行网络攻击 248 12.3 快速梯度符号法 251 12.4 白箱攻击与黑箱攻击 252 12.5 其他模态数据被攻击案例 256 12.6 现实世界中的攻击 256 12.7 防御方式中的被动防御 260 12.8 防御方式中的主动防御 262 第 13 章 迁移学习 264 13.1 领域偏移 264 13.2 领域自适应 265 13.3 领域泛化 271 参考资料 272 第 14 章 强化学习 273 14.1 强化学习的应用 274 14.1.1 玩电子游戏 274 14.1.2 下围棋 276 14.2 强化学习框架 276 14.2.1 第 1 步:定义函数 277 14.2.2 第 2 步:定义损失 278 14.2.3 第 3 步:优化 278 14.3 评价动作的标准 282 14.3.1 使用即时奖励作为评价标准 283 14.3.2 使用累积奖励作为评价标准 283 14.3.3 使用折扣累积奖励作为评价标准..284 14.3.4 使用折扣累积奖励减去基线作为评价标准.. 285 14.3.5 Actor-Critic 288 14.3.6 优势 Actor-Critic 293 参考资料 294 第 15 章 元学习 295 15.1 元学习的概念 295 15.2 元学习的三个步骤 296 15.3 元学习与机器学习 299 15.4 元学习的实例算法 301 15.5 元学习的应用 305 参考资料 306 第 16 章 终身学习 307 16.1 灾难性遗忘 307 16.2 终身学习的评估方法 311 16.3 终身学习问题的主要解法 312 第 17 章 网络压缩 316 17.1 网络剪枝 316 17.2 知识蒸馏 321 17.3 参数量化 324 17.4 网络架构设计 325 17.5 动态计算 329 参考资料 332 第 18 章 可解释性机器学习 333 18.1 可解释性人工智能的重要性 333 18.2 决策树模型的可解释性 334 18.3 可解释性机器学习的目标 335 18.4 可解释性机器学习中的局部解释 335 18.5 可解释性机器学习中的全局解释 342 18.6 扩展与小结 345 参考资料 345 第 19 章 ChatGPT 346 19.1 ChatGPT 简介和功能 346 19.2 对 ChatGPT 的误解 346 19.3 ChatGPT 背后的关键技术——预训练..349 19.4 ChatGPT 带来的研究问题 352 索引 354 |