![]()
内容推荐 “PyTorch深度学习指南”丛书循序渐进地详细讲解了与深度学习相关的重要概念、算法和模型,并着重展示了PyTorch是如何实现这些算法和模型的。其共分三卷:编程基础、计算机视觉、序列与自然语言处理。 本书为该套丛书的第一卷:编程基础。本书主要介绍了梯度下降和PyTorch的Autograd;训练循环、数据加载器、小批量和优化器;二元分类器、交叉熵损失和不平衡数据集;决策边界、评估指标和数据可分离性等内容。 本书适用于对深度学习感兴趣,并希望使用PyTorch实现深度学习的Python程序员阅读学习。 目录 前言 致谢 关于作者 译者序 常见问题 为什么选择PyTorch? 为什么选择这套书? 谁应该读这套书? 我需要知道什么? 如何阅读这套书? 下一步是什么? 设置指南 官方资料库 环境 谷歌Colab Binder 本地安装 继续 第0章 可视化梯度下降 剧透 Jupyter Notebook 导入 可视化梯度下降 模型 数据生成 合成数据生成 训练-验证-测试拆分 第0步——随机初始化 第1步——计算模型的预测 第2步——计算损失 损失面 横截面 第3步——计算梯度 可视化梯度 反向传播 第4步——更新参数 学习率 第5步——循环往复 梯度下降的路径 回顾 第1章 一个简单的回归问题 剧透 Jupyter Notebook 导入 一个简单的回归问题 数据生成 合成数据生成 梯度下降 第0步——随机初始化 第1步——计算模型的预测 第2步——计算损失 第3步——计算梯度 第4步——更新参数 第5步——循环往复 Numpy中的线性回归 PyTorch 张量 加载数据、设备和CUDA 创建参数 Autograd backward grad zero_ 更新参数 no_grad 动态计算图 优化器 step/zero_grad 损失 模型 参数 state_dict 设备 前向传递 训练 嵌套模型 序列(Sequential)模型 层 归纳总结 数据准备 模型配置 模型训练 回顾 第2章 重新思考训练循环 剧透 Jupyter Notebook 导入 重新思考训练循环 训练步骤 Dataset TensorDataset DataLoader 小批量内循环 随机拆分 评估 绘制损失 TensorBoard 在Notebook中运行 单独运行(本地安装) 单独运行(Binder) SummaryWriter add_graph add_scalars 保存和加载模型 模型状态 保存 恢复训练 部署/做出预测 设置模型的模式 归纳总结 回顾 第2.1章 追求优雅 剧透 Jupyter Notebook 导入 追求优雅 类 构造方法 训练方法 保存和加载方法 可视化方法 完整代码 典型的管道 模型训练 做出预测 检查点 恢复训练 归纳总结 回顾 第3章 一个简单的分类问题 剧透 Jupyter Notebook 导入 一个简单的分类问题 数据生成 数据准备 模型 logit 概率 比值比(Odds Ratio) 对数比值比 从logit到概率 Sigmoid 逻辑斯蒂回归 损失 BCELoss BCEWithLogitsLoss 不平衡数据集 模型配置 模型训练 决策边界 分类阈值 混淆矩阵 指标 权衡和曲线 归纳总结 回顾 |