编辑推荐 本书可作为在线凸优化大量理论的导论教程。第2~5章主要介绍在线凸优化的基本概念、架构和核心算法。本书其余部分则处理更为高级的算法、更为困难的设定和与有名的机器学习范式之间的关系。 内容推荐 本书可作为在线凸优化大量理论的导论教程。第2~5章主要介绍在线凸优化的基本概念、架构和核心算法。本书其余部分则处理更为高级的算法、更为困难的设定和与有名的机器学习范式之间的关系。 目录 前言致谢第1章 导论 11.1 在线凸优化模型 21.2 可以用OCO建模的例子 31.3 一个温和的开始: 从专家建议中学习 81.3.1 加权多数算法 101.3.2 随机加权多数算法 121.3.3 对冲 141.4 习题 161.5 文献点评 17第2章 凸优化的基本概念 182.1 基本定义和设定 182.1.1 在凸集上的投影 202.1.2 很优条件简介 212.2 梯度、次梯度下降法 232.3 非光滑和非强凸函数的归约 272.3.1 光滑非强凸函数的归约 282.3.2 强凸非光滑函数的归约 292.3.3 一般凸函数的归约 322.4 例子: 支持向量机训练 332.5 习题 352.6 文献点评 37第3章 在线凸优化的一阶算法 383.1 在线梯度下降法 393.2 下界 423.3 对数遗憾 433.4 应用: 随机梯度下降法 453.5 习题 493.6 文献点评 50第4章 二阶方法 514.1 动机: 通用投资组合选择 514.1.1 主流投资组合理论 514.1.2 通用投资组合理论 524.1.3 持续再平衡投资组合 544.2 exp-凹函数 554.3 在线牛顿步算法 574.4 习题 634.5 文献点评 64第5章 正则化 665.1 正则函数 675.2 RFTL 算法及其分析 695.2.1 元算法的定义 705.2.2 遗憾界 705.3 在线镜像下降法 745.3.1 迟缓型OMD算法与RFTL 算法的等价性 755.3.2 镜像下降的遗憾界 765.4 应用及特殊情形 785.4.1 在线梯度下降法的导出 795.4.2 乘法更新的导出 795.5 随机正则化 815.5.1 对凸代价函数的扰动 825.5.2 对线性代价函数的扰动 865.5.3 专家建议中的扰动领袖追随算法 875.6 很优正则化(选学) 905.7 习题 965.8 文献点评 98第6章 Bandit凸优化 1006.1 BCO设定 1006.2 多臂赌博机问题 1016.3 从有限信息到完整信息的归约 1076.3.1 第1部分: 使用无偏估计 1076.3.2 第2部分: 点点梯度估计 1106.4 不需要梯度的在线梯度下降算法 1136.5 BLO很优遗憾算法(选学) 1166.5.1 自和谐障碍 1166.5.2 一个近优算法 1186.6 习题 1216.7 文献点评 122第7章 无投影算法 1237.1 回顾: 与线性代数相关的概念 1237.2 动机: 矩阵补全与推荐系统 1247.3 条件梯度法 1267.4 投影与线性优化 1317.5 在线条件梯度算法 1337.6 习题 1387.7 文献点评 139第8章 博弈、对偶性和遗憾 1408.1 线性规划和对偶性 1418.2 零和博弈与均衡 1428.3 冯·诺伊曼定理的证明 1468.4 近似线性规划 1488.5 习题 1508.6 文献点评 150第9章 学习理论、泛化和OCO 1529.1 统计学习理论的设定 1529.1.1 过拟合 1539.1.2 没有免费 |