内容推荐 本书从人、环境、机器人之间的关系入手,介绍了不同传感器的环境感知方法,以及多传感器之间的融合感知技术;展示了机器人环境感知与理解研究中的一些前沿研究工作;重点阐述了目前最流行的同时也是作者最新的研究成果——机器人场景和场所理解的算法;并在此基础上,进一步把机器感知、人机交互与机器人导航相结合,介绍了机器人视觉交互式导航的实现方法。 本书可作为高等院校机器人技术、人工智能等相关专业高年级本科生、研究生相关课程的教材,可供传统机器视觉、机器学习等相关领域研究人员参考,也可供从事机器人环境感知研究和应用、无人自动驾驶研究和应用的科研和工程技术人员的参考。 目录 第1章 人-机-环境信息交互机制 1.1 人与环境的交互机制 1.1.1 人的感官与感受环境 1.1.2 人与环境间的相互作用 1.2 机器人与环境的交互机制 1.2.1 机器人的环境传感器 1.2.2 机器人对环境的认知 1.2.3 机器人对环境的作用 1.3 人与机器人的交互机制 1.3.1 机器人的人机交互接口 1.3.2 人类意图捕获 1.3.3 机器人状态感知 第2章 机器人度量层环境感知 2.1 基于声纳的环境感知 2.1.1 声纳测量特性分析 2.1.2 基于概率理论 2.1.3 基于灰色系统理论 2.1.4 基于模糊理论 2.1.5 基于D-S证据推理(DST) 2.1.6 基于人工神经网络 2.1.7 基于DSmT的地图创建 2.1.8 地图创建效果对比 2.2 基于激光雷达的环境感知 2.2.1 基于激光雷达的2D地图创建 2.2.2 基于激光雷达的三维地图创建 2.3 基于视觉的环境感知 2.3.1 针孔相机模型 2.3.2 带有语义信息的立体匹配与物品姿态估计 2.3.3 从度量层SLAM到环境语义地图 第3章 场景的图像描述 3.1 基于单词训练策略的图像段落描述生成模型 3.1.1 编码器结构 3.1.2 解码器 3.1.3 元组重复性惩罚策略 3.1.4 训练策略 3.1.5 数据集 3.1.6 评价指标 3.1.7 实验结果与分析 3.2 基于序列级训练策略的图像段落描述生成模型 3.2.1 基于强化学习的序列级训练策略 3.2.2 段落多样性与连贯性建模 3.2.3 改进的图像段落描述生成模型 第4章 机器人场所理解 4.1 场所理解概述 4.2 基于原型的机器人场所理解 4.2.1 原型基本知识 4.2.2 场所感知理解算法 4.2.3 实验 4.3 基于深度神经网络的室内场所识别 4.3.1 识别模型框架 4.3.2 数据预处理 4.3.3 模型结构 4.3.4 训练方法 4.3.5 实验 4.4 基于点云的室内场所识别 4.4.1 场所描述与学习系统 4.4.2 体素法线分布计算 4.4.3 主方向原型化块 4.4.4 场所描述 4.4.5 基于稀疏随机森林的场所模型学习 4.4.6 帧间融合规则 4.4.7 3D IKEA数据库上的实验评价 4.4.8 NYU2数据库上的实验评价 4.4.9 结论 第5章 移动机器人交互导航 5.1 基于手绘地图的视觉导航 5.1.1 手绘地图的定义 5.1.2 手绘地图与实际地图的关联 5.1.3 基于预测估计的视觉导航算法 5.1.4 小结 5.2 基于语义地图的视觉导航 5.2.1 语义地图的定义 5.2.2 SBoW模型自然路标识别算法 5.2.3 自然路标识别 5.2.4 交互式视觉导航 5.2.5 小结 5.3 基于自然语言的视觉导航 5.3.1 导航意向图的生成 5.3.2 基于受限自然语言路径生成的导航实验 5.3.3 基于完全自然语言路径的导航试验 5.3.4 小节 参考文献 |