![]()
作者简介 弗兰克·尼尔森(Frank Nielsen) 巴黎综合理工学院教授,负责教授研究生计算机视觉和图形学方面的课程以及本科生的算法和Java课程。他是Sony计算机科学实验室研究员。 目录 译者序 前言 致谢 第一部分 基于消息传递接口的高性能计算 第1章 走进高性能计算 1.1 什么是高性能计算 1.2 为什么我们需要HPC 1.3 大数据:四个特性(数据量、多样性、生成速度、价值) 1.4 并行编程范式:MPI和MapReduce 1.5 粒度:细粒度并行与粗粒度并行 1.6 超级计算架构:内存和网络 1.7 加速比 1.7.1 扩展性和等效率分析 1.7.2 Amdahl定律:描述数据规模固定时渐近加速比的变化趋势 1.7.3 Gustafson定律:可扩展的加速比,随着资源的增加不断扩大数据量 1.7.4 在串行计算机上模拟并行机 1.7.5 大数据和并行输入/输出 1.8 关于分布式系统的八个常见误区 1.9 注释和参考 1.10 总结 1.11 练习 参考文献 第2章 MPI简介:消息传递接口 2.1 基于MPI的并行程序设计:基于消息通信 2.2 并行编程模型、线程和进程 2.3 进程之间的全局通信 2.3.1 四个基本的MPI原语:广播、收集、归约和全交换 2.3.2 阻塞与非阻塞和同步与异步通信 2.3.3 阻塞通信产生的死锁 2.3.4 并发性:局部计算可以与通信重叠执行 2.3.5 单向与双向通信 2.3.6 MPI中的全局计算:归约和并行前缀(扫描) 2.3.7 采用通信器定义通信组 2.4 同步屏障:进程的交汇点 2.4.1 MPI中的一个同步示例:测量运行时间 2.4.2 整体同步并行计算模型 2.5 开始使用MPI:使用OpenMPI 2.5.1 用MPI C++编写“Hello World”程序 2.5.2 用C绑定进行MPI编程 2.5.3 通过C++ Boost使用MPI 2.6 通过OpenMP使用MPI 2.7 MPI中的主要原语 2.7.1 广播、散播、收集、归约和全归约的MPI语法 2.7.2 其余混杂的MPI原语 2.8 环形拓扑上利用MPI进行的通信 2.9 MPI程序示例及其加速比分析 2.9.1 MPI中的矩阵向量积 2.9.2 MPI归约操作示例:计算数组的阶乘和最小值 2.9.3 Monte Carlo随机积分算法估算π 2.9.4 Monte Carlo随机积分算法估算分子体积 2.10 注释和参考 2.11 总结 2.12 练习 参考文献 第3章 互联网络的拓扑结构 第4章 并行排序 第5章 并行线性代数 第6章 MapReduce范式 第二部分 面向数据科学的高性能计算 第7章 基于k均值的划分聚类 第8章 层次聚类 第9章 有监督学习:K-NN规则分类的理论和实践 第10章 基于核心集的高维快速近似优化和快速降维 第11章 图并行算法
内容推荐 弗兰克·尼尔森著张伟哲、郝萌、鲁刚钊、王德胜、孙博文译的《基于MPI的大数据高性能计算导论/数据科学与工程技术丛书》使用MPI标准介绍了数据科学中的高性能计算,帮助读者了解分布式存储模型中的并行编程的知识。全书分为两部分,第一部分(第1~6章)基于消息传递接口介绍高性能计算,内容包括:阻塞与非阻塞的点对点通信、死锁、全局通信函数(广播、散播等)、协同计算(归约)的基本概念;互联网络的拓扑结构(环、环面和超立方体)以及相应的全局通信程序;基于分布式内存的并行排序及其实现,涵盖相关并行线性代数知识;MapReduce模型。第二部分(第7~ll章)介绍计算机集群中的高性能数据分析。内容包括:数据聚类技术(平面划分聚类、层次聚类);基于k—NN的有监督分类:核心集以及相关降维技术;图算法(最稠密子图、图同构检测)。每章章末附有各种难度的练习和参考文献,可供读者进行自测和深入学习。 本书适合作为“高性能计算”相关课程的本科生教材。 |