| 书[0名0]: | 并行算[0法0]设计与性能[0优0]化[按需印刷]|4706195 |
| 图书定价: | 59元 |
| 图书作者: | 刘文志 |
| 出版社: | [1机1] 械工业出版社 |
| 出版日期: | 2015-05-01 0:00:00 |
| ISBN号: | 9787111501022 |
| 开本: | 16开 |
| 页数: | 202 |
| 版次: | 1-1 |
| 作者简介 |
| 刘文志 花[0名0]风辰,毕业于中[0国0]科[0学0]院研究生院,闻[0名0]于并行计算江湖,尤善异构并行计算(X86、ARM、GPU、APU、PHI)和[0大0]规模集群计算相关技术,有7年相关经验,涉及图像处理、计算 [1机1] 视觉、数据挖掘和石油勘探。曾任英伟达并行计算工程师(协助建立英伟达北京CUDA团队)、百度在线高级研发工程师(协助建立百度深度[0学0]习实验室异构计算团队)。 |
| 内容简介 |
| 本书是"并行计算与性能[0优0]化"系列的[0第0]1本,主要讲解了并行计算的核心理论、算[0法0]设计和实践,以及代码的性能[0优0]化,[0第0]2本和[0第0]3本则涵盖了并行编程方[0法0]与[0优0]化实践、科[0学0]计算与企业级应用的并行[0优0]化等重要主题,这些内容被许多开发人员视为"不传之秘"。本书作者是[0国0]内的并行计算专家,曾任英伟达并行计算工程师和百度在线高级研发工程师,在该[0领0]域的经验和修为[0极0]为深厚,他毫不吝啬地将自己多年的积累呈现在这3本书中,得到了百度深度[0学0]习研究院"杰出科[0学0]家"吴韧的高度[0评0]价和强烈推荐。 本书结合[0大0]量示例和伪代码,详细介绍了单核代码的性能[0优0]化和向量化技术,在现代多核处理器上如何设计并行算[0法0],以及基于GPU和移动处理器(ARM)的代码性能[0优0]化与并行化。 全书12章,逻辑上分为四[0大0]部分: ·并行计算理论基础 主要介绍并行现状、与并行计算紧密相关的现代处理器的技术与特点,算[0法0]与程序性能的度量和分析的新旧标准及实用工具,以及代码依赖关系的分析和去除处理。 ·代码[0优0]化 [0首0]先从系统、应用、算[0法0]、函数、循环、语句和指令7[0大0]维度讲解了常见的串行代码[0优0]化手段,然后讲解了如何通过多种方式将现有的串行代码向量化和并行化,以提高效率和利用率。 ·并行算[0法0]设计考量 主要讲解了如何设计[0优0]良的并行算[0法0]以及将并行算[0法0]映射到具体硬件上,涵盖常见的并行编程环境、并行算[0法0]设计方[0法0]、并行算[0法0]的缺陷、编程模式实践、一般准则,等等。 ·遗留代码的并行化 主要讲解了如何找出软件的计算热点,如何合理地选择部分并行或者整体并行,然后将实现后的代码嵌入原软件,以提高企业现有代码的利用率,并以实例加以说明。 |
| 目录 |
前言 [0第0]1章 绪论 1 1.1 并行和向量化的作用 2 1.2 为什么要并行或向量化 3 1.3 为什么向量化或并行难 4 1.4 并行的替代方[0法0] 9 1.5 进程、线程与处理器 10 1.6 并行硬件平台 13 1.7 向量化和多核技术不是万能的 17 1.8 本章小结 18 [0第0]2章 现代处理器特性 19 2.1 指令级并行 20 2.1.1 指令流水线 20 2.1.2 乱序执行 22 2.1.3 指令多发射 22 2.1.4 分支预测 23 2.1.5 VLIW 23 2.2 向量化并行 24 2.2.1 SIMD 24 2.2.2 SIMT 25 2.3 线程级并行 25 2.3.1 内核线程和用户线程 26 2.3.2 多线程编程库 26 2.3.3 多核上多线程并行要注意的问题 27 2.3.4 多线程程序在多核和单核上运行的不同 28 2.4 缓存 28 2.4.1 缓存层次结构 29 2.4.2 缓存一致性 30 2.4.3 缓冲不命中 31 2.4.4 写缓存 32 2.4.5 越过缓存 33 2.4.6 硬件预取 34 2.4.7 缓存结构 34 2.4.8 映射策略 35 2.5 虚拟存储器和TLB 36 2.6 NUMA技术 37 2.7 本章小结 39 [0第0]3章 算[0法0]性能和程序性能的度量与分析 40 3.1 算[0法0]分析的性能度量标准 40 3.1.1 时间复杂度与空间复杂度 41 3.1.2 实现复杂度 43 3.2 程序和指令的性能度量标准 47 3.3 程序性能[0优0]化的度量标准 52 3.3.1 加速比与并行效率 52 3.3.2 Amdahl定律和Gustafson定律 53 3.4 程序性能分析实用工具 54 3.5 本章小结 60 [0第0]4章 串行代码性能[0优0]化 61 4.1 系统级别 62 4.2 应用级别 65 4.3 算[0法0]级别 68 4.4 函数级别 71 4.4.1 函数调用参数 71 4.4.2 内联小函数 72 4.5 循环级别 72 4.5.1 循环展开 72 4.5.2 循环累积 73 4.5.3 循环合并 74 4.5.4 循环拆分 74 4.6 语句级别 75 4.6.1 减少内存读写 75 4.6.2 选用尽量小的数据类型 76 4.6.3 结构体对齐 77 4.6.4 表达式移除 78 4.6.5 分支[0优0]化 78 4.6.6 [0优0]化交换性能 82 4.7 指令级别 83 4.8 本章小结 84 [0第0]5章 依赖分析 86 5.1 指令级依赖 87 5.1.1 结构化依赖 87 5.1.2 数据依赖 88 5.1.3 控制依赖 89 5.2 循环级依赖 90 5.2.1 循环数据依赖 90 5.2.2 循环控制依赖 92 5.3 寄存器重命[0名0] 93 5.4 本章小结 94 [0第0]6章 并行编程模型及环境 95 6.1 并行编程模型 95 6.1.1 指令级并行 96 6.1.2 向量化并行 97 6.1.3 易并行 98 6.1.4 任务并行 99 6.1.5 数据并行 100 6.1.6 循环并行化 101 6.1.7 流水线并行 102 6.1.8 区域分解并行 103 6.1.9 隐式和显式并行化 104 6.1.10 SPMD 104 6.1.11 共享存储器并行 105 6.1.12 分布式存储器并行 105 6.2 常见并行编程环境 105 6.2.1 MPI 106 6.2.2 OpenMP 108 6.2.3 fork/pthread 108 6.2.4 CUDA 109 6.2.5 OpenCL 109 6.2.6 OpenACC 110 6.2.7 NEON内置函数 111 6.2.8 SSE/AVX内置函数 111 6.3 本章小结 111 [0第0]7章 并行算[0法0]设计方[0法0] 114 7.1 划分 114 7.1.1 分而治之 115 7.1.2 划分原则 116 7.1.3 常见划分方[0法0] 116 7.1.4 并行性和局部性 117 7.2 通信 118 7.2.1 操作的原子性 119 7.2.2 结果的可见性 120 7.2.3 顺序一致性 121 7.2.4 函数的可重入与线程安全 122 7.2.5 volatile关键字 122 7.2.6 锁 123 7.2.7 临界区 126 7.2.8 原子操作 127 7.2.9 栅栏 128 7.3 结果归并 129 7.4 负载均衡 129 7.4.1 静态负载均衡 130 7.4.2 动态负载均衡 130 7.4.3 动态负载均衡算[0法0]的一般步骤 131 7.5 本章小结 133 [0第0]8章 并行算[0法0]缺陷 134 8.1 启动结束时间 134 8.2 负载均衡 135 8.3 竞写 136 8.4 锁 136 8.4.1 死锁 137 8.4.2 活锁 139 8.5 饿死 140 8.6 伪共享 140 8.7 原子操作 141 8.8 存储器栅栏 142 8.9 缓存一致性 142 8.10 顺序一致性 143 8.11 volatile同步错误 143 8.12 本章小结 144 [0第0]9章 并行编程模式实践 146 9.1 map模式 147 9.2 reduce模式 149 9.3 结合map和reduce模式 152 9.4 scan模式 155 9.5 zip/unzip 模式 156 9.6 流水线模式 159 9.7 本章小结 161 [0第0]10章 如何并行遗留代码 162 10.1 找出软件的计算热点 163 10.2 判断是否并行化热点 164 10.3 设计算[0法0]并实现 166 10.3.1 选择何种工具进行向量化或并行化 166 10.3.2 重构热点代码 167 10.3.3 依据硬件实现算[0法0] 168 10.4 将实现后的代码嵌入原软件 169 10.4.1 混合编译 169 10.4.2 动态链接库 170 10.5 示例:如何并行化word2vec 171 10.6 本章小结 174 [0第0]11章 [0超0]级并行 176 11.1 [0超0]级并行方式编程 176 11.1.1 进程+线程 177 11.1.2 进程+GPU线程 178 11.1.3 线程+GPU线程 181 11.1.4 线程+向量指令 181 11.1.5 进程+线程+向量指令 182 11.1.6 进程+线程+GPU线程 183 11.2 矩阵乘[0法0] 184 11.2.1 多 [1机1] CPU矩阵乘[0法0] 184 11.2.2 单 [1机1] 多GPU矩阵乘[0法0] 187 11.2.3 多 [1机1] 多GPU矩阵乘[0法0] 188 11.3 本章小结 189 [0第0]12章 并行算[0法0]设计的一般准则 190 12.1 并行算[0法0]设计14准则 190 12.2 本章小结 194 附录A 整型数据与浮点数据 195 |
| 编辑推荐 |
| 并行计算[0领0]域著[0名0]专家撰写,百度深度[0学0]习研究院"杰出科[0学0]家"吴韧鼎力推荐 结合[0大0]量示例和伪代码,全面讲解如何通过并行算[0法0]设计实现单核/多核处理器、GPU和移动处理器的性能[0优0]化及相关的并行化秘技,并[0首0]次提出实现复杂度的全新性能度量标准 |
我一直对并行计算的效率瓶颈和优化策略抱有极大的好奇心,尤其是在多核处理器和大规模分布式系统日益普及的今天,如何榨干每一分计算潜力是工程界的难题。这本书在处理性能分析的部分,展现出了惊人的洞察力。它没有停留在理论层面的讨论,而是深入剖析了现代硬件架构(比如缓存一致性、内存访问延迟)如何影响并行程序的实际运行效率。书中给出的性能评估工具和测试方法非常实用,都是业界常用的标准,这让书中的结论具有极高的可验证性。我尝试用书中介绍的一种新的同步机制来重构我正在进行的一个项目中的一个性能热点,结果程序的吞吐量果然有了肉眼可见的提升。这本书的价值在于,它不仅教你“怎么做”,更让你理解“为什么这么做会快(或慢)”,这种知其然并知其所以然的深度,是极品技术书的标志。
评分这本书的装帧设计真是让人眼前一亮,封面选用的那种哑光质感配上简洁的字体排版,透露出一种专业而又不失格调的气息。内页的纸张选择也十分考究,印刷清晰,字迹饱满,即便是长时间阅读,眼睛也不会感到明显的疲劳,这对于一本技术类的书籍来说至关重要。装订上非常扎实,书脊的处理很到位,无论你怎么翻阅,都不会出现散页的担忧,看得出出版方在制作工艺上的用心。特别是章节标题和重要概念的标注,采用了不同的字体或加粗处理,逻辑层次感非常清晰,让人在快速浏览时也能迅速抓住重点。整体而言,这本书拿在手里沉甸甸的,给人一种“干货满满”的信赖感,光是这外在的精致感,就已经为阅读体验打下了坚实的基础,比很多粗制滥造的技术书强太多了。
评分说实话,市面上很多号称“深入”的技术书籍,读起来就像是把一堆冷冰冰的API文档堆砌在一起,枯燥乏味到让人昏昏欲睡。然而,这本书的章节安排简直就像一场精心设计的马拉松赛跑,节奏感把握得极佳。开篇的理论基础铺垫得非常平稳,如同慢跑前的热身;到了中间部分,难度陡然上升,开始接触到一些需要反复推敲的复杂模型,但作者巧妙地穿插了若干小型案例分析,如同赛程中的补给站,让你在精神疲惫时能快速恢复状态。最精彩的是最后几章,它将前面所有看似分散的知识点汇聚一堂,构建起一个宏大且完整的应用蓝图。整个阅读过程是渐进式的、充满挑战但又不至于让人产生挫败感,读完后有一种酣畅淋漓的成就感,仿佛自己真的跟随着作者完成了一次高难度的技术攀登。
评分这本书在内容组织上的灵活度,简直是为自学者量身定做的。我发现自己可以完全跳过已经掌握的基础章节,直接切入我最感兴趣的“异构计算加速”部分,而不会感到任何阅读上的障碍,这得益于其清晰的模块化结构。更让我惊喜的是,书中对不同编程模型(如CUDA、OpenMP)的对比分析异常客观和细致,没有表现出对任何单一技术的偏爱,而是基于性能和可移植性的角度进行权衡。作者在解释那些晦涩难懂的同步原语时,甚至附带了大量的图形化流程图辅助理解,这对于习惯于视觉化学习的人来说,简直是救星。对于我这种需要快速掌握新技术并应用到实际项目中的工程师而言,这种高度的实用性和清晰的指引,远比一篇篇晦涩的论文集来得直接有效,绝对是一本可以常年放在手边,随时翻阅查阅的工具书。
评分我最近迷上了关于数据结构与算法的深入研究,希望能找到一本能系统梳理复杂系统设计思路的宝典。这本新购入的读物,其叙事方式简直是教科书级别的典范。作者在引入每一个核心概念时,不是直接抛出复杂的公式或代码,而是先用一个非常贴近现实世界的比喻来打比方,让我这个非科班出身的“半路出家”的学习者也能迅速领会其精髓。随后的理论推导部分,逻辑链条极其严密,每一步的过渡都自然流畅,绝不含糊带过那些容易产生歧义的关键步骤。更难得的是,书中对不同算法的适用场景和局限性进行了深入剖析,让我明白“没有最好的算法,只有最合适的算法”这一铁律。读完一个章节,我感觉自己不仅掌握了知识点,更重要的是,建立起了一套分析和解决问题的思维框架,这种底层逻辑的构建,远比单纯记忆几个算法要宝贵得多。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 book.idnshop.cc All Rights Reserved. 静思书屋 版权所有