侵权投诉
当前位置:

OFweek电子工程网

嵌入式设计

正文

深度解析计算机架构未来发展趋势和愿景

导读: 过去10年,很多计算机体系结构研究学者都在感叹体系结构的研究步履维艰,其背后的动因是对传统的冯·诺伊曼体系结构在应对多样化应用的局限的深刻认识和对摩尔定律的放缓甚至终结的担心。

应用趋势、器件技术和系统结构的发展驱动了信息技术的进步。然而,这一进步的早期引擎——摩尔定律和登纳德缩放定律(Dennard scaling)——收益正在快速地变得越来越小。计算机界已经直接面临新的挑战:如何确保信息技术有一个坚实的未来。

在过去几年,计算机体系结构领域的学者进行了一些愿景规划的活动。五年前,计算社区联盟(Computing Community Consortium)发布了一篇《21世纪的计算机架构》白皮书,影响了学术界和工业界的项目资助计划。最近,《IEEE重启计算倡议》一文又从体系结构、器件和电路等方面探索计算系统的未来。

本文将努力延续这一话题的讨论,深入接触应用和器件/电路学界,了解他们的趋势和愿景。我们的目标是发现弥合应用领域和器件领域之间的鸿沟的机遇。

为什么现在要做这件事?因为近五年来发生了许多变化,尤其是以下五个方面:

1.硬件和应用的专用化鸿沟。现有的硬件性能与应用需求之间存在显著的专用化差距。一些应用,诸如虚拟现实和自治系统等,在没有专用硬件的支持下无法实现,但设计专用硬件仍然既昂贵又困难。

2.云计算。目前无处不在的云计算提供了一种清晰的“创新抽象”。云创造了巧妙且跨层次优化成本效益的规模经济。云经常是透明地提供这些创新,对最小的创业公司和新兴企业也是如此。

3.垂直化趋势。采用芯片叠加和整体制造的垂直化三维集成制造工艺,使硅基片变得更厚,显著降低了延迟,增加了带宽,提高了能效。

4.更接近物理层。器件与电路学者们正在努力探索新型材料,这些材料可以实现更加有效的信号转换、更加密集的布局方式及新的计算模型,例如,混合信号、碳纳米管、量子力学效应、生物聚合物等。

5.机器学习作为核心负载已经兴起。机器学习技术,诸如深度学习,让系统设计者惊喜地发现其可以用于许多方面,例如用户偏好预测、计算机视觉和自主导航等。

专用化的鸿沟:硬件设计大众化

为了延续计算机工业创新的光荣历史,开发硬件必须像开发软件一样简单、便宜和灵活。

广泛和新兴的看法一直认为,经典的CMOS工艺缩放路线——基于晶体管越来越小、集成度越来越高的摩尔定律的技术引擎——将在不到3代半导体工艺(6~9年)之后面临终结。而且,登纳德缩放——随着CMOS的集成度提高但能够使每个芯片的功耗保持不变的技术趋势——也将在21世纪中叶终结,这将导致处理器设计的巨大变革:运算能效已经取代面积效率或峰值逻辑门开关,成为最重要的一项限制峰值性能的设计约束。

从近期工业界的动向中可以窥见到经典工艺缩放路线即将到来的后果。例如,英特尔已经放弃了长期奉行的“工艺年-构架年(tick-tock)”开发模式,从原先每代工艺推出两款主要芯片设计,现已改为三款。这个改变意在通过维系“苟延残喘”的摩尔定律从而延长每代产品的市场寿命。更有甚者,美国半导体行业协会(Semiconductor Industry Association)也已放弃维持了数十年、每两年更新一次的国际半导体技术路线图(International Technology Roadmap for Semiconductors, ITRS)的老传统,这一技术文档为整个半导体产业界协调技术、制造与系统开发提供了指导。由于没有明确的方向维系缩放路线,ITRS的价值也在逐渐衰退。

然而,新应用的不断涌现,对计算能力的需求在日益增长。其中最突出的就是那些由大规模机器学习所驱动的、从前难以想象的应用:从图像和语音识别到无人驾驶汽车,再到击败围棋顶尖高手。同样可以看到对视觉数据处理和理解的需求的爆发式增长,有些前瞻性应用或许要求为世界上每个人提供每秒千兆像素级的运算能力。

过往计算技术的进步主要来源于对通用计算设计的巨大投入,而这些设计依赖于经典的缩放路线,并且完全由少数几家处理器制造商完成。得益于这些通用设计的计算机应用综合市场的庞大体量,足以分摊这些厂商的大量投入。

随着传统缩放路线的衰落,只通过改进少数通用计算平台将无法继续满足新兴应用对计算性能的需求。相反,在过去的5~10年里,在一些计算密集型应用领域,一种新的性能优化手段策略已经兴起——专用硬件设计。与在通用处理芯片上运行软件的方案相比,专用硬件方案(如专用集成电路)单位操作上可提高能效10000倍。此能效的提升对于新兴的物联网的丰富应用是至关重要的。专用化已经在图形渲染和视频播放等方面取得了巨大成功。机器学习应用也开始取得商业成功。实际上,计算机体系结构领域的科研人员已经认识到专用化的重要性并投身其研究:2016年体系结构领域三大顶级会议(ISCA、HPCA、MICRO)共收录论文175篇,其中38篇是关于图形处理器(GPU)和专用加速器设计的,还有17篇是关于机器学习专用化设计的。

然而,迄今为止,专用设计的商业化的成功,只限于拥有巨大市场的应用(例如视频游戏、移动视频播放等),值得像通用处理器厂商那样投资。以上市时间和金钱来衡量,设计和制造专用硬件的成本极高,只有极少数的设计可以在这样巨大的市场逐步摊销。

为了继续有效创新的周期,关键是排除专用系统设计的障碍,从而在所有应用中体现出专用化在能效方面的优势。我们的愿景是“大众化”硬件设计,也就是让硬件设计变得像软件设计那样敏捷、便宜和开放。软件开发团队可以利用丰富的、拥有现成的可重用部件的生态系统(通常是免费和开源的),使用高级语言加速提高单个开发者的能力,并依靠强大和自动化的程序分析、综合、测试和调试来保证品质。

尽管经过了几十年的投入,计算机辅助设计仍未能达到一个小开发团队即可进行硬件设计的水平。硬件系统设计者需要更好的工具,提高在硬件描述方面的能力,更快的性能评估手段,更敏捷的原型化方法和更严谨的软/硬件协同设计验证方法。工具链要成熟,可以跨越多个硬件层次,从通用可编程处理核到大规模可编程逻辑阵列、可编程加速器以及专用集成电路,从而能够轻易实现重定位。更好的抽象描述对于硬件的组件化和可重用是必需的,这些抽象可以是以可综合的知识产权(IP)模块的形式,甚至可以是以物理芯片或芯片组的形式存在,在制造时可便宜地集成到系统中。对于体系结构领域的研究者来说,这是一次努力弥补通用和专用系统之间的鸿沟的机会,并开发出一系列工具和框架平台,使大众化硬件设计成为现实。

云计算是对体系结构创新的抽象

利用规模化和虚拟化技术,云计算提供商可以透明和低成本地提供硬件创新,即使最小的客户也是如此。

云计算对传统商业模式的颠覆已被广泛认可。云计算能够促使新兴企业的规模发展远快于传统的基础设施投资。新产品的用户可以在短短几天时间内从几百个增长到几百万个,2016年7月迅速风靡全球的手机游戏“口袋妖怪”(Pokemon Go)就是很好的例证。但是,云计算也打破了传统财富500强的商业模式,因为以前拥有自己的IT基础设施的企业实现了出租云资源带来的成本收益。

云计算提供商利用规模化不仅是为了自身业务,也是为了投资IT的客户的利益。因此,这些提供商往往会发现,进行巨大的、非重复性的工程投资是合算的,例如,在内部开发全新的软件和硬件系统,而不依赖第三方产品供应商。

我们开始看到出现了使得云计算实现前所未有的性能的专用计算机架构。无论是高端的超级计算机,还是商业的云端产品,GPU变得无处不在。微软公司公开披露了Catapult项目,该项目致力于整合现场可编程门阵列(FPGA)以促进其数据中心的计算专用化。Cavium公司已经发布了一个互联网服务应用的专用架构ThunderX。谷歌公司公布了张量处理器TPU,这是一个面向机器学习应用的专用协处理器。上述项目表明,已经有很多经济原因促使云计算提供商投资专用计算机架构。

对学术界的计算机体系结构研究者来说,现在是抓住这个机遇并展示跨层专用化愿景的时机。例如,专用集成电路云(ASIC Clouds)项目展示了如何协同开发大量高度专用的处理器,从而让关键应用得到明显加速。

云计算模型的第二个关键优势是虚拟化。虚拟化这类技术将新的硬件和软件创新透明地引入现有的软件系统。虚拟化使得云提供商可以为了更快、更便宜的技术替换处理器、存储器和网络部件,而不必与消费者沟通协调。虚拟化也促成了资源的超额认购——在消费者对特定资源的需求具有时变、碎片化特征的情况下,在消费者之间进行透明的资源共享。超额订购对云计算的成本结构很重要,和单独的消费者购买专属资源比较,它使得云供应商以极低的价格提供IT资源。

学术界的计算机体系结构研究长期以来对实现虚拟化起到重要作用,例如威睿(VMWare)这个最被认可的虚拟化技术供应商,就是从一个大学研究计划发起的。学术界的体系结构研究者必须继续在开发虚拟化技术中扮演关键角色,来缩短虚拟化性能与裸机性能之间的差距。此外,体系结构研究者必须开发新型的虚拟化抽象,从而实现对专用硬件单元,比如Catapult、TPU和ASIC Clouds等的透明使用和超额订购。

1  2  下一页>  
声明: 本文由入驻OFweek公众平台的作者撰写,除OFweek官方账号外,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码: