摘要:IBM其实已经围绕未来的AI计算,重新想象硬件、软件和应用程序。2019年2月成立的IBM研究院AI硬件中心(IBM Research AI Hardware Center),就是为了应对未来十年的智能计算需求而投资的研究机构。

编者按:本文作者@IBM副总裁,大中华区首席技术官 谢东博士,36氪经授权转载。

头图&图片来源 | EmTech China

在36氪看来,科技和资本是当前新商业时代的两大驱动力,也是我们内容上努力的两大方向。“未来科技会如何发展”一直是众人关注的焦点。因此,36氪的「潮科技 · 畅想未来」系列活动希望为36氪读者和热爱科技的人群,提供和分享关于未来科技发展方向的各种看法,与36氪读者一起想象未来,期待科技的下一个新十年。

EmTech China是由《麻省理工科技评论(MIT Technology Review)》主办的全球新兴科技峰会,2017年首次落地中国。2019年12月13日,EmTech China再次在北京举办,中外顶级专家与学者们就未来重构、AI+算力等话题展开了讨论。有趣的是,此前不久,MIT电子工程和计算机科学系(EECS)刚刚拆分,形立了电子工程(EE)、计算机科学(CS)和人工智能与决策(AI+D)等三学院,AI首次在学界获得了与CS和EE同等的地位 [1]。

图片:谢东博士在EmTech China

此时距离美国普渡大学设立世界上第一个计算机科学系已经过去57年了[2]。要知道,世界上第一次人工智能会议在1956年美国达特茅斯学院召开,历经63年才终于有了属于自己的独立院系,此前一直是计算科学的一个研究方向。IBM发展史告诉我们,大规模生产和应用的计算机器与相关科学之间,一直保持着产业与基础学科之间的良性互动关系。MIT成立独立的人工智能与决策系,这就意味着AI终于成为某个规模化商业或产业领域的基础学科。

图片:谢东博士在EmTech China

值得一提的是IBM与MIT在2017年2月合作成立了AI实验室,IBM将在未来十年期间投入2.4亿美元,这是IBM发展历程中最大的一次学术合作投资,也从一个侧面验证了AI对于学界和产业的重要性。无疑,AI计算将成为下一个IT计算,AI产业将堪比IT产业,AI所带来的商业变化将不亚于IT已经带来的商业变革。未来的AI计算到底是什么样?这是未来计算要研究的课题。

重新想象AI计算

2019年对于计算机科学和人工智能科学来说是关键的一年,在这一年IBM「Watson」研究中心的研究员、被喻为内存之父的罗伯特·登纳德(Robert H. Dennard)博士被美国半导体行业协会(SIA)授予2019年半导体行业最高荣誉奖——Robert N. Noyce Award。登纳德所构思的缩放定律(Dennard Scaling),奠定了摩尔定律的数学与物理基础,正在此基础上发展出了今天繁荣的电子计算机产业。

然而,正如计算机科学与人工智能科学的理念实际上是同时起源同时发展,但适应AI算法的硬件与软件在人类信息文明的第一个60年里远未成熟,而由传统计算机所支撑的ERP、CRM、BI等商业软件却建立了一个庞大的商业世界,并由此反向推动了基于数字集成电路的计算机科学。其原因可以简单理解,即传统的计算机科学与我们正在走向的AI计算之间的差距:一个是用于精确计算,一个是更是用于非精确计算的逻辑推理(即决策)。

以IBM Project Debater来打一个形象的比喻,这台可以与人类进行辩论的智能机器在2018年公开亮相中就吸引了全球产学研界的广泛关注。Project Debater历时逾六年研发,是IBM继1997年打败人类国际象棋大师的“Deep Blue”(深蓝)和2011年在益智游戏节目《危险边缘》国战胜人类冠军的“IBM Watson”之后的又一里程碑。然而不同的是,与前两者的任务(下棋和开放式Q&A)相比,Project Debater面临并不是有非黑即白答案的任务,事实上即便是人类与人类的辩论也往往难以分出胜负或者高下。

IBM其实已经围绕未来的AI计算,重新想象硬件、软件和应用程序。

例如,当前电子计算所普遍采用的数字电路其实并不适合AI计算。数字电路的基础是比特,也就是“0”与“1”所组成的世界,在一个非“0”即“1”的比特世界里,完成的计算任务也只能是精确和精准计算。而AI计算却正好相反,未来的AI机器可能就像Project Debater一样会与人类争辩某个议题,并在符合伦理道德的前提下提供可能的决策范围。IBM首先就在尝试用被认为是过时的模拟电路来解决AI这类模糊问题,因为模拟电路的输出是一个连续变化的数字范围,这就在“0”与“1”之间打开了多种可能。IBM研究院AI硬件中心就成功用模拟电路实现了DNN神经网络,在达到了GPU同等水平的同时显著降低了成本和功耗[4]。IBM还在投资原子存储和量子计算,这些有可能是未来真正适合AI计算的硬件。

简而言之,未来的AI计算不等于或将取代今天的IT计算,因为未来的AI计算将要解决的是完全不同的问题和执行完全不同的任务。MIT成立独立于计算机科学系之外的人工智能与决策系,就是这一历史进程的分水岭:人类文明终将迎来AI计算时代。

走向未来计算之路

图片:谢东博士在EmTech China

今天正处于计算机科学走向成熟以及AI科学启动的交叠时期,基于经典冯·诺伊曼架构和摩尔定律的信息文明、基于Matcalfe定律的网络文明与基于新型人工智能架构和人工智能定律的数字智能文明处于相互推进的波浪式前进阶段。

让我们看一下AI计算前进的技术领域。

首先,在由材料科学和物理科学进步所带来的真正AI硬件到来之前(也就是原子存储与量子计算机),我们仍然可以对今天已有的硬件架构改良和优化AI算法及软件,从而达到模拟AI计算效果和发展AI企业级应用程序的目的。换句话说,在真正的AI计算以及基于AI计算的通用人工智能到来之前,我们仍然可以在现有的计算架构基础之上发展狭义人工智能,让人类可以率先享受人工智能技术所带来的商业收益。

2019年2月成立的IBM研究院AI硬件中心(IBM Research AI Hardware Center),就是为了应对未来十年的智能计算需求而投资的研究机构。该机构为开放式研究方式,将与其它研究机构和产业公司一起对话及合作,共同加速面向AI优化的硬件创新。例如该AI硬件中心开发的一个技术路线图显示,基于模拟AI内核技术的深度学习结合了优化的材料后能在2030年左右达到今天AI计算能力的千倍[5]。

其次是推进高度并行计算。IBM研究员最近完成了这样一个项目,在当前全球排名第一、由IBM设计的超级计算机系统Summit上训练一个超大规模的视觉识别模型:如果训练任务只部署在Summit的一个节点上,完成整个训练任务需要2天时间;如果利用256个节点,则可以把同样任务的训练时间算短到14分钟,与理论值非常接近。这就说明随着节点数的增加,系统的有效处理能力几乎是线性增长的。

IBM在扩展AI规模方面一直在大力投入,例如:考虑到深度学习算法并不需要太高的精准度,因此可以在降低精准度和提升计算速度方面进行重新平衡选择,让从边缘到数据中心再到云端的计算架构可以在更短时间内更高效完成学习和推理;其它还包括消耗了大量计算时间和计算资源的深度神经网络参数搬移,可以考虑重新设计网络拓扑和服务器结构等。

例如IBM POWER9芯片为下一代工作负载提供了增强的内核和芯片架构,特别是专门为数据密集型工作负载而设计,POWER9是当今唯一具备最领先的I/O系统技术的芯片,包括下一代NVIDIA NVLink、PCIe Gen4和OpenCAPI。其中NVLink协议增强了CPU与GPU之间的超高带宽,OpenCAPI接口提供与NIC、FPGA加速器以及存储控制器之间的高带宽,这些都降低了AI模型参数数据搬迁所需时间和计算资源,从而大幅提升了AI应用计算速度[6]。而新一代IBM大型主机z为企业交付最强的数据安全,不仅加密速度是x86服务器的18.4倍、成倍只有其1/20,而且最新的z15可以在数据离开系统后仍能对数据进行保护[7]。

第三是就自动AI和云化AI。在未来,AI就是软件代码(AI is Code)。这有两层意思,一方面是当前可以用自动AI平台来提升开发者的效率、降低对开发者的要求,甚至让AI自动开发软件;另一方面是未来的软件是由AI模型构成,例如用AI模型结构取代今天软件中常见的If-Not结构,从而达到模糊输出的结果。而在云化AI方面,通过IBM Cloud对外大规模输出AI能力,让更多的企业和商业用户可以在云中快速开发和获得AI应用。

站在2019年未,展望2020年,我们处于比特、神经元和量子比特三种信息单元组合的世界,以比特代表的经典计算机和计算架构、以神经网络为代表的AI计算和计算架构以及未来的量子计算,将定义我们当前的视野中必然交相辉映着短中长期趋势,这给了我们一个全新观察计算世界的视角。

数学与信息结合、生物学与信息结合、物理学与信息的结合,推动着信息技术的发展和应用。在通往未来之路上,算力还将继续提升,从理论到技术到应用,还有很多领域亟待突破。无论如何,今天是到了重新想象未来AI计算的时候了。

相关文章