摘要:本周在北京召开的百度AI开发者大会上,英特尔公司副总裁Naveen Rao宣布与百度合作开发用于培训的Nervana神经网络处理器,也称为NNP-T 1000,这两家公司将结合各自的专长,开发能够快速高效训练AI模型的高速加速器硬件。自2016年以来,英特尔一直在为其Xeon可伸缩处理器优化百度的paddleblade深度学习平台,两家公司正在合作开发MesaTEE,是一个基于英特尔SGX技术的内存安全功能即服务(FaaS)计算框架。

本周在北京召开的百度AI开发者大会上,英特尔公司副总裁Naveen Rao宣布与百度合作开发用于培训的Nervana神经网络处理器,也称为NNP-T 1000,这两家公司将结合各自的专长,开发能够快速高效训练AI模型的高速加速器硬件。

英特尔和百度共同打造用于训练 AI 的 Nervana 神经网络处理器

英特尔将代号为“Spring Crest”的16nm NNP-T描述为“新型”人工智能模型硬件,旨在“大规模加速分布式培训”。“它针对图像识别进行了优化,其架构与其他芯片不同,因为它缺乏标准的缓存层次结构,芯片上的内存由软件直接管理。英特尔声称,NNP- t的24个计算集群、32GB的HBM2栈和本地SRAM使其能够提供最多10倍于竞争显卡的人工智能训练性能,以及该公司首款NNP芯片Lake Crest 3-4倍的性能。

此外,NNP-T由于其高速的片内和片外互连,能够将神经网络参数分布到多个芯片上,从而实现很高的并行度。此外,它还使用了一种新的数字格式——BFloat16,这种格式可以增强对推断任务至关重要的标量计算,使NNP-T能够适应大型机器学习模型,同时保持“行业领先”的电源效率。

Rao说:“未来几年,人工智能模型的复杂性将会激增,对大规模深度学习计算的需求也会激增。”“英特尔和百度正专注于他们长达十年的合作,建立全新的硬件,与支持软件协同设计,这将随着新的现实而发展——我们称之为‘AI 2.0’。”

这不是英特尔和百度第一次合作开发针对人工智能应用的解决方案。自2016年以来,英特尔一直在为其Xeon可伸缩处理器优化百度的paddleblade深度学习平台,两家公司正在合作开发MesaTEE,是一个基于英特尔SGX技术的内存安全功能即服务(FaaS)计算框架。

最近,百度和英特尔合作开发的BIE-AI-Box是一款硬件套件,为分析驾驶舱摄像机拍摄的视频而定制打造,为此,它集成了专门为此目的设计的百度智能边缘(BIE)技术,并与用于道路识别、车身监控、驾驶员行为识别和其他任务的摄像头连接。

英特尔的未来方向是人工智能,去年Santa Clara公司的AI芯片部门收入达10亿美元,英特尔预计未来将从2017年的25亿美元增长到2022年的100亿美元,增长率达30%。从这个角度来看,英特尔数据中心的收入占总业务的一半,大约是五年前的三分之一。

百度正在寻求云计算市场的大幅增长,最近与英伟达合作,将芯片制造商的Volta图形平台引入百度云,并于2018年7月推出两款用于AI的新芯片:用于机器学习的昆仑818-300和用于推理的昆仑818-100。

相关文章