一、智能终端AI芯片产业快速发展

智能终端AI芯片产业呈现快速扩张之势,未来可期。2017年,华为率先发布了麒麟970芯片,集成寒武纪的深度学习内核。同年,苹果发布了双核架构 Neural Engine(神经网络引擎)的A11 Bionic芯片;2018年,华为和苹果竞相发布了7nm工艺的麒麟980和A12。2019年,华为和苹果推出了新的麒麟990和A13,AI处理性能进一步大幅提升。目前AI处理能力已逐渐向中端产品渗透。除追求性能提升外,大部分终端AI芯片都专注基于推断计算的应用场景进行优化,少数的终端AI芯片具备训练能力。根据ABI Research预测:终端AI芯片市场,到 2024 年会增长至 710 亿美元,2019 年至 2024 年之间的复合年增长率为 31%。

二、AI算力逐步从云端向终端迁移

传统而言,很多对神经网络的训练和推理都是在云端或者基于服务器完成。随着终端处理器性能的不断提升,通信技术演进所能带来的完整可靠性以及随着智能终端多样化的演进趋势,很多人工智能的推理工作,如模式匹配、建模检测、分类和识别等逐渐从云端转移到了终端侧。AI计算场景和算力持续向终端迁移,是智能终端AI芯片产业发展的内在驱动力,

究其原因,可归结为以下三点。首先AI能力的端侧迁移是用户使用场景所需的必然结果。数据由云走向边缘。IDC数据统计,未来几年内边缘侧数据将达到总数据量的50%,这些数据由终端采集和产生,也需要端侧AI芯片就近分析处理。其次AI能力的端侧迁移亦是提升人工智能用户体验的重要方式。在端侧,人工智能关键优势包括即时响应、隐私保护增强、可靠性提升,此外,还能确保在没有网络连接的情况下用户的人工智能体验得到保障。如无人驾驶等对实时性与安全性要求极高,网络的时延与稳定性所带来的安全隐患是无法接受的。同时,AI处理能力的端侧迁移更是人工智能数据隐私保护的需求。

三、各种终端AI芯片不断演化

AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中涉及的各类算法的AI加速计算模块(其他非AI加速计算任务仍由CPU负责)。作为AI技术的三大核心要素之一,芯片承载着AI应用部署的坚实基础——计算能力。AI芯片算力的高速发展,是工业场景和自动驾驶等高实时性AI终端应用的有力保障。同时,芯片的算力和功耗之间的兼顾和优化,是AI应用芯片未来发展的重要主题。各种类型的智能终端AI芯片还将持续进行竞争,在多种多样的人工智能应用场景中,凭借各自的技术特性进行差异化竞争。下面从通用芯片、专用芯片和异构结合三个维度,对基于人工智能场景的终端芯片的技术现状进行分析。

1. 通用芯片

智能终端常用的通用AI处理芯片主要是CPU、GPU、FPGA三种,在传统CPU(Central Processing Unit)中,仅有单独的 ALU(逻辑运算单元)模块是用来完成指令数据计算的,其他各种模块的存在都是为保证指令能串行有序执行。这种通用结构对于传统的编程计算模式非常适合,但是对于需要海量数据运算的深度学习的计算需求,无法提供足够的AI专用计算支撑。

GPU(Graphics Processing Unit)依靠通用灵活的强大并行运算能力,契合当前人工智能中广泛采用的深度学习所需要的密集数据和多维并算处理需求。按照比例来说,在CPU上约有20%的晶体管是用作计算的,而在GPU上有80%的晶体管可用作计算。高效的算数运算单元和简化的逻辑控制单元,把串行访问拆分成多个简单的并行访问,同时进行运算。如向量相加,可让CPU串行循环对每一个分量做加法,也可让GPU采用大量并行线程对应各个分量同时相加。

FPGA(Field Programmable Gate Array):即现场可编程门阵列,依靠电路级别的通用性,加上可编程性,适用于开发周期较短的IoT 产品、传感器数据预处理工作以及小型开发试错升级迭代阶段等。FPGA可灵活支持各类深度学习的计算任务,另外还有低延迟的特点,非常适合在推断环节支撑海量的用户实时计算请求(如语音云识别)。FPGA的可编程性是关键,让智能终端及其应用设计公司能提供与其竞争对手不同的解决方案。

下表是对上述三种通用AI芯片特点的总结:

2. 专用芯片

ASIC(Application Specific Integrated Circuit,专用集成电路):细分市场需求确定后,以TPU (谷歌采用的TPU芯片架构)为代表的ASIC 定制化芯片,将在确定性执行模型的应用需求中发挥作用。例如早年间的挖矿热潮就从GPU 通用算力堆积逐步转向了ASIC 专用矿机。ASIC特点是需要大量的研发投入,如果不能保证出货量其芯片成本难以下降,而且芯片的功能一旦流水线生产后则无更改余地,若市场深度学习方向一旦改变,ASIC 前期投入将无法回收,意味着ASIC 具有较大的市场风险。但ASIC作为专用芯片性能高于FPGA,在高出货量下,其芯片成本可做到远低于 FPGA。深度学习ASIC芯片将依靠特定优化和效能优势,在深度学习领域占一席之地。

3. 异构结合

AI处理芯片还可通过统筹多芯片任务处理,提高任务处理效率、帮助AI应用程序对数据进行分类并排序处理。这样的处理模式并非是完全依赖于专用AI芯片,芯片厂家通过采用异构的芯片构架也可以实现这一目标。由于AI 场景众多,神经网络自定义层繁复,单种处理器硬件已无法满足所有需求,通过软硬结合解决方案,如在已有芯片平台加入神经网络处理引擎(Neural Processing Engine,NPE)来调动处理器中已有的 CPU、GPU及其他计算模块实现面向人工智能任务的异构计算。通过软硬结合的开放型异构计算可满足AI的多场景需求、面向整个手机平台所需的通用性和灵活性,也可更好利用终端原有计算资源完成AI计算。

四、我国智能终端AI芯片的展望

我国智能终端芯片厂商在核心技术方面,仍然依赖于国外厂商。然而机遇与挑战并存,在人工智能大潮尚未完全席卷智能终端的时候,开创新技术及其产业生态,依托国家政策并抓住发展机遇,我国相关AI芯片业的前景可期。同时,当前各家厂商AI芯片不受制于传统CPU芯片和软件应用生态(如英特尔X86芯片),这对自主AI芯片的发展十分有利。如下为我国智能终端AI芯片的未来展望:

首先,国家政策持续利好。AI芯片是第四次工业革命的重要驱动力。继17年国务院发布《新一代人工智能发展规划》后,《促进新一代人工智能产业发展三年行动计划(2018-2020年)》又吹响了前进的号角。同时从芯片资本市场来看,国家集成电路产业投资基金(二期)的募资工作已经完成,规模在2000亿元左右,撬动的社会资金规模可达6000亿元左右。各种产业政策聚焦和强大资本支撑,对于智能终端AI芯片发展十分重要。

在技术发展策略层面,需要积极构建生态圈,支持国内AI芯片企业自有指令集的研发。鼓励AI芯片设计企业加强自主指令集研发,或优先使用国产指令集,扶持AI芯片指令集研发企业,并将成果向芯片设计厂商开放,共建生态;在产业应用方面,要求政府、事业单位和国有企业优先使用国产AI芯片,为国产芯片操作系统生态提供支持;同时鼓励我国智能终端AI芯片、框架和自主操作系统深度耦合全生态发展,研发与深度学习框架结合的 AI 芯片,构建芯片、操作系统和应用一体的软硬结合技术体系。

来源: 中国信通院

关注同花顺财经微信公众号(ths518),获取更多财经资讯

相关文章