信息来源:中国信息产业网
大数据推动信息通信产业迈入“新摩尔定律”时代。近年来,信息通信技术产业加速向万物互联、万物感知、万物智能时代演进,海量数据资源集聚增速远超摩尔定律,据IDC的数字宇宙报告,全球信息数据总量中接近90%产生于近几年,到2020年将达到44ZB。图灵奖获得者JimGray更是提出“新摩尔定律”,即每18个月全球新增信息量是计算机有史以来全部信息量的总和。
计算芯片迎来新一轮创新热潮
人工智能等创新应用基于海量数据分析发展而来,对计算芯片提出更高要求。除数据洪流催生计算芯片处理能力提升的普遍诉求外,以人工智能为典型代表的强算力消耗型应用创新更是极大提升了对计算芯片的需求。据统计,自2012年以来,人工智能训练任务使用的计算能力每3.5个月提升一倍,随着深度学习网络模型日益复杂、数据样本持续扩大,其对计算能力的需求和消耗与日俱增,对计算芯片提出更高要求。
计算芯片体系不断扩展,由通用计算向专用计算延伸。在通用计算芯片领域,CPU、GPU、FPGA是三大主流架构,其中CPU适用于处理复杂性强、重复性低的串行任务;GPU适合通用并行处理,应用领域由早期图像处理逐步拓展至通用加速;FPGA具备可重构特性,可根据客户需求灵活定制计算架构,适合于航空航天、车载、工业等细分行业。在专用计算领域,满足人工智能应用计算需求的专用计算芯片成为创新的焦点所在,现已吸引科研机构、互联网企业、中小创新企业等加速布局,抢占市场发展先机和生态战略高地。
三大主流通用计算芯片持续升级。一方面持续挖掘传统架构技术潜力。CPU不断优化现有架构技术能力,采用乱序执行、超标量流水线、多级缓存等技术提升整体性能表现;GPU持续探索高效的图形处理单元、流处理单元和访存存取体系等;FPGA不断强化应用功能和软件开发工具的丰富完善,降低开发者门槛。另一方面均通过引入专用计算能力迎合人工智能等新兴领域的计算需求。CPU围绕深度学习计算需求增加专用计算指令,如ARMCortex-A76芯片通过优化缩减深度学习常见的乘法累加运算周期等,实现边缘侧人工智能计算性能近4倍的提升;GPU持续优化针对人工智能计算的专用逻辑运算单元,英伟达图灵架构GPU芯片中内置全新张量计算核心,利用深度学习算法消除低分辨率渲染问题;FPGA提升异构计算能力,以实现边缘智能等更多场景的规模应用。
结合应用场景个性需求定向优化,面向人工智能的专用计算芯片差异化创新加速。现阶段以深度学习为主的人工智能专用计算主要包括训练和推理两部分。其中,模型训练需实现高性能、高精度、通用化的计算能力,目前英伟达GPU芯片占据应用规模优势,据统计,全球有超过3000家企业采用其产品进行深度学习项目研发。推理阶段则因应用场景的不同而各具差异,云端推理芯片需实现高通量、低延时、通用化的计算能力,目前GPU、FPGA及专用计算芯片均有应用;端侧推理芯片则需满足低时延或低功耗等差异化场景需求,智能手机、安防监控、自动驾驶等成为首轮爆发焦点,参与者不仅包括高通、英特尔、英伟达等传统芯片巨头,也包括谷歌、百度、寒武纪、地平线等新进入者。