行业动态 > 即使在移动AI时代,软件仍将主导业界

即使在移动AI时代,软件仍将主导业界

作者:数科邦 发布时间:2020-05-15 1136 0 0

  软硬件都是促进AI行业发展的必不可少因素,二者究竟孰轻孰重,各家的看法亦有不同。在本文中,作者首先探讨了AI硬件的发展格局,并提出疑问:专用硬件加速是否为正确的发展道路?进而介绍了压缩编译协同设计软件算法方案的细节,并坚信可以改变AI边缘计算的格局。本文介绍的压缩-编译协同优化系统(CoCoPIE)由美国东北大学王言治研究组,威廉玛丽学院任彬研究组,北卡州立大学慎熙鹏教授研究组共同提出。

  人们已经达成了某种共识:那些在边缘设备(edge device)与物联网设备(IoT device)上实现了真正的智能的公司将定义计算的未来。为了实现这一目标,无论是谷歌,微软,亚马逊,苹果和Facebook等大型技术公司,还是初创公司,每年在研发上的投入都高达数百亿美元。工业界主要致力于开发用于机器学习和推理的专用硬件加速器,这么做的原因是他们认为硬件因素是实现真正的移动智能的主要限制因素。为此,工业界已经花费了数十亿美元来推动这种智能硬件竞赛。

  我们对这种做法有所疑问,并坚信即使在移动AI时代,软件仍将主导业界。我们的中心论点是,深度学习应用程序的软件优化潜力仍未得到充分开发。一旦完成了正确的软件优化,我们就可以立即在数十亿个现有移动设备上启用实时深度学习,从而释放一个万亿美元的市场。

  在本文的其余部分,我们回顾了AI硬件的概况,不同的软件优化方法,并深入研究了我们认为最有希望的方法,即“压缩-编译”(compression-compilation)联合设计方法。我们得出的结论是,即使在移动AI时代,软件仍在占有并将持续占有整个业界,并且通过纯软件压缩编译协同设计在数十亿个现有移动设备和数万亿个新兴的物联网设备上启用实时AI应用程序是最切实可行的方法。

  AI硬件的格局

  工业界主要致力于开发用于机器学习和推理的专用硬件加速器,这么做的原因是他们认为硬件因素是实现真正的移动智能的主要限制因素。

  芯片制造商英特尔与包括NVIDIA,AMD在内的竞争对手以及一些采用ARM技术的竞争对手之间的激烈竞争已经使芯片进入AI计算市场。如今,在美国,欧洲和亚洲,有100多家AI芯片初创公司,从重塑可编程逻辑和多核设计(programmable logic and multi-core designs)的公司,到开发自己的全新架构的公司,再到使用神经形态架构(neuromorphic architectures)等未来技术的公司。数百亿美元的风险资金已经投入到这个市场中,以支持这些创业公司,同时也加剧了主要芯片制造商之间的竞争,我们看到英特尔以极高昂的价格收购了MobilEye,Movidius和Altera,Xilinx收购了DeePhi,谷歌开发了TPU,以及NVIDIA在自动驾驶处理器方面的大量投资。尽管有大量投入,但到目前为止,输出还是令人失望的,因为我们尚未看到边缘AI加速器的任何大规模部署。这不禁使我们思考,专用硬件加速是正确的道路,还是软件仍然主导移动AI时代?

  经过仔细研究,我们主张通过有效的压缩-编译(compression-compilation)协同设计,在不使用特殊硬件加速器的情况下,在现有边缘设备上实现实时人工智能(AI)是可行的。压缩编译协同设计的原理是以手拉手的方式对深度学习模型进行压缩及对压缩后的模型可执行文件的编译。这种协同方法可以有效地优化深度学习模型的大小和速度,还可以大大缩短压缩过程的调整时间,从而极大地缩短了AI产品上市的时间。

  当我们将深度学习模型部署在主流边缘设备上运行时,我们的设计能在大多数AI应用上实现实时性,而这些AI应用原本被广泛的认为只有使用特殊的AI加速器才能到达实时运行的效果。得益于主流处理器相对于特殊硬件的多重优势,对于实时AI的特殊硬件需求可能将会逐渐降低:

  上市时间:特殊硬件通常需要数年才能上市。为新开发的硬件加速器创建关联的编译器和系统软件会进一步延长该过程。使用此类硬件的应用程序经常需要使用特殊的API并满足许多特殊的约束(例如,将计算限制到特定大小),这会延长AI产品的上市时间。

  成本:开发专用的ASIC处理器非常昂贵,将它们添加到现有系统中会产生额外的费用。

  技术成熟度:与通用处理器不同,专用硬件的生产量要小得多;因此,其生产可用的技术通常比通用处理器落后几代。例如,大多数AI加速器都基于28至65nm CMOS技术,其晶体管密度比最新的移动CPU或GPU低10倍以上。

  速度:由于采用了旧技术,专用处理器的运行速度比通用处理器要慢得多。

  生态系统:通用处理器具有完善的生态系统(调试工具,优化工具,安全措施),这使得高质量应用程序的开发比使用特殊处理器要容易得多。

  使用:由于上述所有原因,使用特殊处理器通常仅限于创建该处理器的公司及其很少的密切客户。结果,为特殊处理器开发的AI应用程序仅可以被有限数量的设备所采用。

  压缩编译协同设计软件算法方案

  在本节中,我们介绍了压缩编译协同设计软件算法方案的细节,我们相信这将完全改变AI边缘计算的格局。压缩和编译是在硬件上拟合深度学习模型以实现有效执行的两个关键步骤。模型压缩是减少深度学习模型的大小并提高其速度的常用技术。压缩技术分为两类,剪枝(pruning)和量化(quantization)。剪枝会删除层或层中的输出(filter)或输入(channel)通道,而量化会降低参数的精度(例如,浮点数到短整数)。编译是指从给定的深度学习模型生成可执行代码的过程。本质上,编译是将深度学习中的高级操作映射到基础硬件支持的低级指令的过程。编译过程在优化代码以有效执行中起着关键作用。

  压缩编译协同设计的原理是同时完成压缩与编译两个组件的设计,并且此协同作用体现在三个层次上。

  需求/偏好级别:在此级别上,协同作用是在设计另一个组件时考虑一个组件的偏好或需求。一个例子是,主流处理器通常更喜欢具有某些计算模式(pattern)的代码。如果模型压缩步骤可以考虑该首选项,则可以创建一个更可修改的方案,以使得编译步骤有效地工作。

  视角/内涵级别:在此级别上,协同作用是在处理其中一个组件的问题时采取另一个组件对该问题的视角或内涵。一个例子就是可组合性或模块化原则,这个原则在保持编程系统和编译高效且可扩展方面一直发挥着至关重要的作用。

  方法论级别:在此级别上,协同作用是将两个组件的方法论紧密集成在一起。例如,通过自动生成代码以启用新的深度学习剪枝方案的编译器框架,我们可以产生高达180倍的加速。

  具体来说,我们在上图中提供了压缩编译协同设计架构,该架构包含以下组件:

  模式化(pattern)的训练阶段可以执行有效的卷积核模式剪枝(kernel pattern pruning)和连通性剪枝(connectivity pruning),以便在不损失准确性的情况下实现最高的剪枝(加速)倍率。首先,我们设计了一套卷积核模式(kernel pattern)来为每个内核选择。然后,我们使用扩展的基于ADMM(交替方向乘子算法)的算法,根据设计的卷积核模式集和连通性剪枝方案执行模式化剪枝。

  细粒度的DNN分层表示(LR)提供了高级别的表示方法,使我们能够从各种资源对DNN模型进行常规优化。特别地,LR包括模式(pattern)和调谐(tuning)相关信息。编译器的优化依赖于LR的一系列改进,以生成紧凑模型和优化过的执行代码。

  卷积核与输出通道重排(filter kernel reorder)通过将具有相同长度和模式的卷积核组合在一起,解决了模式化剪枝带来的两个挑战,即密集的控制流指令以及线程分散(thread divergence)和负载不均衡(load imbalance)。由于卷积核模式数量相对有限,可以通过适当的卷积核内核重新排序将具有相似模式的内核进行编组,从而显著减少控制流指令并提高指令级并行度。此外,如果不同的线程处理不同的输出通道,则由于每个输出通道中的内核具有相似的计算工作量,因此可以正确解决线程分散和负载不均衡的问题,从而增强了线程级并行度。

  压缩权重存储(compressed weight storage)格式是专门为我们的卷积核模式和连通性剪枝设计的。与卷积核与输出通道重排结合后,这种紧凑的数据结构比传统的CSR(压缩稀疏行)格式能够产生更好的压缩率。

  消除负载冗余(load redundancy elimination)通过在内核执行代码生成过程中通过分析处理两个寄存器级负载冗余问题,解决了基于卷积核模式化剪枝对内存性能的挑战。在内存和缓存之间的数据移动已通过高级数据平铺技术进行了优化的前提下,我们的负载冗余消除有着更加重要的意义。

  参数自动调整(parameter auto-tuning)专门测试关键性能参数的不同配置,包括将数据放置在各种GPU/CPU存储器上,不同的数据平铺大小以及每个处理单元上每个DNN层的循环置换的策略。

  总而言之,压缩编译协同设计方法允许编译器将剪枝后的内核视为特殊模式,不仅可以实现模型的高精度与高压缩率,还可以有效地将卷积核模式转换为硬件上的性能提升。

  性能对比:软件与硬件

  为了验证我们的中心论点,即软件仍然主导AI时代,我们需要回答的关键问题是,在现有的设备上,“压缩-编译”联合设计方法是否优于专用的硬件加速器。我们在三星Galaxy S10智能手机上部署了“压缩-编译”联合设计的框架,并将其性能与在ASIC和FPGA上实现的硬件加速器进行了比较。

  结果总结在上图中:首先,使用专用ASIC硬件(包括Google的云TPU-V2和Edge TPU,NVIDIA Jetson AGX Xavier,Cambricon MLU-100,Eyeriss等)上对性能和能效进行比较的结果。与DeePhi的FPGA解决方案ESE在准确性和能效上的比较结果。这是对相同网络模型的公平比较,并且我们的解决方案未采用权重量化(quantization)。

  我们可以清楚地看到,我们在现有的移动设备上的解决方案在能效方面始终优于代表性的ASIC/FPGA解决方案。这种独特的现象归因于三个原因:

  智能手机本身具有超高的能量效率。智能手机计算芯片是使用最先进的技术(例如7nm,11nm技术)构建的,并且是技术进步的关键驱动力,而FPGA/ASIC解决方案则基于28nm或40nm技术,而这些技术本身就不那么节能。同样,ARM(用于移动CPU)和高通(Qualcomm)(用于移动GPU)尤其擅长高效电路/系统设计。

  虽然现有的移动编译器框架对不同神经网络的支持有限(例如,不支持RNN或大规模DNN),但我们的编译器可以支持所有主要类型的神经网络,从而释放了移动设备的全部潜力。

  由于基于软件的解决方案具有高度的灵活性,因此我们的方法在不同的DNN基准上始终保持高性能。相反,可以清楚地看到,当前的ASIC/FPGA解决方案针对特定的DNN类型/大小进行了优化,因此缺乏通用性。具体而言,边缘TPU针对小型DNN优化,而Cambricon MLU-100针对大型DNN优化。

  压缩编译协同设计与其它软件算法的性能对比

  下一个问题就是在相同的硬件条件下,我们的方法能否超出现有的其它软件优化算法,也即压缩编译协同设计方法是否具有显著的优越性。

  我们在三星Galaxy S10智能手机上测试评估我们的算法性能。S10拥有最新的高通骁龙(Qualcomm Snapdragon)855移动平台,包含了高通Kryo 485 8核CPU和高通Adreno 640移动GPU。

  下图显示了在CPU和GPU上,我们的算法与TFLite,TVM以及MNN加速框架的性能对比。我们采用了6种代表性的DNN模型结构,包括VGG-16(VGG),ResNet-50(RNT),and MobileNet-V2(MBNT),在CIFAR-10和ImageNet这两个数据集上做训练。结果显示在所有的测试环境配置下,我们的压缩编译协同设计算法都超越了其它的加速框架。

  在移动CPU上,我们的算法相较于TFLite,实现了12倍到44.5倍的加速效果,相较于TVM,实现了2.3倍至8.1倍的加速效果,相较于MNN,实现了1.9倍至15.5倍的加速效果。在GPU上,相较于TFLite,TVM以及MNN,分别实现了2.5倍至20倍,4.1倍至11.4倍,以及2.5倍至6.2倍的加速效果。对于最大的DNN模型VGG以及最复杂的ImageNet数据集,我们的算法在移动GPU上只需要用18.9毫秒就能完成单一输入图片的所有卷积层的计算操作,满足了实时性的要求(实时性通常要求实现每秒30帧,即每帧33毫秒)。

  潜在应用

  最后但也是最重要的一个问题就是在现有的移动环境和设备下,我们的算法可以实现哪些应用?这个问题直接关联到压缩编译协同设计方法的潜在的商业价值。

  为了说明这个问题,我们研究了三种可能的DNN应用,包括风格迁移(style transfer),DNN上色(coloring),以及超分辨率(提高分辨率,super resolution)。风格迁移的模型是基于在微软COCO数据集上训练的生成型网络,可以实现视频流的实时风格迁移效果。DNN上色用Places scene数据集去训练一个可以同时抽取与融合全局和局部特征的模型,来实现将一个黑白视频流实时地转化为彩色视频流的功能。超分辨率模型主要利用在DIV2K数据集上训练的具有更宽激活层与线性低秩卷积的差分模块,实现将低分辨率的视频流实时转化为高分辨率的视频流的效果。

  正如图中所演示的,利用结构化剪枝以及编译优化,我们在三星Galaxy S10智能手机上实现了这些应用。对于风格迁移,DNN上色以及超分辨率,我们的算法可以分别获得4.2倍,3.6倍,以及3.7倍的推理加速。结果显示,我们团队提出的压缩编译协同设计软件算法方案可以在移动平台上实现令人满意的高速实时效果。具体来说,所有的前向推理可以在75毫秒内完成,使得在现有的没有特殊硬件结构的移动设备上实时地运行复杂的DNN应用成为了可能。更多的演示视频请参考下面的网址。

  即使在移动AI时代,软件仍然占据主宰地位

  我们这篇文章的核心观点是即使在AI时代,软件仍将主导业界。我们希望通过这篇文章能够向读者表明,我们还是可以在现有的商业计算设备上实现AI,并且提供甚至比专业的AI硬件加速器更高的加速效果以及能量效率。这能够扩展AI在边缘计算设备上的能力,并且改变人们对终端设备上实现实时AI就必须采用专业的特殊AI硬件的认知。

  我们相信这些结果会促使工业界重新审视现有的移动AI的发展方向和策略。这些令人振奋的进展显示了很多潜在的未来发展方向,我们这里列举两个。

  第一个方向是扩展基于协同设计优化的领域。目前为止,压缩编译协同设计的原理主要聚焦于DNN模型。除了DNN,现实世界的AI应用通常包括很多其它的内容,比如数据收集,数据预处理,以及用DNN预测之后的操作等等。DNN在整个应用中扮演着一个很重要的角色,导致我们主要聚焦于DNN的优化,而缺乏对整个应用的优化,以至于难以满足用户的实际需求。所以一个很重要的方向就是如何将压缩编译协同设计的原理拓展到对整个AI应用的全面优化过程中。

  第二个方向是扩展基于协同设计的优化的适用性。这一方向关联到隐私性与安全性,这是在很多AI模型构建和部署中很重要的两个因素。如何将它们有机地与压缩编译协同设计过程相结合,这是一个值得研究的问题。通常来说,模型剪枝需要访问模型和整个训练数据集。但是在某些场景下,由于隐私政策或者公司之间的人造边界,模型的优化者可能并不能够访问数据集。有效规避这些拦路石可以扩展协同优化方案的适用性。

  压缩编译协同设计软件算法方案可以在数十亿的现有的移动设备以及数万亿的大有可为的物联网设备上,立即实现实时的深度学习应用,产生巨大的商业价值。比如说,这种方法可以极大地提升视频流应用(如Netflix,YouTube,抖音,或者Snap)的用户在低宽带场景下的用户体验。这些应用可以推送低分辨率的视频到用户的设备,然后我们可以实时地将之转化为高分辨率的视频。类似的,视频通信类应用,如Zoom,Skype,和WebEx,可以利用压缩编译协同设计方法,达到最好的服务质量。此外,这种方法还能够解锁很多之前不可能的实时深度学习应用,例如用一个移动手机摄像头来获得实时的带有艺术风格的视频流。

  来源:机器学习研究组


标签: 软件 AI

评论:

您还可以输入0/300个字
        • 无搜索结果