“智能边缘”被频频提及。更成了英特尔的年度热词。
这背后是海量数据蓝海。根据 IDC 预测,2025 年全球物联网连接数将增长至 270 亿个,物联网设备数量将达到 1000 亿台,全球数据总量预计 2025 年将达到 163 个 ZB,而未来超过 70%的数据和应用将在边缘产生和处理。正因如此,几乎所有数据中心的厂商都纷纷入场边缘计算,唯恐错过下一场数据盛宴。
伴随 5G 与 AI 持续释放的效应,智能边缘计算在快速崛起,也将迎来大量应用场景。那么,智能边缘计算当前面临哪些机遇?对芯片设计带来哪些影响?英特尔作为数据中心和 PC 端的老牌优势玩家,又将如何推动智能边缘的发展?
边缘计算是万物智能实现的关键
边缘计算其实是 1990 年创立的概念,来源于数据内容传输网络,用来服务网页和视频内容,当时是从端侧服务器所产生的服务,可以更加靠近用户。
而今天,在云、边、端融合的大趋势中,“边缘计算是万物智能实现的关键”,宋继强谈到,“而边缘计算的机会又与数据的变化密不可分,主要包括数据的量变与质变。”
英特尔中国研究院院长 宋继强
过去几代 IT 产业不断给万物云化、智能化带来新的推动力,现在已经到了一个把万物都智能化的关键阶段。这意味着这些物品都要具备感知、处理、通讯能力和存储能力,计算需求庞大了许多,数据量大约以 25%的年复合增长率在上升。
而“质”的方面也有巨大变化。以过去三十年的变迁来看,最早期是人产生数据(比如广播、电视媒体等),到现在大量的用户都在产生数据,还有机器产生的数据,以及元数据(描述数据的数据),因为 AI 大量应用,用来描述 AI 模型的参数,这些数据必须要靠近处理数据的地方。这些都导致了数据类型越来越多元化,远非传统 CPU 或 GPU 就可以处理的。
相对于数据指数级的量变和多元化的质变,核心网带宽和云处理的能力难以匹配,因此需要在边缘对大量来自于新型终端设备的数据进行预处理和消化过滤,也正是如此,宋继强强调了边缘计算的重要性,“它是未来能否真正支持万物智能化的关键点”。
边缘计算的好处是延时低、传输距离短、可以定制更大的带宽、敏感数据无需离开本来的场所,除此之外,宋继强谈到,“边缘意味着数据有聚集性,相关数据一起处理,可以构造更好的互联技术。有关智能边缘价值的市场预期非常好,未来几年会翻倍,达到 650 亿美元以上的大市场。”
未来智能边缘计算:多设备合作+在线学习能力
如何理解智能边缘在解决当前挑战时所发挥出来的价值?宋继强表示,云边端融合是大趋势,可以把终端设备、边缘和云,虚拟成大的计算设备看待,而边缘计算就相当于把真实世界和虚拟世界连通起来。真实世界有很多数据,比如工业制造、驾驶、机器人等,有很多传感器,数据可以通过边缘计算捕捉到计算系统中,形成数字系统中的映射,更好地进行处理和观察。同样,也可以把知识储存下来,在多个不同领域和区域分享。
未来,虚拟世界会有更多让计算发挥空间的地方。当智能系统都具备感知、决策和行动的能力,就实现了自主智能系统。这对计算也带来了更高的要求,主要包括并行计算、串行计算、实时计算等,未来的计算系统,既需要多个设备之间的合作,也需要在线学习的能力。
车路协同、机器人是当前非常典型的两个智能边缘的应用场景。宋继强以机器人为例介绍,英特尔中国研究院当前在该领域主要有两大方向:一是把边缘计算引入智能机器人的场景中,提高机器人的学习能力;二是提高多机器人之间的协同工作能力。攻克了这两大挑战,能够更好地将机器人用在商用场景、医院场景,以及工业物流和仓储等场景。
因为在机器人的学习能力方面,它如果要具备长期的、并且可以逐步提高的服务能力,就需要从场景中逐渐学习、构造对场景的理解。在此基础上,要进一步分析场景中的相互关联,形成机器人自己的记忆,才能进行后续的能力提升。但是,本身靠机器人自己完成的话,对硬件的要求太高,这就需要用到边缘计算,一方面将不需要即时响应的计算卸到边缘计算上,另一方面也可以利用边缘计算进行存储。通俗地说,智能边缘就相当于让机器人这类小型前端设备,能够具备更大的存储和计算容量。
在协同工作方面,由于每个机器人都是一个物理的个体,它所观察到的都还是局部空间,要实现一个更加完整的、应用级别的规划时,通常需要全局的调度能力,这时边缘计算就是很好的方式,它实时性好,能够高速调度机器人之间的互相协作,能够在机器人具备局部自主能力的同时,又克服了它是一个物理实体的局限性。
据了解,英特尔中国目前已经开始构建场景中的知识图谱,相当于为机器人构建记忆,支持它逐渐学习,甚至进行任务规划。
超异构计算成为关键驱动力
来自端侧的应用需求千差万别,大量的数据和处理需求,有的要实时,有的要稀疏,有的要并行,有的需要矩阵。有这么多种不同的计算同时发生,而且要形成一个闭环,满足一定的实时性要求;这么多架构要同时存在,并且要无缝融合,带宽、体积和成本都要尽量优化。
因此也可以说,一个架构“包打天下”的时代已经过去了。“架构创新的辉煌十年,超异构计算将成为关键的创新驱动力”,宋继强表示。也正是如此,英特尔强调其 XPU 架构的价值,这个“X”指的是至少会包含 CPU、GPU、专用加速器以及 FPGA 的混合架构,至于选择哪种架构,则是与应用强相关的。
不过,要真正获得硬件异构之后的超级性能提升,没有好的软件是不行的,宋继强认为,英特尔的 oneAPI 实际是在为业界搬一块大石头。
这样说的依据何在?他表示,不同架构上的编程人员分布非常不均匀,CPU 最多,GPU 也不少,但能在 FPGA 上编程的人,一下就少了很多,到 ASIC 就更有针对性了。未来架构中常常会有异构的情况,却没有办法让一个程序员学会所有东西。
oneAPI 就是英特尔搭建软件生态的一个实践。作为跨 XPU 架构统一编程模型,oneAPI 包含工具链、性能库、编译器、调试、编程、程序移植等,可以帮助开发人员有效减少跨架构程序开发时间和成本。
“架构和软件是要搭配的,架构要体现出不同的架构都能玩得转,同时做出来的硬件还要能让别人用软件快速使用。如果新的架构出来,没有一个很好的软件能够把它生态化,那就还是起不来”,宋继强强调。
智能边缘需要更多元、灵活的设计策略
今天的数据复杂度和产品设计周期都与以往大有不同,英特尔最新提出的“分解设计”策略尤为适用。特别是在边缘侧,能够应对未来异构计算的大趋势。
宋继强表示,英特尔其实一直有分解设计的尝试,这次将它专门作为一个策略提出,意在强调通过多节点的产品或 IP,能够快速完成产品构造,满足当前的应用需求。这是一种“化整为零”的设计思路,例如把原来的整个 SoC 芯片由大变小,先做成几个大的部分,比如 CPU、GPU、I/O,再将 SoC 的细粒度进一步提升,将以前按照功能性组合的思路,转变为按照晶片 IP 进行组合。
假如客户在超薄 PC 中需要结合高性能计算部件、超低功耗计算部件、以及 Wi-Fi 6 这样的通信部件等,如果这些整合都要在 10nm 节点上重新设计一款芯片,时间周期比较长。如何快速达到客户需求?就可以通过“分解设计”的方法来实现。例如用 10nm 计算芯片的内核配合 14nm 超低功耗的芯片,再组合其他外设或加速器芯片,通过 Intel 的 2.5D 或 3D 封装技术组合在一个封装中,同时保证它们之间的带宽足够高,就像在一个芯片中工作一样。这样就既能够满足产品性能、功耗、尺寸要求,同时大幅缩短产品设计时间。
相比于以往的芯片整体设计思路,分解设计的好处在于,不仅能够提升设计效率、降低产品化时间,并且能够减少复杂设计带来的 bug 数量。“原来一定要放到一个晶片上的方案,现在可以转换成多晶片来做。不仅可以利用 Intel 的多节点制程工艺,也可以利用合作伙伴的工艺。给客户更多选项,在每个选项下进行最优组合,而不仅局限于单一节点”,宋继强指出。
而不仅如此,随着工艺制程的演进,新工艺节点对设计、验证的要求越来越高,并且耗时更长,研发代价也更大。分解设计策略能够带来更大的灵活性,甚至,在英特尔提供给客户的芯片中,不排除有其他合作伙伴小 Die 的可能。可以看出,“分解设计”策略是英特尔战略上的一大改变,体现出了极大的灵活度和包容性。
边缘计算直接面向很多应用场景,场景的极度碎片化也催生了边缘计算的多样性和丰富内涵。在这个百亿级大市场爆发的前夜,英特尔有了一个不错的开头,面向众多垂直场景,生态合作伙伴的赋能、自我的颠覆和重建、云边端融合的优势,都在帮助它找到并抓住智能边缘的重大机遇。正如英特尔最新版的 logo,比上一版最显著的区别就是少了最外面的一个“圈”,这让我忍不住调侃——站在智能时代的拐点,英特尔开启了破“圈”之旅。