
3.3 协同模式
5G时代,终端算力上移、云端算力下沉,在边缘形成智能融合。然而,边缘智能面临智能算法资源需求与边缘设备资源受限、服务质量与隐私保护、智能应用需求多样化与边缘设备能力有限等多对矛盾。按照“纵向到端、横向到边、全域覆盖”的思路,实现“云-边-端”多域主体间的全局性协同是解决上述矛盾的关键。如图3-6所示,本节从边缘智能场景下的四种协同模式出发,讨论“云-边-端”天然互补的协同关系。

图3-6 协同模式
3.3.1 “云-边”协同
云端与边缘协同是目前研究和探索最多的一种协同模式,边缘负责本地范围内的数据计算和存储,云端负责大数据的分析挖掘和算法训练升级。在“云-边”协同中,云端和边缘有如下三种协同模式。
(1)训练-预测“云-边”协同
云端根据边缘上传的数据来设计、训练、升级智能模型,边缘端负责数据采集和基于实时数据的最新模型预测。该协同模式已经应用于无人驾驶、机器人控制、视频检测等多个领域,谷歌公司的TensorFlow Lite框架可作为该模式的开发入门工具。
(2)云端导向“云-边”协同
云端除了模型训练之外,也会进行部分预测工作。例如,在神经网络模型分割中,云端进行模型前端的计算任务,然后将中间结果下发给边缘,边缘继续执行预测工作。该协同模式的关键是在平衡计算和通信消耗间找到合适的模型分割点,尚处于研究阶段,真实场景应用较少。
(3)边缘导向“云-边”协同
云端只负责初始训练工作,边缘除了实时预测外,还利用自身数据训练模型,使最终模型能够满足终端的个性化需求。该协同模式也处于研究阶段。
在“云-边”协同中,涉及的关键技术主要包括迁移学习、模型分割和模型压缩。
(1)迁移学习
在传统“云-边”协同中,迁移学习可以节省标注样本的人工时间,使模型通过已有标记数据向未标记数据迁移,从而建立起源域到目标域的映射,训练出适用于目标域的模型。在边缘智能场景下,需要将模型适用于不同场景,因此,可以利用迁移学习保留模型的原始信息,然后通过新的训练集进行学习更新,从而得到适用于新边缘场景的智能模型。
(2)模型分割
在云导向“云-边”协同中,需要将规模较大的神经网络模型进行分割,一部分在云端执行,一部分在边缘执行。因此,需要找到合适的分割点,尽量将计算复杂的工作留在云端,然后在通信量最少的地方进行分割,将中间结果传输至边缘,实现计算量和通信量之间的权衡。
(3)模型压缩
在边缘导向“云-边”协同中,为了部署于边缘的模型能有效训练,克服边缘算力受限问题,可以利用神经网络模型压缩技术解决这一难题,即通过模型参数共享和剪枝等方式减少非重要参数,以减少网络规模,降低算力需求、存储和通信开销。此外,权值量化也可以减少模型计算量。
3.3.2 “边-边”协同
边缘与边缘之间的“边-边”协同主要用于解决以两个问题:
·单个边缘计算能力有限,需要多个边缘协同配合,提升系统整体能力。例如,利用单个边缘进行神经网络模型训练既耗费大量时间和算力,又容易因数据有限导致模型过拟合(为了得到一致假设而使假设变得过度严格)。因此,需要“边-边”协同训练;
·“数据孤岛”问题。边缘的数据来源具有较强的局部性,需要与其他边缘协同以完成更大数据范围的任务。
在“边-边”协同中,有如下三种协同模式。
(1)“边-边”预测协同
云端完成模型训练,根据边缘的算力情况拆分模型并分配到边缘设备上,使每个边缘设备执行一部分模型,以减少计算压力。该模式一般适用于手机、手环等计算能力受限的边缘之间。
(2)“边-边”分布式训练协同
边缘上拥有整个模型或者部分模型,并作为计算节点进行模型训练,训练集来自边缘自身产生的数据。按照协同规则,将训练得到的模型参数更新到中心节点(参数服务器)以获得完整模型;因此,设计高效的参数更新算法以平衡带宽消耗和模型准确率是该协同模式的研究热点。
(3)“边-边”联邦训练协同
为实现数据安全和隐私保护,某个边缘节点保存最优模型,每个边缘作为计算节点参与模型训练,并在不违反隐私规定情况下向该节点更新参数。相比于“边-边”分布式训练协同,该模式侧重数据隐私,边缘节点是数据的所有者,可以自主决定参与学习的时机;而在分布式训练中,中心节点占据主动地位,具有边缘闲置资源的管理权限。
在“边-边”协同中,涉及的关键技术主要包括模型拆分、分布式训练和联邦学习。
(1)模型拆分
与“云-边”协同相似,在边缘之间协同也需要模型的拆分,而且针对不同的边缘以及边缘资源的动态性,需要拆分模型的次数和分割点的位置更加多样化,常常需要考虑运行时资源的动态变化,以平衡资源利用率、推断准确率、处理速率、能耗等方面的因素。
(2)分布式训练
在边缘智能场景下,可以利用边缘的闲置资源进行模型训练。但与云计算分布式训练不同,边缘节点的计算能力差异极大,并且同一个边缘节点在不同时刻的计算能力也有差异。因此,需要综合考虑边缘设备资源的动态变化,以及不同地理空间的速度、通信质量和带宽差异。
(3)联邦学习
在保障数据交换安全和隐私前提下,联邦学习利用多个计算节点进行模型更新,即在一个公共节点上建立虚拟共有模型,其他节点在隐私规定约束下向该节点更新参数,最终形成最优模型。目前联邦学习已在谷歌、微众银行、平安银行等公司初步应用。
3.3.3 “边-端”协同
“边-端”协同中的“端”指智能终端设备,主要包括传感器设备、摄像头、工厂机械设备等。“边-端”协同主要解决边缘节点的能力增强问题。在“边-端”协同模式中,终端负责采集数据并发送至边缘,同时接收边缘的指令进行具体的操作执行;边缘负责多源数据的集中式计算,发出指令,对外提供服务。该模式在智能家居和工业物联网中具有广泛应用,已成为人工智能应用落地的关键一环。
在“边-端”协同中,涉及的关键技术主要包括模型轻量化和模型决策。
(1)模型轻量化
在“边-端”协同下,边缘作为计算任务的主体和系统的核心中枢,需要承担更多的计算任务。因此,在资源受限场景下的模型压缩和轻量级模型设计就显得尤为重要,需要在保证模型精度的同时,大规模降低模型的参数数量。
(2)模型决策
目前,深度神经网络模型的规模越来越大,参数数量也越来越多,但在边缘智能场景下,受限的终端资源无法运行适用于云端的大规模模型,而且不同场景对准确率也有不同要求。因此,可以通过模型决策技术来平衡模型的资源消耗量和准确率,牺牲一部分准确率以换取较好的实时性,进而得到最符合边缘智能场景需求的模型。
3.3.4 “云-边-端”协同
“云-边-端”协同将利用整个链路上的算力、智能等资源,并将智能分布在由“云-边-端”构成的一体化连续频谱上,以充分发挥不同设备的优势,全方位地解决各个主体域的矛盾,如图3-7所示。“云-边-端”协同主要分为功能性协同和算力性协同两种协同模式。
(1)功能性协同
基于不同设备所处的地理空间、所担当的角色的不同而承担不同的功能。例如,终端负责数据采集,边缘负责数据预处理,云端负责多源数据处理和服务提供等。

图3-7 “云-边-端”协同
(2)算力性协同
基于对不同设备算力的考虑,不同层级的计算设备承担不同算力需求的任务,包括任务的纵向分割和分配等。
在“云-边-端”协同的一般模式中,云端通常以分布式云计算数据中心为支撑,支持微服务、容器、DevOps等云原生技术体系,对边缘上传的数据进行挖掘、分析、应用,同时对算法模型进行训练和迭代,并将优化后的模型分发到边缘节点,以保证边缘节点及终端设备智能模型的不断更新和升级,进而完成动态迭代闭环;边缘具备资源分配、数据处理和本地决策能力,实现终端设备接入控制、动态调度、多节点协同、数据清洗缓存、低时延响应等功能;终端具备本地计算、“边-端”协同和完全卸载能力。
“云-边-端”协同所涉及的关键技术涵盖了前文介绍的各类技术,包括模型分割、模型压缩、联邦学习等。除此之外,在系统级别上,“云-边-端”协同技术还包含大数据治理、联盟区块链、任务调度优化等技术。在硬件级别上,还包括专用芯片、嵌入式开发等,相关内容会在后续章节介绍,这里作简单了解即可。
通过结合覆盖“云-边-端”多域主体的层次结构和多种协同模式,可以初步实现边缘智能的概念框架。如何从边缘智能的概念模型进一步向落地应用迈进呢?则需要通过相关度量指标对边缘智能体系进行评估和验证。