图片12
对边缘计算来说,需要对计算资源和网络资源有全局判断,例如边缘设备、边缘节点和中心云资源的使用,站在全局角度,合理配置资源,保证性能、成本、服务。
数据协同
边沿AI处理用户数据,可从两个方面进行考虑。
一是横向考虑,边缘存在多种网络环境,终端用户设备具有移动性,可以从一个服务节点移至另一个节点,将用户在旧环境中产生的数据如何与新环境中的AI程序同步,从WiFi切换到5G移动网络,甚至从一家运营商切换到另一家运营商。数据协作不仅需要技术支持,而且还需要业务模式的支持。
从另一个角度来看,根据隐私级别,用户在边缘侧生成的数据可以分成不同类型,比如User-Private,像Edge-Private,Public,等等,可以从下到上分层存储在云协作系统的不同级别数据库中。还可以对不同算力支持的边缘AI进行访问,比如可以让云上运行的AI程序读取Public数据,从而训练出一种通用模型。边沿的AI能够读取Edge-Private数据,根据一般模型对边缘模型进行训练等。
在模型分解的基础上,根据资源、成本、质量、延时等要求,对不同服务模型进行了合理的配置。建立了协同计算框架,保证了各个子模型间的协同处理。例如与产品设计相结合,我们可以把所有的识别推理都放在终端设备上,例如需要判断视频中对象是动物还是植物等等。
但进一步的识别功能,我们可以结合边缘的推理能力,对动物进行猫科或犬科等鉴定。若使用者需要更精细的识别,则可将识别结果与在边缘端进行处理,并向云发送处理后的特征数据,再以较完善的数据模型和知识体系,判断该猫是否为东北虎或华南虎。如此,通过端、边、云三方的协作,可以合理利用各种资源,极大地保障了用户体验。
适当的运用算力协作,也可以做到边边训练。产业发展模式尚不成熟,学术界已有相关研究。ICE智能协作计算框架如下图所示,它把边缘AI训练分成三个阶段:
首先是预训阶段(pre-train),应用程序可以通过阅读云中存储的公共数据,对其进行训练,它是边缘AI的基础,没有云的强大算力的帮助,仅仅依靠边缘计算,很难获得比云训练更好的AI模型。
在第二阶段中,将通用模型发送到边缘,从边缘的私有数据中读取,并通过传递学习(Transfer Learning)生成边缘模型。
第3阶段读取增量数据,利用增量学习(Incremental Learning)产生最终的边缘模型,这一最终边缘模型可用于用户侧推理。
此三步学习算力协作模型,能较好地满足边缘智能个性化服务的需要。
它通过资源协作、算力协作以及数据协作,边缘智能可以高效合理地利用各种端、云资源,极大地优化AI应用在边缘计算场景下的用户体验,进一步放大AI应用的商业价值。