空前数量的数据,再加上最近人工智能(AI)的突破,使得使用深度学习技术成为可能。边缘计算支持机器学习算法部署在网络的边缘。
把深度学习推向边缘计算的主要动机是允许快速访问边缘设备生成的大量实时数据,用于快速AI模型训练和推理,使设备类人员具有对实时事件的反应。
对设备进行分析,在设备上运行AI应用程序,对所收集的数据进行本地处理。由于很多人工智能应用要求高计算能力,这远远超过了能源受限资源和边缘设备的能力。所以,缺乏性能和能源效率是边缘计算人工智能的共同挑战。
多层边缘计算智能
大多数边缘计算智能的概念都集中在推理阶段(运行AI模型),假设AI模型的训练在云数据中心进行,这主要是因为训练阶段的资源消耗较大。
但是,边缘计算智能充分利用了终端设备、边缘节点和云数据中心的层次数据和资源,对深度神经网络模型的总体性能进行了优化。
所以,边缘计算智能不一定要求深度学习模型完全训练或者进行边缘推理。这就导致了云边缘场景中包含数据卸载和协同训练。
边缘情报:云和边缘计算的范围。
通常不存在“最优水平”,因为边缘计算的最佳设置依赖于应用程序,并通过对延迟、隐私、能源效率、资源成本和带宽成本等多种标准进行综合考虑。
云计算智能是完全在云端训练和推理AI模型。
它完全在设备上进行AI模型的训练和推理。
边缘计算减少数据卸载时的延迟,增加数据隐私,降低云资源和带宽开销,从而降低任务的成本。目前,设备端推理是一种很有希望的方法,可以应用于多种设备端的AI应用,并且已经被证明在很多情况下达到了最优平衡。装备端模型培训是联邦学习的基础。
设备端深度学习推理。
AI模型,尤其是深度神经网络(DNN),需要大量的数据集才能进一步提高其准确性。由于深度学习模型的卓越性能要求先进的硬件,计算成本急剧上升。所以,将它们部署到边缘非常困难,这就造成了资源限制。在基于云计算的推理系统中,数据安全和隐私保护是一个重要限制。
针对这些问题,人工智能深度学习服务往往会转向边缘计算。所以深度学习模型必须自定义以适应资源受限的边缘。与此同时,深度学习应用程序的优化需要在推理准确性和执行延迟之间取得平衡。