在端侧算力的利用上,目前主要有六大关键技术,包括层次化端算力感知图模型、面向多终端协同的资源虚拟化技术、多终端协同的数据压缩技术、多粒度多层次端算力调度、面向终端设备的现场级 AI 推理以及端算力的定价机制。
层次化端侧算力感知图模型,试图构建终端设备的算力特征向量(A=[计算资源剩余量,存储资源剩余量,电池剩余量,通信能力,数据感知能力,移动模式,微服务匹配度,隐私保护度]),并根据特征向量评估终端设备的综合算力值。端侧设备能够凭借其智能体实时感知的能力,计算特征向量,评估自身的综合算力值,并提供给需求者。
面向多终端协同的资源虚拟化技术,在边缘计算环境中,海量的端侧设备与包含 CPU、GPU、FPGA、TPU 等不同计算架构的边缘计算基础设施共同构成了极度异构的计算环境。信通院在《边缘算力白皮书》2022》中指出,为了实现不同计算硬件的统一调度,业界从两个方向开展技术研究与实现,以云厂商为代表的边缘计算服务商,通过虚拟化技术将计算资源池化,向用户提供算力资源服务;边缘计算硬件厂商,基于自身硬件产品,提出统一的编程模型,为跨 CPU、GPU、FPGA、专用加速器的开发者提供统一的体验。随着端侧算力的爆发,云厂商会加快做好前者,而端侧设备的厂商,完全有能力也有动力做好后者。
多终端协同的数据压缩技术,端侧设备能够借助自身大模型的非线性映射能力,快速学习到海量数据(如视频、图片)的深层次特征,更加有效地去除掉冗余数据特征,满足海量数据压缩的需求,实现端侧海量数据的低时延传输。
多粒度多层次端算力调度有两方面的工作,一是任务的解构,大型任务无法在单个终端上承载,需要将其根据业务逻辑,资源需求,性能需求,服务持续性,业务流粘性,资源节点统一性等因素,分解成小粒度,简化的算力需求,使业务可以分布式地部署在多个终端算力节点上。二是多层次的算力调度,包括端侧算力网络内部的多层次调度和云边端协同的多层次调度。这两点可以通过端侧AI和云侧AI的协同来实现。
面向终端设备的现场级 AI 推理,实际上就是要求在端侧部署大模型,端侧设备具有的高算力芯片和部署的大模型,能够轻而易举地实现这一关键技术。
端侧算力定价机制是共享端侧算力的基础,在《端侧算力网络白皮书(2022年)》中提出了区块链工作量证明和基于拍卖算法的定价策略。前者可以构建一个端侧算力的区块链,端侧设备通过工作量证明机制获得一定的token奖励,后者可以通过端侧设备的AI AGENT,对算力进行议价,实现算力的共享。