专栏名称: 人工智能与大数据技术
分享大数据、云计算、人工智能等高科技先进技术
目录
相关文章推荐
大数据文摘  ·  美国开始禁用DeepSeek,下载还要判刑? ... ·  昨天  
大数据文摘  ·  谢谢Deepseek,o3-mini发布即免 ... ·  3 天前  
大数据分析和人工智能  ·  10个超级实用的deepseek提示方式 ·  5 天前  
数据派THU  ·  白话版Scaling Laws for ... ·  6 天前  
玉树芝兰  ·  能反思的 AI ... ·  5 天前  
51好读  ›  专栏  ›  人工智能与大数据技术

百度放大招!这次能干掉啥?

人工智能与大数据技术  · 公众号  · 大数据  · 2021-05-10 11:03

正文

AI应用的部署正逐渐从服务器端走向移动终和边缘端,覆盖了包括安防、交通、医疗、巡检等等多个行业。服务器上的部署,往往需要通过网络连接来传输数据,因而带来了更大的网络延时。让AI模型在本地硬件上执行推理,不仅可以降低因网络延时带来的问题,而且还能够让用户的数据保存在本地,避免了数据隐私相关的问题。

英伟达的Jetson系列硬件,依托GPU算力,是专门为端上部署而推出的硬件,在市场上实现了广泛的应用。该产品包括JetsonNano,TX2,Xavier,NX多个系列,满足了端上部署对算力的各种需求。

不同于服务器上的硬件,端上硬件往往计算资源和内存资源比较有限,如何充分利用硬件资源,并实现快速推理,是衡量AI推理引擎的重要考量因素。

具体到Jetson硬件,往往需要结合英伟达的TensorRT加速库,才能够实现最高速的推理性能。

飞桨作为国内首个功能完备的深度学习平台,在端侧AI模型部署上,提供了一系列的产品,满足用户的不同场景的部署需求。

对于英伟达的Jetson硬件,飞桨的原生推理库PaddleInference能够无缝对接飞桨框架,支持飞桨的开发套件,实现对模型的即训即用,而且还能够结合TensorRT,实现对硬件算力的充分利用。同时,在端侧还可以结合模型压缩工具PaddleSlim,利用量化训练、剪枝、蒸馏等方法,实现模型的性能进一步加速。

我们还会分享内存优化,预测库裁减等秘诀,教大家如何有效利用有限的端侧计算资源。除此之外,我们还会为大家讲解如何通过Paddle Inference + Jeston实现Paddle各种开发套件SOTA模型的部署。

那么对于有集成功能要求的伙伴们,我们还有飞桨企业版BML全功能AI开发平台,在本次的系列课程中,也有针对BML开发部署实战的专场课程,从端侧部署难点入手,围绕垃圾分类这一实用项目,对模型边缘部署技术原理和部署详细流程进行深入讲解与实战演示,教你如何快速实现模型压缩及部署,打通模型训练到端部署开发全流程。

扫描下方二维码,立即报名加入技术交流群


“端侧 AI 部署月” 精彩内容抢先看 👇





请到「今天看啥」查看全文