专栏名称: Cocoa开发者社区
CocoaChina苹果开发中文社区官方微信,提供教程资源、app推广营销、招聘、外包及培训信息、各类沙龙交流活动以及更多开发者服务。
目录
相关文章推荐
51好读  ›  专栏  ›  Cocoa开发者社区

百度放大招啦!端侧AI模型部署秘诀轻松获取

Cocoa开发者社区  · 公众号  · ios  · 2021-05-07 13:47

正文

如何在Jetson硬件上更好地部署AI模型?


AI应用的部署正逐渐从服务器端走向移动终和边缘端,覆盖了包括安防、交通、医疗、巡检等等多个行业。服务器上的部署,往往需要通过网络连接来传输数据,因而带来了更大的网络延时。让AI模型在本地硬件上执行推理,不仅可以降低因网络延时带来的问题,而且还能够让用户的数据保存在本地,避免了数据隐私相关的问题。

英伟达的Jetson系列硬件,依托GPU算力,是专门为端上部署而推出的硬件,在市场上实现了广泛的应用。该产品包括Jetson Nano,TX2,Xavier,NX多个系列,满足了端上部署对算力的各种需求。


不同于服务器上的硬件,端上硬件往往计算资源和内存资源比较有限,如何充分利用硬件资源,并实现快速推理,是衡量AI推理引擎的重要考量因素。

具体到Jetson硬件,往往需要结合英伟达的TensorRT加速库,才能够实现最高速的推理性能。


飞桨作为国内首个功能完备的深度学习平台,在端侧AI模型部署上,提供了一系列的产品,满足用户的不同场景的部署需求。


对于英伟达的Jetson硬件,飞桨的原生推理库Paddle Inference能够无缝对接飞桨框架,支持飞桨的开发套件,实现对模型的即训即用,而且还能够结合TensorRT,实现对硬件算力的充分利用。同时,在端侧还可以结合模型压缩工具PaddleSlim,利用量化训练、剪枝、蒸馏等方法,实现模型的性能进一步加速。

我们还会分享内存优化,预测库裁减等秘诀,教大家如何有效利用有限的端侧计算资源。除此之外,我们还会为大家讲解如何通过Paddle Inference + Jeston实现Paddle各种开发套件SOTA模型的部署。


那么对于有集成功能要求的伙伴们,我们还有飞桨企业版BML全功能AI开发平台,在本次的系列课程中,也有针对BML开发部署实战的专场课程,从端侧部署难点入手,围绕垃圾分类这一实用项目,对模型边缘部署技术原理和部署详细流程进行深入讲解与实战演示,教你如何快速实现模型压缩及部署,打通模型训练到端部署开发全流程。


扫描下方二维码

立即报名加入技术交流群



“端侧AI部署月”精彩内容抢先看



飞桨继四月推出的“服务器端AI部署月” 大获好评之后,五月份还将继续推出“端侧AI部署月”系列线上直播活动。在这个系列直播课中,我们将为大家详细讲解如何在各种端侧的场景实现AI部署,课程干货满满,敬请期待呦!


推荐文章
中央广电总台中国之声  ·  8家P2P平台同时被曝“跑路”, 背后竟属同一法人!
7 年前
匈牙利新导报  ·  【服务商讯】出租
7 年前
中央戏剧学院就业创业指导中心  ·  校园招聘会单位发布之五一:芒果娱乐
7 年前