夏乙 发自 凹非寺
量子位 出品 | 公众号 QbitAI
在移动设备上本地运行深度学习模型,已经成了一股潮流,大公司纷纷推出相关框架,想框住一批移动开发者。
今天,百度在GitHub上公开了一个移动端深度学习框架
mobile-deep-learning
(MDL),可以在移动设备上简单快速部署卷积神经网络(CNN)。
MDL的特点是体积小、速度快,还有iOS GPU版本。它的体积是armv7 340k+,,用iOS GPU运行MobileNet需要40毫秒,运行squeeznet需要30毫秒。
地址:https://github.com/baidu/mobile-deep-learning
用MDL能实现什么功能呢?主要是图像识别和目标检测,比如说手机百度的拍照搜图功能。
据百度介绍,手机百度App里现在用的就是这个框架。打开手机百度,点击拍照搜索按钮,接下来识别图像就靠MDL了。
为了让用户直观地看到框架效果,百度还编译打包了iOS和Android的安装文件,可以扫码安装:
△
安装iOS-MobileNet
△
安装Android-GoogLeNet
MDL是用来在移动端部署CNN的,并不支持神经网络的训练。现在,这个框架支持将Caffe模型转换成MDL模型。
百度图像搜索客户端工程师李永会在InfoQ撰文介绍MDL说,这个框架包括模型转换模块(MDL Converter)、模型加载模块(Loader)、网络管理模块(Net)、矩阵运算模块(Gemmers)及供 Android 端调用的 JNI 接口层(JNI Interfaces),结构如下:
其中负责将Caffe模型转化成MDL模型的,就是模型转换模块。
根据百度在GitHub上的介绍,MDL具有如下特性:
-
一键部署,脚本参数就可以切换ios或者android
-
支持iOS gpu运行MobileNet、squeezenet模型
-
已经测试过可以稳定运行MobileNet、GoogLeNet v1、squeezenet模型
-
体积极小,无任何第三方依赖。纯手工打造。
-
提供量化脚本,对32位float转8位uint直接支持,模型体积量化后4M上下
-
与ARM相关算法团队线上线下多次沟通,针对ARM平台会持续优化
-
NEON使用涵盖了卷积、归一化、池化所有方面的操作
-
汇编优化,针对寄存器汇编操作具体优化
-
loop unrolling循环展开,为提升性能减少不必要的CPU消耗,全部展开判断操作
-
将大量繁重的计算任务前置到overhead过程
想要更深入地了解MDL,还是得去GitHub亲自看代码:https://github.com/baidu/mobile-deep-learning
量子位AI社群9群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot3入群;
此外,量子位专业细分群(
自动驾驶、CV、NLP、机器学习
等)正在招募,面向正在从事相关领域的工程师及研究人员。