该项目现已更名为 Paddle-Lite
Mobile-deep-learning (MDL)是百度研发的移动端深度学习框架,致力于让卷积神经网络极度简单的部署在手机端。目前正在手机百度内运行。支持 iOS gpu 计算。体积小,速度快。
-
体积 armv7 340k+
-
速度 iOS GPU mobilenet 可以达到 40ms、squeezenet 可以达到 30ms
功能特性
-
一键部署,脚本参数就可以切换 ios 或者 android
-
支持 iOS gpu 运行 MobileNet、squeezenet 模型
-
已经测试过可以稳定运行 MobileNet、GoogLeNet v1、squeezenet 模型
-
体积极小,无任何第三方依赖。纯手工打造。
-
提供量化脚本,对 32 位 float 转 8 位 uint 直接支持,模型体积量化后4M上下
-
与 ARM 相关算法团队线上线下多次沟通,针对 ARM 平台会持续优化
-
NEON 使用涵盖了卷积、归一化、池化所有方面的操作
-
汇编优化,针对寄存器汇编操作具体优化
-
loop unrolling 循环展开,为提升性能减少不必要的 CPU 消耗,全部展开判断操作
-
将大量繁重的计算任务前置到 overhead 过程
Getting Started
评论