1、一个online方式:移动端做初步预处理,把数据传到服务器执行深度学习模型,现在很多APP都是这个思路, 优点是这个方式部署相对简单,现成的框架(caffe,theano,mxnet,Torch) 做下封装就可以直接拿来用,服务器性能大, 能够处理比较大的模型,缺点是必须联网。
2、另外一种是offline方式:根据硬件的性能,憧钏荭拜部署适当的模型。优点是可以离线执行。缺点也是明显的,1)受限硬件,可能要运行个阉割版的模型 ,对模型精度会有一定的影响; 2) 要移突迫眠走植现成框架到移动平台比较麻烦, 各种依赖的剥离很痛苦,mxnet有个Android app的例子(Leliana/WhatsThis · GitHub), Torch 7也个Android版本soumith/torch-android · GitHub,可以参考下,当然如果编程能力强的话,自己写个网络前传的代码。