王瀚宸 编译自 Hackernoon量子位 报道 | 公众号 QbitAI
上周末,量子位翻译了一份MobileNet教程,其中讲述了怎样在一个新的数据集上重新训练MobileNet,那篇文章的成果,是一个分类器,能在电脑上以每秒钟400张的速度,识别图片是否为道路。
MobileNet是为移动端量身打造的,因此这次我们准备把之前做的辨别道路的模型应用到一个Android App中,看看它在移动设备上效果如何。
目标和计划
首先,让我们明确目标和计划,我们希望做到:
在很小的特定数据上重新训练MobileNet;
模型在hold out测试集(即模型训练前为测试留出的样本)上达到95%的准确率;
程序运行时对300美元以下价位手机CPU的占用要小于5%。
为了达到这些目标,我们的计划是:
生成一个新的训练数据集;
训练多个MobileNet结构,从而寻找所能够达到准确率目标(95%)的最小型网络;
与在Android上运行的Inception V3做对比;
将TensorFlow上Android example App中的模型替换为我们的MobileNet;
大量的测试;
进行调试,从而将CPU的占用调到5%以下。
建立数据集
前一篇推送中,我们为了辨认“道路/非道路”,从多个来源拉取了图片作为训练素材。
现在我们再来思考一下这样做是否有必要。
如果你记得的话,这个项目的目标是为了保护用户隐私,当车上的摄像头打开的时候,如果它看见的不是道路,就应该自动关掉。
所以,为了建立我们的训练数据集,我需要录制一些(跟驾驶相关)日常生活中的场景:比说我家的周围、我车子的外部,我在车上摆弄收音机、逗猫等等。这些会被当做非道路的数据用来训练模型。
一些“非道路”的示例图片
而训练数据的“道路”部分,是从Coastline driving dataset中随机取出的,这些图片都是由车的前置摄像头拍摄的。
一些“道路”的示例图片,注意这些图片中都有山坡,因此,为了防止模型把判断道路错认为判断山坡,我们需要对训练数据进行一些扩展。
为道路和非道路数据集各收集3000张图片后,下一步就是开始训练了。
用特定数据集训练MobileNet
下一步,是看看不同结构的MobileNet在经过训练后能达到什么样的准确度。
我们先从最“宽”的MobileNet开始训练:MobileNet 1.0 @ 128。 因为我们想把这个模型应用到移动设备上,因此我们将会采用权值量化,从而进一步减少内存占用。
关于重新训练MobileNet的操作细节,可以看我的前一篇推送。
在TensorFlow的根目录下,运行以下脚本:
python tensorflow/examples/image_retraining/retrain.py \--image_dir ~/ml/blogs/road-not-road/data/ \--learning_rate=0.0005 \--testing_percentage=15 \--validation_percentage=15 \--train_batch_size=32 \--validation_batch_size=-1 \--flip_left_right True \--random_scale=30 \--random_brightness=30 \--eval_step_interval=100 \--how_many_training_steps=1000 \--architecture mobilenet_1.0_128_quantized
在经历1000步的训练后,我们在测试集上达到了99.7%的准确率。
以下是模型做出了错误判断的一些图片:
被错认为道路的非道路图片,我不得不说这种失误是可以接受的,这显然是路,但不是我们要的类型 。
被错认为非道路的道路图片,我认为这是因为在训练集中没有出现桥架在道路上的图片,更多的训练数据能解决这个问题。
接下来让我们在最小的MobileNet上(0.25@128)训练,同样采用权值量化。在1000步训练后,我们达到了92.6%的正确率,没有达到我们的目标。
那么让它稍微变宽些呢,比如说0.5@128?
准确率达到了95%,最终的模型大小为1.6MB。值得一提的是我们训练模型只用了10分钟10fps的视频,所以在训练数据的收集上还有很大的提升空间。
接下来我们很快试一下看看模型是否能够如预计般工作:
python tensorflow/examples/label_image/label_image.py \--graph=/tmp/output_graph.pb \--labels=/tmp/output_labels.txt \--image=/home/harvitronix/ml/blogs/road-not-road/test-image.jpg \--input_layer=input \--output_layer=final_result \--input_mean=128 \--input_std=128 \--input_width=128 \--input_height=128
系统认为这张图片是道路的可能性为99.023%
这个系统速度很快,在我们搭载NVIDIA GeForce 960m GPU的笔记本上,识别1,000张图片只需要3.36秒,即每秒钟能识别297.6张图片。
把MobileNet应用到Android App中
现在我们拥有了一个小巧、快速、足够精确的模型,接下来我们准备把它搭载到一个Android App上,从而在真实环境中进行测试。
继续使用TensorFlow提供的工具,我们马上就会使用里面的Android示例项目完成模型的搭载。
1. 建立项目
如果你还没有准备好,可以从TensorFlow的repository下载这个Android示例项目:
git clone https://github.com/tensorflow/tensorflow.git --depth 1
具体的文件夹是tensorflow/examples/android。用Android Studio打开这个文件夹,编译,然后把生成的APK安装包搭载到你的手机上,你就得到了一个搭载着在ImageNet数据集上训练出的Inception V3模型的图像分类器App,它能够准确地把猫咪跟鸭嘴兽区分开来。
如果你编译apk安装包过程有问题,可以参考他们的readme文档中的指示。(https://github.com/tensorflow/tensorflow/tree/master/tensorflow/examples/android)
我遇到的最大的挑战是NDK(Native Developer Kit)的版本问题,降级到r12b版本后才能正常的编译。
2. 评测搭载了Inception的App
我们现在运行的app上搭载的是Inception模型,让我们它做一些测评,从而可以与之后的MobileNet模型比较。
搭载了Inception的这个app的大小是53.9Mb,而搭载MobileNet的只有1.6Mb。它能够以240ms的速度识别一张图片(即4fps),CPU的占用达到了40%。
搭载Inception V3的App在4fps速度下运行时的CPU占用情况
让我们把运行速度调到1fps试试:
搭载Inception V3的app在1fps速度下运行时的CPU占用情况
现在,内存的占用仍然在35%以上,让我们盼着MobileNet能够比这表现得好些,否则我们就达不到之前定下的目标了(内存占用上限为5%)。
3. 换成MobileNet
接下里让我们对这个Android project做一些小修改,从而搭载上我们的MobileNet。
首先,把你的模型和标签文件复制到project的assets文件夹里。我的是分别是/tmp/output_graph.pb 和 /tmp/output_labels.txt。
接下来,打开ClassifierActivity,具体地址是在:
tensorflow/examples/android/src/org/tensorflow/demo/ClassifierActivity.java
将这个文件中的开头部分中定义的参数设置为我们的新模型。即从一打开时的这样:
private static final int INPUT_SIZE = 224;private static final int IMAGE_MEAN = 117;private static final float IMAGE_STD = 1;private static final String INPUT_NAME = "input";private static final String OUTPUT_NAME = "output";private static final String MODEL_FILE = "file:///android_asset/tensorflow_inception_graph.pb";private static final String LABEL_FILE = "file:///android_asset/imagenet_comp_graph_label_strings.txt";
改为这样:
private static final int INPUT_SIZE = 128;private static final int IMAGE_MEAN = 128;private static final float IMAGE_STD = 128;private static final String INPUT_NAME = "input";private static final String OUTPUT_NAME = "final_result";private static final String MODEL_FILE = "file:///android_asset/output_graph.pb";private static final String LABEL_FILE = "file:///android_asset/output_labels.txt";
点击运行从而开始编译,然后在你的手机上运行相应的apk安装包,你就得到了自己的道路识别器。
结果
下面是我实际使用我这个app的视频,我对UI进行了一些小改动,从而使显示结果更直观。
那么它运行速度和CPU占用的情况怎样呢?
在我的小米5上,它识别一张图片需要55毫秒,也就是每秒18帧(18fps)。
不过,在这个识别速度下,CPU的占用也比较大。在加足马力运行的情况下,CPU的占用大概为25到30%。
搭载MobileNet的App在18fps速度下运行时的CPU占用情况
如果我们希望这个数字能到5%,那么我们可以降低app的运行速度,因为在我们的使用场景中并不需要连续地进行图像识别。将识别速度调整到每秒1张,CPU的占用的平均值就下降到了5.5%。
搭载MobileNet的App在1fps速度下运行时的内存占用和CPU占用情况
总结一下,我们的MobileNet的模型只有Inception的1/30,而运行起来识别图片的速度大概是后者的三倍,同时使用了占用的CPU空间也更少。
相关链接
教程原文:https://hackernoon.com/building-an-insanely-fast-image-classifier-on-android-with-mobilenets-in-tensorflow-dc3e0c4410d4
下载作者训练好的模型:https://s3-us-west-1.amazonaws.com/coastline-automation/demo/mobilenet-road-not-road.tar.gz这里面包括一个.pb模型文件和一个存储标签(“road”,“not road”)的.txt文件。
—— ——
活动报名
8月9日(周三)晚,量子位邀请三角兽首席科学家王宝勋,分享基于对抗学习的生成式对话模型,欢迎报名 ▼
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI
'' 追踪AI技术和产品新动态
举报/反馈

量子位

138万获赞 29万粉丝
追踪AI技术和产品新动态
北京极客伙伴科技有限公司,优质科技领域创作者,鲲鹏计划获奖作者
关注
0
收藏
分享