如何部署自己的SSD检测模型到Android TFLite上

  1. 云栖社区>
  2. 博客>
  3. 正文

如何部署自己的SSD检测模型到Android TFLite上

烁凡 2018-12-20 10:08:36 浏览2550
展开阅读全文
TensorFlow Object Detection API 上提供了使用SSD部署到TFLite运行上去的方法, 可是这套API封装太死板, 如果你要自己实现了一套SSD的训练算法,应该怎么才能部署到TFLite上呢?
 
首先,抛开后处理的部分,你的SSD模型(无论是VGG-SSD和Mobilenet-SSD), 你最终的模型的输出是对class_predictions和bbox_predictions; 并且是encoded的
 
 

Encoding的方式:

class_predictions: M个Feature Layer, Feature Layer的大小(宽高)视网络结构而定; 每个Feature Layer有Num_Anchor_Depth_of_this_layer x Num_classes个channels
 
box_

网友评论

登录后评论
0/500
评论
烁凡
+ 关注