端上智能——深度学习模型压缩与加速

  1. 云栖社区>
  2. 云栖视频精选>
  3. 博客>
  4. 正文

端上智能——深度学习模型压缩与加速

聒小小噪 2018-03-30 16:29:31 浏览5911
展开阅读全文
摘要:随着深度学习网络规模的增大,计算复杂度随之增高,严重限制了其在手机等智能设备上的应用。如何使用深度学习来对模型进行压缩和加速,并且保持几乎一样的精度?本文将为大家详细介绍两种模型压缩算法,并展示了阿里巴巴模型压缩平台和前向推理工具。

数十款阿里云产品限时折扣中,赶紧点击这里,领劵开始云上实践吧!

本次直播视频精彩回顾,戳这里
本次直播PDF下载,戳这里

演讲嘉宾简介:
李昊(花名:辽玥),阿里巴巴机器智能技术实验室高级算法专家,毕业于中科院,拥有工学博士学位,致力于深度学习基础技术研究以及在各个行业的应用。

以下内容根据演讲嘉宾视频分享以及PPT整理而成。

本文将围绕一下几个方面进行介绍:
1.深度学习模型压缩与加速
  • Extremely Low Bit Neural Networks
  • Extremely Sparse Network
2.训练

网友评论

登录后评论
0/500
评论
聒小小噪
+ 关注
所属团队号: 云栖视频精选