【AAAI Oral】阿里提出新神经网络算法,压缩掉最后一个比特

  1. 云栖社区>
  2. 新智元>
  3. 博客>
  4. 正文

【AAAI Oral】阿里提出新神经网络算法,压缩掉最后一个比特

技术小能手 2018-01-18 11:45:07 浏览3938
展开阅读全文

近年来,深度学习在人工智能领域取得了重大的突破。在计算机视觉、语音识别等诸多领域,深度神经网络(DNN, Deep Neural Network)均被证明是一种极具成效的问题解决方式。如卷积神经网络(CNN, Convolutional neural network)在计算机视觉诸多传统问题(分类、检测、分割)都超越了传统方法,循环神经网络(RNN, Recurrent Neural Networks)则在时序信号处理,如机器翻译,语音识别等超过传统方法。

在利用深度网络解决问题的时候人们常常倾向于设计更为复杂的网络收集更多的数据以期获得更高的性能。但是,随之而来的是模型的复杂度急剧提升,直观的表现是模型的层数越来越深,参数越来越多。这会给深度学习带来两个严重的问题:

  1. 随着模型参数的增多,模型的大小越来越大,给嵌入式端模型的存储带来了













网友评论

登录后评论
0/500
评论
技术小能手
+ 关注
所属云栖号: 新智元