一文读懂深度学习:从神经元到BERT

65
214
7
  1. 云栖社区>
  2. 阿里技术>
  3. 博客>
  4. 正文

一文读懂深度学习:从神经元到BERT

技术小能手 2019-05-27 10:00:49 浏览27180
展开阅读全文

阿里妹导读:自然语言处理领域的殿堂标志 BERT 并非横空出世,背后有它的发展原理。今天,蚂蚁金服财富对话算法团队整理对比了深度学习模型在自然语言处理领域的发展历程。从简易的神经元到当前最复杂的BERT模型,深入浅出地介绍了深度学习在 NLP 领域进展,并结合工业界给出了未来的 NLP 的应用方向,相信读完这篇文章,你对深度学习的整体脉络会有更加深刻认识。

一个神经网络结构通常包含输入层、隐藏层、输出层。输入层是我们的 features (特征),输出层是我们的预测 (prediction)。神经网络的目的是拟合一个函数 f:features -> prediction。在训练期间,通过减小 prediction 和实际 label 的差异的这种方式,来更改网络参数,使当前的网络能逼近于理想的函数 f

神经元(Neural C

网友评论

登录后评论
0/500
评论
技术小能手
+ 关注
所属团队号: 阿里技术