从神经科学到计算机视觉:人类与计算机视觉五十年回顾

简介: 本文简单的介绍了神经网络近50年的发展历程,从1968年的Hubel和Wiesel开展的猫实验,一直到李飞飞教授等人的成果。从本质上讲解了人工神经网络的原理及学习过程,对于想了解神经网络起源及发展历程的读者而言,是一篇较为合适的文章。

更多深度文章,请关注云计算频道:https://yq.aliyun.com/cloud

如何像人类大脑一样完成一项视觉任务是复杂的,比如深度感知、目标跟踪边缘检测扫描环境和定位是大脑经常做的事情,这些都被人们认为是理所当然的事情在过去某段时间里,研究者们可能从来没有想过创建类似人类大脑处理任务一样的系统。然而,在过去的50年中,我们已经从神经科学中看似一些的突破转向能够描述图片场景的电脑

在神经科学课程教学过程中,有很多趣闻发生以帮助同学们更好地理解大脑是如何工作的比如Phineas Gauge是一名美国的铁路工人,在某次施工时遭遇爆炸事故,被一根铁棍击穿头颅,幸运的是他活了下来,但是他的左额叶皮质受到损伤,导致语言障碍,同时也影响其生理性格;还有Britten的论文描述大脑何时再混乱的移动点钟发现信号。所有这些零碎的研究开始加深我们大脑如何工作的理解。

1ae5c4a1fa23bc94494325dca04e3554f4915472

还有类似的一个例子,人类视觉和计算机视觉的大量研究奠定了基础,那就著名的HubelWiesel的研究。由于二人在心理学上的突出贡献,获得了1981年的诺贝尔和平奖,此外他们在视觉系统的信息处理方面也获得了突破性的发现他们打响了研究神经元的第一枪,他们通过连接一个电极一个神经元能够听神经元对一条光的刺激作出的反应他们V1大脑皮层神经元的工作原理有了新的了解这是令人兴奋的新认识,该研究有助于阐明V1神经元的映射相关功能。

在下面的视频中,演示了 V1神经元是如何对待位置和角度的光条做出反应的,当光移动就会有裂纹,这表明你听到猫的神经元对刺激做出的反应。

视频地址:http://v.youku.com/v_show/id_XNDc0MTg0NzA4.html?spm=5176.100239.blogcont241263.12.BcSa3L

通过这个实验,他们演示了几种类型的神经元只有在某些刺激下是如何被激活的,另一个有趣的特征是细胞似乎自然地映射到不同角度,如下图所示,V1的每一部分都包含一组非常特殊的神经元,这些神经元通常对特定角度的光条作出反应。

cc37b8a5640b890f34b819a9c19989f0b912538c

这些细胞反应以某种方式结合起来,理论上能够创建一个自向上的自然世界形象,也就是说,通过接收许多神经元各种光条的反应,人类大脑开始绘制出周围的图景

一晃近30过去了江山代有才人出,时代属于OlshausenDavid JField二位研究者两位研究人员都专注于计算神经科学领域个领域主要是研究大脑如何编码和解码信息,并推动了这个领域相关工作的进一步发展。事实上,他们在自己的工作中引用HubelWiesel的研究成果此外,他们不只注重单一的光条,还拍摄了照片,开始研究如何通过算法识别和编码图像内部的特征。

他们1996年(20多年前)写的一篇叫做自然图像统计和高效编码本文的目的是讨论在图像识别应用中失败的Hebbian学习模型。具体来说,Hebbian学习算法利用了主成分分析算法学习,但存在的问题是,模型不同时学习定位、定以及带通结构来绘制自然图像。从理论上讲,该模型部分源自于HubelWiesel关的研究成果,除此之外192个神经元的输出进行了建模

他们的研究表明,在对自然图像客观存在的规律进行编码时,模型的建立更多地侧重于稀疏性会使得模型更有效。

使用一个稀疏模型,该模型限制每个基函数列表所需的系数数目,来表示一个图像中的各种特征,由下式证明

2e955286cf99db4229c3a2b3e8a6af954291d5ea

其主体部分是为了找到实际图像和函数表示图像之间最低平均误差

7798040c74b9043f490f94e51328cc70ae76061c

然后与代价函数一起迫使算法限制表示图像表示所需的系数数量

b3e4716b7eaf66591578bafe3c4c6ad21d574606

使用梯度下降算法最大限度地减少表示图像所需的系数数量,但是该篇论文自身还没有显示出能够将特征转化为图像的神经网络。

1991年,互联网刚刚普及。现在科学已经从检测猫的神经元对光条刺激的反应转到神经网络的数学模型,该模型能够输出图像的实际特征。在1996年的那篇论文中,最后一行是未来一项重要令人兴奋的挑战将是如何将这些原理推理到更级的皮层视觉领域提供预测。这是一个挑战,通过利用低级的特,然后创建一个自下而上的网络模型来真正地预测一副图像

0a8cd9c39e5fcb359e77d2a7f8d89e982e69d20e

Olshausen等人的模型类似于上图,如果你对深度学习了解的话,那么对这个输出低级特征的矩阵看起来是不是非常熟悉

在过去的几年中,很多论文都使用了与上图非常相似的矩阵这些矩阵被用作卷积神经网络的卷积层。可以发现,这应该是模拟单个神经元对视觉刺激的反应方式。

942122a0eb72076660339626174de79833953cd5

此时此刻利用这些低层次的特征预测图像的实际背景不再是Olshausen等人论文中的最后一行中的理论猜想,这在今天变成了现实。

同时也说明了神经元能够识别光条的原因,神经网络可以利用低层次的特征预测图像所包含的信息2015斯坦福大学的Andrej Karpathy和李飞飞发表了一篇关于这一问题的重要论文——Deep Visual-Semantic Alignments for Generating Image Descriptions。在这篇论文中,演示了通过一个递归神经网络能够详细描述图像,如下图所示,仅仅只是指出了图片中有一只猫或一只狗,而且能够详细描述图像内容,比如男孩在尾板做后空翻虽然现在它并不完美,但它相较于1968年而言,仍是一个跨越式的发展!

89613207630f6e7891ac99a223ef7c962ddbd114

1968年到现在,这是一个漫长的发展过程。本文引用的论文1968开始到2015结束都快有50年的时间。然而,从大局来看,神经网络的发展越来越快,它不仅仅只是用来识别图像,还被用于医学图像的癌症检测预测人类的情感表达自动驾驶等等各个领域

接下来的50年里,计算机视觉的发展前景如何?欢迎广大读者留言发表自己的看法。

作者信息

SeattleDataGuy软件工程师,专注于机器学习、深度学习以及数据科学

Twitterhttps://twitter.com/SeattleDataGuy

本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。

文章原标题《From Neuroscience To Computer Vision》,作者: SeattleDataGuy,译者:海棠,审阅:李烽

文章为简译,更为详细的内容,请查看原文

 

相关文章
|
1月前
|
机器学习/深度学习 编解码 资源调度
2024年3月的计算机视觉论文推荐
从去年开始,针对LLM的研究成为了大家关注的焦点。但是其实针对于计算机视觉的研究领域也在快速的发展。每周都有计算机视觉领域的创新研究,包括图像识别、视觉模型优化、生成对抗网络(gan)、图像分割、视频分析等。
37 0
|
3月前
|
机器学习/深度学习 人工智能 监控
人工智能计算机视觉
人工智能计算机视觉
36 1
|
2天前
|
机器学习/深度学习 人工智能 算法
揭秘深度学习在图像识别中的奥秘
【4月更文挑战第17天】 本文深入探讨了深度学习技术在图像识别领域的应用,重点分析了卷积神经网络(CNN)的核心机制及其在提升图像处理效率和准确性方面的显著贡献。文章首先概述了深度学习的基本原理,随后详细剖析了CNN结构的关键组成部分,包括卷积层、激活函数、池化层以及全连接层。通过案例分析,本文展示了深度学习模型如何通过大量数据训练获得特征提取的能力,并通过这一能力实现对未知图像的有效识别。最后,文章讨论了当前技术的局限性及未来的发展方向,为该领域的研究者和实践者提供了宝贵的参考。
|
16天前
|
机器学习/深度学习 数据采集 人工智能
计算机视觉技术综述
计算机视觉技术综述
|
3月前
|
机器学习/深度学习 数据可视化 API
面向计算机视觉的深度学习:1~5(2)
面向计算机视觉的深度学习:1~5(2
|
3月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
面向计算机视觉的深度学习:1~5(1)
面向计算机视觉的深度学习:1~5(1
|
7月前
|
机器学习/深度学习 数据采集 算法
计算机视觉技术
计算机视觉技术
70 1
|
10月前
|
机器学习/深度学习 编解码 人工智能
计算机视觉算法与应用汇总
计算机视觉算法与应用汇总
264 0
|
编解码 自然语言处理 算法
计算机视觉应用总纲
计算机视觉应用总纲
计算机视觉应用总纲
|
机器学习/深度学习 人工智能 算法
深度学习与人脑
深度学习是机器学习的一个子集,它通过接收大量数据并试图从中学习来模拟人脑。在未来,深度学习可能会发展成为无监督学习,并提供更多关于人类大脑如何工作的见解。
93 0
深度学习与人脑