从Sophia受质疑说起,人工智能的世界充满了炒作和欺骗?

  1. 云栖社区>
  2. 人工智能观察>
  3. 博客>
  4. 正文

从Sophia受质疑说起,人工智能的世界充满了炒作和欺骗?

技术小能手 2018-10-18 15:55:44 浏览1190
展开阅读全文

当机器人Sophia第一次出现在世人眼前的时候,全世界都沸腾了,也对它充满了好奇。这个机器人的“性格”活泼,比如,它可以调侃深夜节目的主持人,甚至在表达时还可以像我们一样做出生动的面部表情。可以说,Sophia就好像一个直接从科幻小说中走出来的机器人,当然,它也成为了目前我们所见过的最接近人工智能的东西。

Sophia的出现,毫无疑问,是一个令人印象深刻的工程。为了让她能向人们学习,并作出情绪反应,其缔造者汉森机器人(Hanson Robotics)以及SingularityNET为Sophia配备了先进的神经网络,让她成为了一个有个性的机器人。在这种情况下,Sophia也轻易作为“人类”被人们接受,比如在有关Sophia的文章中,大多数作者都使用了代词“她”来进行描述。

“她是一个‘活体’,”汉森机器人首席执行官大卫·汉森(David Hanson)在2017年带Sophia亮相《今夜秀》(The Tonight Show)时曾这么表示。尽管汉森机器人从未正面表明Sophia身上拥有我们在科幻小说或电影中看到的那种人工智能技术,但Sophia公开露面后,受到的所有正面或批判报道,无一例外,都对该公司的成长起到了推动作用

随着Sophia越来越受欢迎,人们的眼光越来越高,二者之间的信任出现了裂痕。更重要的是,随着时间的推移,越来越多的人认为Sophia之所以总能“语出惊人”是因为它们在一定程度上是预先编写好的

34d94354b971b23465e79c8295dc99e63303eac8

汉森机器人的首席科学家Ben Goertzel曾表示,他对Sophia的能力并不抱任何幻想,“Sophia和其他汉森机器人并不像计算机科学研究系统那样'纯粹',因为它们以复杂的方式将许多不同部分和方面结合在了一起。换句话说,它们并不是单纯的学习系统,但确实涉及到了不同层次的学习,举个例子,在神经网络视觉系统中学习,在OpenCog对话系统中学习等。

但有趣的是,Sophia的出现激发了公众很多不同的反应。事实上,公众对Sophia各个方面的看法,包括她的智慧、她的外表、她的可爱都是多种多样的,这很值得思考。与此同时,人们对Sophia机器人的能力产生怀疑的时候,意外的也对汉森机器人以及SingularityNET增加了炒作的热度。反过来,这两家公司反复上演的宣传噱头又一次强化了这种炒作。

实际上,我们离真正的人工智能还很远

像Sophia这样高度宣传的项目让我们相信真正的(类人的)人工智能甚至可以是有意识的。但实际上,我们距离这个目标还有很长的路要走,因为人工智能研究的真实状态远落后于我们所相信的技术神话。如果我们现在不能以客观的立场对待AI,那我们在这条研究的路上就不会有进步,只会永远停留在这里。

然而,我们遇到的第一个棘手问题,就是对人工智能进行真正的定义。鉴于人工智能不断被新的发展和变化所重塑,或许有时最好的描述方式便是解释它不是什么。对此,数据科学家Emad Mousavi曾表示,“人们普遍认为人工智能是一个非常聪明并且什么都知道的机器人,它可以做人类所能做的任何事情。”但这并不是专家所认为的人工智能的真正定义,一般而言,AI指的是可以完成各种分析并使用一些预定于的标准作出决策的计算机程序

人类级人工智能(HLAI)的长远目标之一,是让其具备有效沟通的能力以及随着时间的推移继续学习的能力。而目前与我们进行交互的人工智能系统,包括为自动驾驶汽车开发的系统,都是在部署之前完成所有学习,然后永久停止。对此,Facebook AI的一位研究科学家Tomas Mikolov认为,这些问题虽然目前很容易被发现,但在现在的技术支持下,却很难解决。

e7a21c15a6eb5b4cc8d0985173da117cb97df96c

整体而言,现在的人工智能还不具备自由意志,当然也是没有意识的。至于市场上最先进的人工智能系统,也只是遵循人类定义的流程的产品,不能自己做出决定。而人们面对先进的或被过度炒作的这项技术时,往往会做出两种假设。

比如,在包括深度学习和神经网络的机器学习中,人们提出了一系列训练数据的算法,该算法对任何需要它完成的任务案例展开学习,并由人类进行标记,直到它可以自己完成任务。对于面部识别软件来说,这意味着需要将数千张面部照片或视频送入系统,直到系统可以从未标记的样本中准确的检测到人脸。

另外,最好的机器学习算法通常只是记忆和运行统计模型,把它称之为“学习”就是将操作与我们大脑完全不同波长的机器拟人化。人工智能现在是一个包罗万象的术语,几乎任何自动执行某项操作的计算机程序都被称为AI

机器学习系统实际上非常愚蠢

Facebook科学家Mikolov对此解释道,如果训练一个算法,让它把两数相加,它只会从表格中查找或复制正确的答案,却无法从训练中总结出对数学运算更好的理解。比如,在学会5+2=7后,人们很容易反过来思考7-2=5。但是机器无法做到这一点,也就是说要让他学会减法,就需要重新对其进行训练。

人工智能本来就是要经过训练的一个系统,可以添加训练素材,却不能理解所添加内容的真正含义。而通常情况下,从零开始学习要比尝试开始新的训练的模型更容易建立。当然,这些缺陷对AI社区的成员来说并不是秘密。但这些机器学习系统还是经常被吹捧为人工智能的最前沿。事实上,它们还是非常愚蠢。

8f853022fb1621713701694c0e95741887dbebf1

以图像字幕算法为例。几年前,其中一个算法得到了一些广泛的报道,因为它似乎产生了复杂的语言。当时,该系统的能力让每个人都感到惊讶,但不久后,人们就发现,90%的字幕都可以在训练数据中找到。所以,这些结果实际上并不是机器产生的,机器只是复制了它所“看”到的,即人类提供的带有注释的图像。人们一直相信机器人式幽默的存在,却不知道这只是计算机在进行复制粘贴

夸大的宣传中,我们要理性对待AI

那么偏离了航线的AI究竟要去往何方呢?目前的问题在于,我们现在的系统能力十分有限,但在市场上经过大肆宣传后,公众普遍相信我们已经拥有那项根本不知道如何去创建的技术了。

杨百翰大学(Brigham Young University)从事人工智能系统研究的计算机科学家Nancy Fulda表示,“我经常看到我的研究被媒体夸大宣传,也有一些网站在没有对其工作原理进行充分了解的情况下,就进行相关报道,以至于项目的技术细节被丢掉了,而研究结果却变得异常不可思议。在某些时候,我几乎不再认可自己的研究了。“

一些研究人员自己也会对研究结果添油加醋。然后那些没有太多技术专长,也不关心研究背后原理的记者就成了“帮凶”,配合这些研究员进行炒作式宣传。至于其他配角演员,就是那些创造了AI算法的人。

为什么研究员也要进行这种不诚实的炒作呢?这很重要,因为人们对人工智能研究的看法将取决于他们是否会对其进行投资。但这种毫无根据的炒作可能会阻碍该领域取得真正的进展,毕竟人工智能的金融投资与该领域的兴趣水平密不可分。

当然,对算法的炒作有助于研究员推广他们的研究成果并得到资助,而媒体也可以吸引观众到自己的平台,但这对公众来说是不公平的,因为这种恶性循环使得人们都不知道人工智能究竟能做些什么。换句话说,如果我们希望这些项目蓬勃发展,如果我们想要采取切实的方法来实现人工智能,那么该领域就需要更加透明地了解它的作用以及它的重要性!


原文发布时间为:2018-10-17
本文作者:灰灰
本文来自云栖社区合作伙伴“人工智能观察”,了解相关信息可以关注“人工智能观察”。

网友评论

登录后评论
0/500
评论
技术小能手
+ 关注
所属云栖号: 人工智能观察