除了拥有智力,机器人还需要情感吗?

  1. 云栖社区>
  2. 镁客网>
  3. 博客>
  4. 正文

除了拥有智力,机器人还需要情感吗?

行者武松 2018-03-06 14:29:00 浏览1054
展开阅读全文

事实上,所有和人工智能相关的问题都值得认真思考。

一提到人工智能,大多数人自然而然就会联想到被称为计算机之父、人工智能之父的阿兰·图灵。有些人也会对阿达·洛夫莱斯颇有印象,美国国防部曾将一种计算机语言命名为Ada语言,来纪念她。另外,作为诗人拜伦的女儿,阿达·洛夫莱斯认为机器人模拟大脑思考、产生情感是诗意的。

阿兰·图灵和阿达·洛夫莱斯都发明过人工智能测试,尤其是图灵测试十分有名,可以用来测试机器是否能和人类一样思考。比如当人类和机器进行交流时,如果一个人无法区别和自己进行交流的是人还是机器,那么这台机器就算是通过了图灵测试。不过,“思考”的定义本来就很模糊。

一、在2014年已有机器人可以“欺骗”人类

为了让自己设计的机器人通过图灵测试,现在的计算机程序员趋向设计一些“滑头”的机器在本质上能掩盖真实的对话,迷惑人类判断。

在去年7月7日,英国皇家学会的图灵测试大赛中,一个名为Eugene Goostman的机器人伪装成13岁的乌克兰男生,成功“欺骗”了三分之一的评委。

据悉,Eugene是一个人工智能聊天程序,一款专门设计与人类进行聊天的计算机程序或聊天机器人。当然,受到某些超现实主义的影响,这款机器人还能和其他聊天机器人进行对话交流。一起来通过视频感受一下:

不过,很快就有人站出来说,根本算不上真正的人工智能。因为将人类智能设置为一个13岁的乌克兰男生,并且测试是使用的英语,那么测试的时候就算出现一些低级错误,人们也不会怀疑:还能怎么样,他只是一个孩子?这人为的设定本身就为成功“欺骗”人类创造了得天独厚的条件。

二、除了聊天,机器人将拥有创造性思维

在现在看来,与Eugene一样的聊天机器人已经算得上人工智能的里程碑。不过,研究人员还有更具挑战性的使命:让机器人拥有人类最重要的品质——创造力!

四年前,Selmet Bringsjord、Paul Bello以及David Ferrucci三位研究人员拟建了“洛夫莱斯测试”,它是以十九世纪著名的数学家、程序员阿达·洛夫莱斯伯爵夫人的名字命名的。你可以要求计算机去创造一些东西,比如编一个故事或写一首诗。

事实上,《三体》的作者刘慈欣就曾经开发了一个简单的写诗小程序“电子诗人”,实现了计算机自主写诗、编故事。

但是要通过所谓的“洛夫莱斯测试”,所有设计相关程序的人必须能够解释它是如何生成这些创意作品的。

Mark Riedl来自佐治亚理工大学交互计算学院,他提出对“洛夫莱斯测试”进行升级,也就是“洛夫莱斯测试2.0版本”,一台计算机必须要完成一系列越来越苛刻的创意挑战,之后会获得一个分数,并以此评估创造性。

显然,洛夫莱斯测试2.0版本具有一定挑战性,但同时,又有人提出异议,因为他们认为不应该把创造力看做是人类最重要的品质。

三、人工智能系统产生感情共鸣

不过现在,请先忘记“图灵测试”和“洛夫莱斯测试”吧,因为笔者要提出一个全新的人工智能测试——弗兰普顿测试(Frampton Test)。或许你会感到好奇,什么是“弗兰普顿测试”呢?

事实上,在本月初举办的Robotronica 2015机器人创力大会上,Jared Donovan和机器人学家Michael Milford,以及舞蹈家Kim Vincs教授对人工智能创造力进行了一次专题讨论。最近,很多业界人士都认为人工智能在未来是人类最大的威胁,甚至是人类的“终结者”。而在本届机器人创力大会上的这次专题讨论更多地是去关注创造力和机器人的现状,以及人类更希望智能机器去表达什么样的情绪或情感。

在人类的精神层面上,共鸣可以算得上是最高层次的一种情绪表达了,人类具有理解彼此,分享彼此感受的能力,而且在绝大多数情况下,彼此之间根本不需要做太多识别判断,仅仅是一个眼神、一个动作,就能做到心有灵犀。

因笔者提出了“弗兰普顿测试”这一概念之所以要用著名摇滚传奇Peter Frampton的名字来命名,其实是因为他在1973年的一首歌曲中提出了一个重要的问题……“你能像我们一样感觉彼此吗?”

我们知道,人类会在某些特定状态里产生共鸣,同感彼此的感觉。弗兰普顿测试也希望能够达到这一目标,它要求人工智能系统必须在类似的某些特定状态里,给出一个令人信服、且适当的情绪或情感回应。

不得不提,人们已经开始在相关领域里进行探索了,这种所谓“情感计算”的人工智能,希望能够给机器灌输模拟人类共鸣的能力。

当然,要想通过弗兰普顿测试可能还有很长的路要走。另外,现阶段那些机器人身上所表现出的强烈的情绪、情感,其实都是继承自它们的创造者而已。

四、人工智能带来值得思考的问题

据悉,人工智能和机器人研究人员在今年7月发布了一封公开信。这些大佬们在信里提出,如果机器人可以自动控制武器,未来将会是非常危险的。毫无疑问,机器人越来越聪明了,那么为了人工智能不威胁到人类,又引发人们广泛的思考。

其中,有一个有趣的思考,在为机器人设计程序时是否加入情感?如果机器人具备了人类情感,比如同情心,就算机器人具有自动控制武器的能力,它也不会去杀人了。

但是,让机器人具备人类情感就真的是件好事儿吗?我们知道,人类情感并不都是积极正面的,比如憎恨、愤怒、忿怨等等。或许我们真的应该感到庆幸,自己生活在一个没有情感机器人的世界里面。比如,你调戏Siri之后,得到的是恶语相向的回答,真不知道会是个什么样的场景。

虽然社会新闻常常出现“暴力”新闻,但是纵观生活中的大环境,不难发现占据人类生活中主导地位的依然是积极正面的情感情绪。

事实上,所有和人工智能相关的问题都值得认真思考,机器人是否会在未来某一天具有创造力,我们人类是否希望机器人具有创造力呢?诸如此类。

毕竟,人工智能潜伏着灭亡人类的可能性,所以现在对人工智能的思考不能停止。


原文发布时间:2015-08-31 22:21
本文作者:豆瑞米
本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。

网友评论

登录后评论
0/500
评论
行者武松
+ 关注
所属团队号: 镁客网