1. 聚能聊>
  2. 话题详情

为什么大佬们会让大家警惕人工智能?

这些新闻最近各种上热榜:
霍金:人工智能会导致人类灭亡
比尔・盖茨:人类需要敬畏人工智能的崛起
马斯克称人工智能是人类生存最大威胁

这是因为人工智能要进入新阶段了?这些名人是不是可能比较先得到信息,所以向人们预警?
或者是每年都有很多人提出这个问题,只是今年报道的比较多?
有人说在人工智能的发展上存在一个奇点,越过这个奇点就能通过图灵测试。
如果人工智能已经越过了这个奇点,这个世界会发生怎样的质变?
超体和超验骇客都出现过类似越过奇点后,科技的突然爆发。
这又让我想起三体里面,宇宙丛林法则中,由于对对方的不了解,又担心对方文明的突然爆发,所以选择了摧毁。
如果人工智能突然越过奇点,瞬间产生了意识,可以迅速吸收人类的文明,发展出新的文明。
人类跟人工智能之间,会不会出现类似三体里面的博弈?

但是,我还有一个问题:
若人工智能是不是只是模拟了人思维的一部分?并且这部分能力是足够应付图灵测试。
换句话说,图灵测试并不能测试完整的人的思维能力?它只能测试人思维的一部分。
或者说,只通过语言交流是不能够得到被测试物的完整信息?那么这是语言交流的缺陷?或者说人类语言在交流过程中会带来信息流失?

还有一个想法:
是否可以开发出强图灵测试:
比如有针对的出一系列问题,对人工智能作一些全方位的思维能力测试,最后得出它在各个方面的水平,比如在创新能力上,几乎为零,虽然它可以采用插科打诨的方法来避免正面回答,但是最终我们可以得到它在创新能力上的水平。

想了很多,放出来大家聊一聊:

为什么大佬们会让大家警惕人工智能?

人类跟人工智能之间,会不会出现类似三体里面的博弈?

如果让你开发增强型图灵测试,你会怎么做?

参与话题

奖品区域 活动规则 已 结束

48个回答

1

1505105004886745 复制链接去分享

怎样评判它是否智能?第一它要有独立思想,第二,就不是我们能想的到了,其实无所谓智能还是机器,因为那是不可能的,阿里巴巴这么多年一直在朝这个方向发展,至少有10年了。可是机器还是机器,它能做到的就是听人的指挥,它所拥有的是人的思想,不是它自己的思想,人永远不可能造出智能机器人,

it业老兵 回复

现在研究的是人工智能,将来有机会研究机器智能,未来是人与机器战争,好可怕!

评论
1

笨笨的粽子妞 复制链接去分享

为什么大佬们会让大家警惕人工智能?
暂且不论人工智能会不会真的毁灭人类,或者其他什么,单就目前人工智能的过度火热及追捧的现状,我们不得不思考物极必反,所以无论出于什么角度,都是需要理性看待人工智能的。
人类跟人工智能之间,会不会出现类似三体里面的博弈?
一直听说三体很不不错,但是没机会看,我去补补,再回来答……

1

北方的郎 复制链接去分享

为什么大佬们会让大家警惕人工智能?
因为大佬们掌握的信息比我们更多,看得比我们看得更高,更远吧。

人类跟人工智能之间,会不会出现类似三体里面的博弈?
对于现在的人工智能我还不太担心,不过远期就不好说了,要有敬畏之心。
现在的人工智能只是一些软件和硬件的结合体罢了,还没有达到具有自主思维能力的“人工智能”的层级。这样的人工智能要对世界、对万事万物都有自己的想法。现在人类目前对于思维、意识等等的研究都还不够深入,还不能完全解释自我意识的产生、思维能力的形成等等。人们自己都没搞清楚,所以还不能给一堆芯片赋予思维能力呢?所以,在近几年内还不用担心。
不过就像比尔・盖茨说的:“人类需要敬畏人工智能的崛起”。 人类要有敬畏之心,正因为现在人类对思维、意识的研究还不够深入,所以谁也不知道什么时候是人工智能的临界点。当临界点来到的时候可能人类还是一无所知呢。而只要过了这个临界点,人工智能的能力成长肯定是要超过人类的进化的。

如果让你开发增强型图灵测试,你会怎么做?
现在感觉比较容易的还是深度学习算法+大量数据吧。可以考虑结合从互联网爬取。

0

1873402409674416 复制链接去分享

有利也有弊

初心莫负 回复

是的

评论
0

xiongbei 复制链接去分享

佛教有说,有神通的修行者可以六根互用。并且说 :“一即一切,一切即一”。

0

浮生递归 复制链接去分享

为什么大佬们会让大家警惕人工智能?
是提醒大家不要将人工智能用在负面工程上吧。就像菜刀,你可以用来切菜也可以用来……而人工智能如果被用在不好的方面,威力比核弹还大。所以警惕人工智能,不无道理。

人类跟人工智能之间,会不会出现类似三体里面的博弈?
那要看人工智能接下来怎么发展了。就像小孩在成长的过程中,环境怎么影响他,大人怎么教育他,对他以后是什么样的人,起了决定性的作用。人工智能也一样。

如果让你开发增强型图灵测试,你会怎么做?
给出非常有限的信息,让其做出无限的遐想。比如一只羊和一棵草在一起,能发生什么事情。可以答羊吃了草,或者踩了草,或者草给羊挠痒痒,或者什么事都没发生。看看人工智能是否会像人类一样,有无限的创新能力。

来张代金券吧……

0

1252707387943692 复制链接去分享

科技以人为本,如果偏离肯定是利大于弊

0

1338803890449032 复制链接去分享

很高兴收到淘宝事业部的邀请参见本次大会,大会重磅推出和各个峰会指明的方向很清晰,同时展会的活动便于沟通合作,希望大家的共同努力,实现交互式的中国梦,技术模块化便于很多智能交互公司集成开发。这几天的会议只是开端,童鞋们,我是知音,懂技术但不懂开发,精诚合作、未来共享。谢谢
92ff5a95259b4a5ca303b9dd4406c54b_4_1507958417.092674.jpg

0

1334505635473867 复制链接去分享

太落伍了,我该怎么办???

0

1194607709899319 复制链接去分享

好多杞人忧天的啊!科技的进步是绝对的。人工智能现在怎么样不好下定论,但是随着人类的发展必然会遇到这样那样的问题,难道因为恐惧未知就原地停止吗?我们人类从古到今都是这样走过来的,我相信也会一直走下。希望有生之年能去太空旅行。◕‿◕。

0

小桂林 复制链接去分享

人工智能并不可怕只是谁都不愿意对方先研发出来。再智能也只是人工开发,人类是可以控制的,仿生无论在各个方面是最好的图灵测试,能做到超越人的智慧及感官那么人工智能就成功了。

0

苟日新 复制链接去分享

为什么大佬们会让大家警惕人工智能?

因为大佬们有更多的权限,能接触到更多的东西。我听说过市面上很多东西我们能见到的,我们所用的,例如:汽车都有更先进的版本,大佬们慢慢的释放技术积累,他们控制社会某个部分领域的进度。

人类跟人工智能之间,会不会出现类似三体里面的博弈?

对于将来的人工智能要有敬畏之心。
人工智能的能力成长肯定是要超过人类的进化的。因为他是先进生产力的代表,我们人类社会生产力发展到一定程度,其他科学技术依靠人力无法继续带动生产力发展了,就需要依靠人工智能来进一步推动社会进步。哪个时候的人工智能会不会可控?会不会像【终结者】来终结人类很难说!

如果让你开发增强型图灵测试,你会怎么做?

我觉得从硬件着手。生物医疗进步可以进一步研究人脑及其他生物的大脑,研究大脑的思考方式。然后开发智能芯片及人体与智能芯片接口,到时候人体就像穿衣带帽一样,想增强哪方面的超能力就穿戴什么样的设备。
当然软件也要跟上。大脑的思考内容解读,与穿戴智能芯片通信控制等。
随着人体智能芯片的不断进步,我相信最终 部分的人体智能芯片可能会学习及拥有人的部分或全部特征功能。在这个过程中才会出现增强型的图灵测试试卷。现在我们的研究还早,还浅。

0

1016107444926015 复制链接去分享

再聪明也是人发明的!

0

1148197864712180 复制链接去分享

未来老龄化发展机器肯定比人多,解放劳动力的需要机器肯定更聪明,这都是趋势,但明知这样发展人工智能有危险却改变不了什么,利润太高无法拒绝,限制某程序总有一天也会因某些贪念被解开,总感觉无解,好像人类的结局是必然

0

指尖。 复制链接去分享

万一机器人掌握了无数知识,恐怕要危险了。

0

蔡火 复制链接去分享

行行

0

陈序婷 复制链接去分享

为什么大佬们会让大家警惕人工智能?
因为人工智能的进步发展是集思广益的结果,不是由任何一个单独的个体推动的。一个人和另外一个人相比,可能有时候直接就有聪明与愚笨的区别体现出来。而一群人的智慧和一个人的智慧相比,结果是不言而喻的。举个简单的例子来说:对于大多数人,他们的计算速度不会超过10块钱的普通计算器。一是由于计算器更擅长计算,二是计算器的发明不能单单归功于某个人。
人类跟人工智能之间,会不会出现类似三体里面的博弈?
如果换一种提问方式:如果未来有一个物种和人类之间产生博弈,你认为多大可能是人工智能。我可能会回答99%。因为从目前来看人类可以说是称霸了地球(当然,这个说法很幼稚),智慧上可能和人类抗衡的除了未来的人工智能很难找出其他的东西。
如果让你开发增强型图灵测试,你会怎么做?
如果语言匹配的库足够大,那么计算机是可能通过图灵测试的。但是这并不是图灵计算机真正意义上的标准,因为它本质还是语句匹配而不是语义识别。如果让我设计的话,我希望对话中穿插一些明显错误的句子例如:“天明雨下会不?”,看看计算机会如何反应。(因为语句匹配中一般来说不会有这种句子)如果计算机回答猜测明天的天气情况,那么说明是不能通过测试的。因为一个人对这种句子的反应应该比较惊愕。

0

1139989729101008 复制链接去分享

人工智能的推广会导致人越来越懒,四肢退化,大脑迟钝,表面看促进了社会进步,但凡事有个尺度,一旦太智能了,会不会比人类都聪明?所以不是不可以发展,但一定要控制在人类的掌握之下。

0

david.lau 复制链接去分享

就像外来物种没有天敌 控制不了人工智能就会被受控制

0

1675106639099203 复制链接去分享

在其拥有意识的瞬间,他不像我们人类小孩一样需要慢慢成长,网络所有的数据都将是他认知世界的切入点。庞大的数据会让他形成怎样的价值观很是关键。甚至可能第一个自我意识的形成,可能就是后来所有AI的意识。

3