2020科幻元年来了!面对愈发智能的机器,人类“最强大脑”有哪些建议?

  1. 云栖社区>
  2. 博客>
  3. 正文

2020科幻元年来了!面对愈发智能的机器,人类“最强大脑”有哪些建议?

云栖号资讯小哥 2019-12-09 17:58:04 浏览704
展开阅读全文

云栖号:https://www.aliyun.com/#module-yedOfott8
第一手的上云资讯,不同行业精选的上云企业案例库,基于众多成功案例萃取而成的最佳实践,助力您上云决策!

image

大数据文摘出品
作者:李佳芮

1982年《银翼杀手》上映,电影中幻想着37年后的世界。现在是2019年12月,洛杉矶一切正常,我们没有被“复制人”所带来的伦理问题所困扰,也没有拥有赛博朋克化的世界。

2017年,据《大西洋月刊》网站报道,Facebook人工智能研究实验室使用机器学习来训练聊天机器人程序,结果发现两个机器人竟逐渐发展出了不同于人类语言的对话,研究人员不得不对其进行人工干预。诚然,在人类看来,这些沟通不过是一堆乱码。但是,从AI 智能体的角度看,这些内容是不是拥有词义的“文字”呢?

2018年,一副人工智能画出的肖像画拍卖出了43.25万美元的高价,机器算法背后是否有意识?是否可以欣赏美、进而创作美呢?

就现状而言,人工智能产生情感与意志距离实现还有很长一段路要走,但是我们人类作为一个物种,真的有能力控制具有完全意识、不受监管、能自我完善的人工智能吗?

由世界上最聪明的人组成的精英网络沙龙Edge今年就围绕“人工智能”这一主题进行了讨论,美国著名的文化推动者和出版人约翰·布罗克曼带着25位顶尖思想家们温故了维纳的《人有人的用处:控制论与社会》后,撰写文章,汇编成了一本文集《AI的25种可能》。这本书并不是评价人工智能的善恶,而是探讨人类与人工智能的关系。正如约翰·布罗克曼所言,“我们应该找到人工智能领域里的主流者与持不同意见者,让这些人都能阐发自己的观点,以此来审视人工智能历史的演变,以及人类和人工智能未来的几种命运。”今天就让我们先领略其中三位智者的观点吧!

罗德尼·布鲁克斯:人类在遭受剥削和攻击

20世纪60年代,计算牢固地建立在图灵和冯·诺伊曼奠定的基础上,是以有限字母表为基础的数字计算。在当时,图灵和冯·诺伊曼既没有预见到摩尔定律会带来计算能力的指数增长,也没有预见到计算机器会变得如此普及。他们还没有预见到这两个计算模型的发展,每一个都对人类社会构成巨大威胁。

第一个发展源于他们所采用的抽象概念。冯·诺伊曼在架构中将数据和指令存储在统一存储器的这一特征,被开辟了许多途径。最常见的一种路径称为“缓冲区溢出”,它将一个大于程序员预期的输入数字或长字符串溢出到存储指令的地方。通过仔细设计一个迄今为止特别大的输入数字,使用软件的人可以用程序员不打算使用的指令感染它,从而改变它的行为。这是创建计算机病毒的基础。现在人类几乎一切都依靠计算机,从基础设施到娱乐活动,所有这些都是脆弱得不堪一击的。与此同时,我们社会的许多方面都可能受到恶性攻击,不管攻击来自职业罪犯还是民族国家的对手。这些及其他形式的数字攻击使我们每天的日常生活不再有安全感。

第二个发展是计算不再是简单的计算功能。机器不再简单地计算一个函数,而是保持一种状态,它可以通过呈现给它的请求序列,对人类进行推断。当不同的程序在不同的请求流之间相互关联,例如,将网页搜索与社交媒体网站相关联,或者与在另一个平台上的支付服务相关联。这时,由许多程序构成的总系统,由于程序之间相互沟通,以及它们与数据库的通信,会带来全新的隐私泄露。

人类已经陷入困境:我们正被一些公司剥削,这些公司提供了我们渴望的服务,但与此同时我们的生活却依赖于许多软件系统,这些软件系统极易收到攻击。让人类摆脱困境将是一个长期任务。它将涉及工程、立法以及最重要的,道德领导力。

扬·塔里安:人工智能风险信息能够拯救人类免于灭绝

我通过尤德考斯基的博客接触到了一个革命性的信息:人工智能的持续发展会造成宇宙规模的变化,这个失控的过程可能会杀死每一个人。要避免这种结果,我们需要投入大量额外的努力。这个信息太过疯狂,不过这并不是科学幻想,而是一个非常严重的问题。

有一些人永远不会承认人工智能有潜在的危险。否认人工智能风险的人通常都有经济或其他的务实动机。其中一个主要动机是公司利润。人工智能是有利可图的,大公司追求自身利益,没有人性,而这些利益可能与任何为他们工作的人的利益不一致。另一个对人工智能风险视而不见的强烈动机是人类的好奇心。“当看到一些技术上会带来甜头的事情时,人们会想都不想只管去做,只是在技术成功之后才会争论该拿这个技术怎么办。人们就是这样对待原子弹的。”罗伯特·奥本海默如是说。我们需要认识到进步未必一定会带给我们一个美好的未来。

在我看来,人工智能风险的核心在于超级智能人工智能是一种环境风险。对于超级人工智能最关心的高效计算来说,地球目前的环境几乎肯定不是最佳选择。因此,我们可能会发现我们的星球突然从人为的全球变暖转为机械化的全球冷却。人工智能安全研究需要解决的一个重大挑战,是如何使未来的超级智能人工智能——一种比我们人类的碳足迹大得多的人工智能,不要把我们的环境变得不适合生物生存。

我非常希望,世界上新一代的领导人把人工智能控制问题和人工智能理解为终极的环境风险,希望他们能够超越通常的部落思维与零和博弈,引导人类越过这些危险地带,从而打开通往太空的道路。它们已经等待我们几十亿年了。

阿莱克斯·彭特兰:大数据的出现给了我们重铸文明的机会

我们生活在一个史无前例的历史时刻,一切都变得“数据化”,我们可以测量人类生活的大部分方面,乃至测量生活的所有方面。人类已经开始使用人工智能和机器学习来指导整个生态系统,包括人类的生态系统,从而创造人类-人工智能生态系统。我们要怎样才能创造一个良好的人类-人工生态系统,一个不是机器社会,而是一个机器和人都能像人一样生活在其中的网络文明,一个具有人类感受的文明?

人工智能机制的关键就是分析它们的表现是否正确。我们需要真实的反馈来使这个人类机制运转良好,需要有好办法来了解其他人在做什么,以便我们能够正确评估受欢迎程度,以及这个选择正确与否的可能性。

下一步是为人类建立这个信度分配函数,有了这个反馈功能,我们就可以建立一个良好的人类人工生态系统,也就是一个智能组织和一种智能文化。我们可以解决在许多不同的情景中建立准确的信度分配函数的问题。例如,在公司中,可以使用数字身份证来显示谁与谁有联系,这样我们就可以每天或每周评估与公司结果相关的联系模式。

接下来尝试在更大规模上做同样的事情,我称之为建立数据信任网络,你可以把它看成一个像互联网一样的分布式系统,但是它能定量测量,能传递人类社会特质,就像美国人口普查能告诉我们人口数量和预期寿命一样。

在未来我们将如何通过构建人类-人工智能使人类更加智能化呢?有两个方向:一个是我们可以信任的数据,这些数据已经被广泛的社群审查过,这些数据的算法是已知的和可以监控的,就像我们完全信赖人口普查数据一样,至少我们相信它们是近似正确的;

第二个方向是公正地以数据为导向对公告规范、政策和政府进行评估,这要基于描述当前情况的可信数据。可信的数据加上对规范、政策和政府的以数据为导向的评估,共同创造出一个信度分配函数,它可以提高社会的整体健康度和智能化。

本文部分节选自《AI的25种可能》

原文发布时间:2019-12-09
大数据文摘出品
本文作者:李佳芮
本文来自云栖社区合作伙伴“大数据文摘”,了解相关信息可以关注“大数据文摘

云栖号:https://www.aliyun.com/#module-yedOfott8
第一手的上云资讯,不同行业精选的上云企业案例库,基于众多成功案例萃取而成的最佳实践,助力您上云决策!

网友评论

登录后评论
0/500
评论
云栖号资讯小哥
+ 关注