连线杂志:如何造一个有自我意识的机器人?

简介:

宇宙中充满了一些非常酷的东西:例如,每一小匙重达一吨的中子星,连光都能吞噬的特大质量黑洞,恰好能够流穿过脱氧钢的无穷小的中微子,以及地球上那些奇异的动植物们不过,在宇宙所有已知的事物里,最神奇的莫过于人脑。

人类大脑能够了解中子星,了解黑洞、中微子,以及地球上众多的动植物。人类大脑能够计算出数学真理,能够辨别出道德上半真半假的陈述,也能够思考出哲学上的模棱两可。它能够从我们脚下的泥土中,提取出原材料,构建城市,能建造汽车、飞机和火箭,以及有线和无线信号,并将这些迥然不同的“意识”汇聚成创造力、知识、甚至是残酷行为的“母巢”。

如果说我们的大脑是宇宙中最酷的产物,绝不会引起争论,毕竟如果没有大脑,也就不可能有这些争论。它们是所有争论和辩论的基础。

至少到目前为止,大脑是宇宙中最酷的东西了。或许将来有一天,人类会发现或创造出其他能够去发现、创造、争论、讨论、哄骗的事物,它们可能来自于遥远星球的飞船(这种可能性微乎其微),也可能会出现在某个实验室里(这一点几乎是可以肯定的)——而一些人认为,这些新型“会思考的机器(thinking machines)”可能发生在人工智能里。

人工智能早在六十年前已经问世。在世界各地的实验室,小巧可爱的AI们正焕发着生机。有的AI下棋可以胜过人类最强棋手,有的AI正在学习驾驶一百万辆汽车行驶一百万英里,而有的AI正在学习拯救更多的生命,甚至超过大多数医生或急救医护人员在其整个职业生涯拯救过的生命数量,有的AI会确保我们的餐具干燥且无污渍,或确保我们的衣服穿着得体且没有起皱。人们正在打造无数的人工智能,为其编写程序,它们只会变得更加智能、更加无处不在,它们会变得更好,但它们永远不会像我们人类一样。而这是一件好事。

我们的自我意识程度是将人类与地球上其他生命形态区分的关键所在。大多数动物是有意识的,甚至有许多动物是有自我意识的,但是人类拥有的是高度的自我意识。人类的大脑中有一个连接到我们意识的放大器,并且转到了最大值。

在人工智能领域,充斥着各种对人类智能的不同特性的复制或模仿工作。其中他们必做的一件事是,复制人类意识的打开方式。也许从人工智能研究中,我们收获的最佳产物不是对计算机的理解,而是对人类自己的理解。

因此,我们不妨大胆设想一下,具备自我意识的机器人的打开方式,我们暂且把它称作一个蓝图。

“蓝图”三要素

一个有自我意识的机器人听起来很简单,实则很复杂,我们需要:

机器身体或设备对外界刺激作出回应。这就好比是一辆车在感觉到下雨时会启动挡风玻璃刮水器,或是当车前经过一个孩子时汽车会刹车一样——然而这些都不是问题,因为这些我们都已构建好了。

其次,一种语言引擎。(这同样也不是什么问题。它可以通过在汽车上装数百种不同的指示灯来实现,也可以选择在语音识别系统,如IBM Watson、讯飞听见)。

第三项也是最后一个组件则有一点不同寻常,这是一个独立于机器的组件,用来观察机器身体的其余部分并发出行动指令。

综上,我们需要三个要素:(1)会对刺激因素做出回应的身体;(2)一种通信方法;(3)一种算法,用以推断出这些通信的原因和动机。

机器思维与人脑思维仍相差甚远

要理解人类意识,我们需要深入研究心理理论(Theory of Mind)。不过遗憾的是,这个概念是模糊的,因为它在我们的日常生活中消耗了我们大部分的计算能力——我们的大脑一致都被认为几乎与心理理论机器一样。那么心理理论到底是什么?

说白了,心理理论是一个人的大脑试图了解另一个人的大脑在想什么的一种理论,是个体对他人心理状态及其与他人行为关系的推理或认知。例如,小红想知道小明在思考什么,于是小红就会对小明当前的思想状态创建理论进行推理,这样做是为了猜测出小明下一步要做什么。

在这个例子中,我们暂且把“小红猜测小明在想什么”称之为一级心理理论,它也将变得越来越复杂。小红也可能会很好奇小明是怎样看待她的,这就属于二级心理理论了,它是人类大多数的神经症和想法固执的根源。“小明认为我聪明吗?”“小明喜欢我吗?”“小明会希望我受伤吗?”“小明是因为我做了什么才变得心情好或心情坏吗?”这类问题我们听起来或许会觉得很熟悉,毕竟我们的生活中充满了这样的想法。而这仅仅是一个开始。

如果小红想知道小明对于露西对汤姆的想法有什么看法,那么这就属于三级心理理论了。再简单地说,汤姆知道露西喜欢他吗?或者,小红可能想知道露西认为小明对小红有什么想法。这样听起来已经开始有点混乱,毕竟掺杂了好几个名字,并且都用“思考”这个词将其连在一起,但这恰恰就是我们的思想比任何其他层面上的意识思考更加迷人的所在。我们几乎无法停止这样思考。我们可以将其称之为闲聊或社交活动,但我们的大脑认为这是它们的主要职责——也是它们的主要功能。有人推测,心理理论而非工具的使用,是一开始造成我们的人脑相对大小的原因所在。

以上听起来颇有些哲学范畴了。而在横冲直撞的人类世界里,人脑良好的处理能力可以计算轨迹,形成一种意识,试图了解另一个人的大脑在想什么,因此有人发明了一个抛物线式的公式:F=ma,速度的平方。

不光是人类意识,大量研究表明,许多动物呈现出了不同程度的自我意识。譬如,动物可以辨别出镜子里自己的脸。动物和其他动物会就如何解决一个难题进行交流,然后获得双赢。甚至有大量证据显示,章鱼也拥有自我意识。但是,正如猎豹是陆地上跑得最快的动物一样,人类是心理理论界的皇后与国王。

我曾经看到过我的狗在观察我并猜测我接下来要做什么。它或许在想,我是要把棍子扔掉呢还是不扔?我是要把最后一口食物吃掉呢还是分享给它?我甚至还见过狗狗在设法解决二级心理理论的问题。当它与一个小伙伴玩耍时,它就会来估计我的意图是什么。我突然打开包了吗?或者这是另一个游戏?我的狗应该站哪一边?在动物世界里,狗是一个很好的心理理论例子,因为狗经过多年的进化,与人类接触的比较多,渐渐学会了一些人类行为线索。

随着机器人已经成为我们驯化的伙伴,要发展拥有自我意识的AI,就要继续密切关注这个模型。他们中的一部分机器已经开始试图猜测人类的想法,以及人类下一步会做什么了。目前已经有人在开发一种汽车:能够通过识别用户脸部表情来确定用户的注意力在哪里、是否昏昏欲睡,这属于一级心理理论,目前已被应用于上路的自动化驾驶汽车。

然而,对这些能力的进一步发展并不会引起自我意识的产生。下文有一个非常简单的原因解释了人类意识的神秘,尽管我们如今可以很轻松地在实验室里制造出“有意识”的机器,但并非有“自我意识”或“类似于人类意识”。

人脑模块之间并非协同工作,这正是机器的误区

与我们理解的相悖,人脑不是一个单一的、完整的实体,而是一个集成了成千上万不同模块的中心,只有极少的部分互连。我们喜欢把大脑比作一个计算机芯片,甚至进一步将其精确地想象成一台电脑,有着独立的中央处理单元,将RAM(短期记忆)、硬盘(长期记忆)、冷却风扇(自主神经功能)、电源(消化)等等分离开来。

这虽是一个有趣的类比,但也是一个不可思议的误导。电脑是一个有着一体化标准设计的精密设备,各个部分的几乎都是出于同样的目的在同一时间设计,而且他们的设计目的在于与其他电脑能够协同工作。但这些都与人类思维毫不类似,甚至相差甚远。

人类思维更像是华盛顿特区或大型公司,庞大而复杂。大脑的某些功能在数亿年前便已建立,例如它可以为单个细胞提供能量,也可以通过细胞膜提供钠和钾。而几百万年前建成的神经元,可以确保血液的注入和氧气的吸入。大脑里的每个模块就像是一个拥挤的城市里一个个单独的建筑一样。其中的一些模块甚至与其他模块完全没有交流。血液循环系统和呼吸系统可自由发展,但其他系统很容易发生争吵、抬杠、异议、对其他系统造成破坏等,致使身体出问题。下面是一个例子:

几个月前,我和女友从加拉帕戈斯群岛动身去法国玻利尼西亚,需要花费两星期到一个月的时间来穿越这片3000英里的大海。我女友不常晕船,但在南太平洋一个称为辐合区的区域,汹涌的海面使我们的帆船进入了奇怪且不平稳的节奏,她感到非常难受,而这种可怕的感觉持续了几天。

晕船就是我们的大脑模块之间不与彼此交流(或自己做自己的事)的一个例子。当我们周围环境运动的视觉线索与我们的内耳(感知平衡的所在)发出的信号不匹配时,大脑就会认为我们被人投了毒。而毒素会扰乱我们的大脑处理,导致其无能、产生异常数据,我们又不是水手,所以当我们看到的与运动不匹配时,我们的身体会认为我们已经失去了用两条腿保持平衡的能力,结果就是,我们清空了肠胃(去除了毒素),并躺下来,完全不想动弹(这阻止了我们因摇晃而从高处摔倒,从而导致死亡的可能性发生)。

将人类大脑比作完美设计的台式电脑,这种类比显然很失败,而这个失败的比喻将会引起一些可怕的立法和社会习俗的出现,因为我们似乎不能容忍与不同于我们自己(或平均水平)的设计。如果他们想要模仿人类行为的话,它还将会把人工智能研究者引向错误的方向,不可靠且杂乱脱节的自然处理系统将不得不通过设计内建,我们也将不得不故意打破系统,将它们自然随意地拼凑在一起。此外,我们还要模拟一个该模块最奇特的功能,它用一种非常特殊的方式结合了心理理论。而正是这种结合引起了人类意识的产生,在我们为有自我意识的机器打造的蓝图中,它是最重要的一项功能。

机器还犯了一个最重要的错误

有了心理理论的概念,以及大脑模块之间是不可靠且分离的这些知识,我们已经准备好去理解人类的意识,探索它是如何出现,以及它为什么出现了。

就这一点指出了一个简单的事实:人类意识并不是任何一种实物,它的出现没什么目的,也不会因进化而产生规模效益,但是在人脑的某两个独立模块都非常有用时,它出现了,因此自我意识出现了。

其中的一个模块是心理理论。而前文已经提到,心理理论将比任何其他高级的神经活动消耗更多大脑处理能力。而它又极其重要。因此这个模块存在的问题在于,它不能用它的力量(心理力量)做选择,而是将心理理论能力转为身体指令。譬如,人觉得太冷就会起身调高空调。

fMRI机器的受试者展现出了一个心理理论特质。在实时观察他们的大脑时,我们可以看到,每下一个决定,都在大脑的更高层次模块意识到这个决定之前就做出了。过程大概如此:做出行动然后观察自己行动最后告诉自己为什么会这样做(过程中,非常有用的心理理论工具仍将继续运行,并整理自己的行动)。

更为明显的例子来自于各种神经系统障碍患者。测试对象要么是在视觉处理上有问题,要么是两个大脑半球之间是断绝的,致使其每只眼睛可以显示出不同的图片。例如,他们的一只眼睛会看到一个耙子,而另一只眼睛则会看到一堆雪。而他能够看到耙子的那只眼睛实际上是失明的,但由于模块处理的图像仍然是活跃的,所以当测试者被问及他所需要处理的图像(看到雪的那只眼)看到了什么时,他会回答看到了“耙子”。是不是很有趣?然而真正有趣的是,尽管我们已经将整个过程解释给了他们,这个人依然认为自己的答案是对的。

也就是说,执意建立一个有自我意识的机器,可能在浪费时间,也因此让我认为所谓的“人工智能威胁论”可能性极小。我能想到构建这样机器的唯一原因,就是要雇用更多的精神病学家。

“蓝图”回顾

回顾整个蓝图的起因,曾有一个艾伦·图灵的图灵测试粉丝找到我,她认为建立自我意识的机器将产生一种超级智慧的头脑,能够给出治愈癌症以及冷核聚变的方法,那么我们要如何实际组装出这个具有自我意识的机器呢?

应用我们所知道的头脑理论和不相连的模块,我们首先要建立的是一个意识方案(这些都很简单,并且肯定已经存在了)。使用现成的技术,理想中第一台机器应该看起来像一辆自动驾驶车辆一样,而且工作方式也类似。多年来,实现真正自主驾驶车辆的最大限制是意识装置:传感器让车辆知道周围将发生什么情况,为机器装上了眼睛和耳朵。

有了这些基本的感官,我们就使用机器学习算法来构建人工智能车辆要学习的各种行为。与大多数自动驾驶车辆的研究方向不同——那些工程师们通常想要教会他们的汽车如何安全地做某些事情——我们的团队聚焦于教会一个城市网格中的传感器阵列观察其他车辆,并猜测它们想做什么:

-那辆蓝色的日产车想要去杂货店,因为“它饿了”。

-那辆红色的货车正打算进入一个加油站,因为“它需要能量”。

-那辆汽车“喝醉了”,它似乎视力不太好。

-而那一辆汽车反应速度比较慢,它充满了肾上腺素。

成千上万的这些需求和拟人化的描述被建立在一个巨大的短语或指令数据库中。如果我们正在建造一个人形机器人,那么我们将做同样的事情来观察人,并为人类似乎在执行的各种行为建立一个词汇库。传感器们将会通过扫描眼睛(这就是人类和动物的方式)来观察意识对象。它们将通过我们的面部表情和身体姿势(目前的系统已经能够做到)来学习了解我们的心情。这个库和传感器阵列将形成我们的头脑理论模块。其目的只是讲述其他对象的行为。当我们让它转向自己的时候,魔法就会发生了。

我们的库只是按照一阶概念开始的,但是建立在二阶、三阶的想法之上。譬如下列思考方式:

-那辆黄色的福特车看到灰色的雪佛兰冲着它来了吗?-它稍微转动了一下方向,那么是的。

-那辆面包车是否会认为这辆改装过的高速汽车开得太过咄咄逼人?-它给它让出的空间比给路上其他的汽车让出的空间更大,那么它确实是这么认为的。

-那辆面包车是否认为所有改装过的高速汽车开得过于激进?-它正在给Corvette让出了同样大小的空间,这辆车上的里程表显示它离开经销商只开出了两英里,哦,那么答案就是肯定的。

到目前为止,我们需要使我们的机器能够具备自我感知,所以我们教它在城里自己驾驶。然后,我们要求这辆人工智能汽车观察自己的行为,并猜出它在做什么。这里的关键是,不要给予完美的意识。譬如,不要让它访问已经标记好杂货店位置的GPS单元。不要让它知道车主手机的内容,丈夫发给妻子短信,要她在回家工作的路上接上孩子。为了模仿人类的行为,无知是关键。这样就能确保最初的猜测,或者我们可能会称之为“偏见”。

在我们的算法中,“早期的假设”被赋予“相对较晚得出的理论”更高的权重,那个时候已经有了更多的数据(克服初始偏差需要数据优势。50%的可能性足以初步建立想法,但是要克服初始猜测就需要更高的可能性,比如需要75%)。然后错误的猜测会被调整,并为未来的错误建立云端图片。因此,当一辆汽车每天停在加油站并插入电源插座时,即使汽车只充到85%的电量,头脑算法也假设它是安全的,或者足以为可能到来的飓风做好了撤离准备,就像三年前I-95那次疯狂的逃跑,不会出现燃料耗尽的情况。

但它不知道的是,这辆汽车的乘客每天都在加油站吃一个微波炉加热过的奶酪“小胖子”,还有一大堆炸薯条和半升苏打水。后来,当这辆汽车经常去医院的时候,它会认为这是一个关于汽车检查的指令,而不会想到是车主充血性心力衰竭的发作。而所有机器的错误、困惑以及它对自己猜测的确定,又将给“人工智能威胁论”带来热议。

意识也有语言

人工智能算法可能先于人工智能诞生,算法反映了一种人类意识的秘方成分,这种成分就是语言。语言比任何其他特质都更能够让我们觉得自己的大脑是一个单一的模块,是一个单一的设备。

在提出“人类大脑不是一个单一的实体”引发争议之前,让我们来看看我们的身体,大脑是其中的一部分。我们的身体由数万亿个不同的细胞组成,其中许多细胞可以在我们的身体之外生活和延续。我们的身体可以在实验室里活上几十年(甚至无限期,可以搜索Henrietta Lacks了解更多这方面的情况)。整个器官都可以住在别人的身体里。而且我们体内还有更多的细胞并不是我们的,数量比那些组成我们身体的细胞还要多,因为有更多的微生物生活在我们的消化道里、皮肤上以及其他地方,数量比实际上构成我们身体的细胞总数还要多。这不仅仅是一种搭便车的行为。它们会影响我们的心情、健康、思想和我们的行为。它们是我们认为的“自我”的重要方面。

这可能就像听起来一样恐怖,但的确是事实。有人可以在没有胳膊、腿和大部分躯干的情况下生活,有人失去了一半的大脑,却还过着还算正常的生活。想想看:人到三十,几乎每一个细胞已经都被不同的细胞所取代了,几乎没有一个刚出生时候的细胞会残留下来。然而,我们仍然觉得这是同一个人。了解所有这些生物性以及人脑理性化“同一性”的方式,对于识别人工智能至关重要。

那么语言到底有什么了不起?

我上面提到,语言是意识的关键因素。这是在人工智能领域开展工作的一个非常重要的概念。然而,我们的大脑当中有许多模块,会为了获取我们的注意力和我们的语言处理中心(它紧紧地围绕着我们的注意力,几乎成为一体,或者可以说是一样的)而争斗不休。作为这方面的一个测试,你可以尝试在聆听有声读物或播客的同时与其他人交谈,对于并发通信流来说,最为接近的场景是实时的同传翻译。

语言和注意力是我们大脑倒置的漏斗上的窄口。成千上万的不同模块正在投入到这个漏斗之中。荷尔蒙涌入、我们所处环境的特征、视觉和听觉线索,甚至幻觉和不正确的假设。大堆大堆的数据只能以单一流的方式被提取,因为受到注意力系统和语言系统的限制,这也正是显示器为台式机提供的工作方式,所有的并行处理在最后一刻都是串行的。

这种做法会带来非常可怕的后果。我已经记不起我曾经有多少次觉得自己好像忘记了什么事情,结果在几小时或者几天之后才意识到忘记的是什么事。譬如,曾有一次我把笔记本落在了房间,等到房门关上我才想起来忘记了什么事。那是凌晨四点,而我要赶着去搭乘早班飞机。我也找不到可以——当时,我大脑一部分模块在尖叫着“危险”,但单一的输出流则按部就班地进行,输出了一片空白。

所有这一切的奇妙之处在于,我知道这是如何发生的——危险模块知道情况,可是它无法通过意识的渠道发送出来,所以我还是关上了房门,只有当它发出能够听见的“咔嗒”声的时候,信息才通过,所以我才想起来——在我脑海里响起的警报是我的一部分,但是不是我的整体,只有通过狭窄的语言走廊的东西才能被看到——这就是为什么大脑语言中心受到伤害会影响正常生活和记忆模块受损是一样的道理。我应该在这里说明一下,语言不只是口语。

Watson在智力竞赛节目Jeopardy中胜出的时候,让“他”在人工智能中独一无二的是“他”的序列化输出流,这使我们能够与“他”联系、听他说话,我们可以在他的小蓝色显示器上阅读他的答案,这最终爆发的输出让Watson看起来很像人类,但它终究不是人类。我们的自动驾驶人工智能车辆将不会拥有完全的自我意识,除非我们编程让它告诉我们和它自己关于它的行为的故事,核心就在于,机器将会为它正在做的事情形成故事,但我们不应该让它将这些故事与他人联系起来。

譬如,谷歌人工智能可以画画、翻译,并且在几乎所有已经被创造出来的游戏中击败了人类最好的对手,还可以比人类更好地驾驶汽车,谷歌已经阅读并记住了几乎所有被写出来的书,并可以为你大声朗读这些书,它也像人类一样犯错误,它容易产生偏见(或许是从环境和程序员那里吸收来的),然而它缺少两样东西,就是自我引导循环(self-referential loop)和串行输出流(serial output stream)。

一个更好的想法

为了让我们的机器获得类似人类的自我意识,我们必须让它不顾上文所提到的“那台锁在房间的笔记本”。这可能偶尔需要耗尽能量,通过编程为数以百计的输入模块分配权重,然后人为限制做出最终决定和头脑理论故事所花费的时间和处理能力,这样做比较容易。我们自己的大脑的构建方式就是通过拥有千兆位分辨率的传感器,而每个输入模块都有兆次级吞吐量,但是输出却受到限制。然而我们不会将人工智能视为人类,因为我们永远也不会构建这样的限制。

IBMWatson中建立了一个这样的限制,这是为了适应节目Jeopardy的规则。Jeopardy需要速度,Watson不得不快速确定他的答案是否确定,以知道是否要按抢答器抢答。事实证明,按抢答器的时机是赢得Jeopardy的关键。经常让Watson看起来非常接近于人类的不是它给出的正确答案,而是在它的显示器上看到它的第二、第三和第四个猜测是什么,每个猜测后面都有确定程度的百分比。真正让Watson接近于人类的是它犯错的时刻,就好像节目Jeopardy最后一个答案是属于“美国的城市”这个类别,而Watson对这个问题给出的答案却是一个加拿大的城市。(这里值得注意的是,对我们人类来说,机器人在失败的时候显得最为人性化。)

汽车制造商正忙着制造我们永远不会称之为具有自我意识的车辆,那或许是因为他们把它打造得太好了。而我们的蓝图是使机器在对其动机一无所知的同时提供关于这些动机的运行对话,一个更好的主意是建立一个知道其他汽车在做什么的机器,没有猜测,而且也完全没有运行的对话。

这意味着访问GPS单元、智能手机的文本、家用电脑的电子邮件,而且还可以访问其他的车辆和所有城市的传感器数据。日产车告诉福特车,它将要去商场。每辆车都知道其他的每辆车都在做什么。因此没有碰撞。在高速公路上,具有相似目的地的汽车聚集在一起,磁性保险杠连接起来,共享一个滑流,并集体性地将每辆车的能量使用量减半。机器运行整齐划一。它们显示出车辆的所有能力特征。它们知道它们需要知道的一切,而且有了新的数据,它们就会立即改变主意。没有偏见。

我们很幸运,这是人工智能研究人员今天建造的方向,它不会有那些我们在科幻故事中看到的怪癖,它将提供的是一个精心设计的系统,几乎总是在做它的设计者让它做的事情。事故将是非常罕见的,造成事故的原因能够被理解,这种经验将在机器当中广泛分享,而且会不断改进。

我们假设人工智能将给予我们更多的智力和创意产品(它们已经在这样做了),通过迭代学习的算法(使用机器学习的神经网络)变得更好,实际上它们在每一个我们已经提供资源的领域都已经证明了自己比我们更好。谷歌alphago在第三场比赛中的有一步棋是如此不寻常,令围棋专家们大为震惊,它的下法被描述为“富有创意”和“巧妙的”。谷歌有另一种算法,可以画出它所认为的猫的样子,不是从其他地方复制的猫图像,而是在学习了数百万只真实的猫的样子后,画出了一只猫的“感觉”。

我们建造的大多数人工智能都不会出现像人类的这种情况。他们或许会更智能,也更不偏心:智能汽车将会杀死和伤害更少的人,使用更少的资源,并解放我们无数个小时的时间;智能医疗在组织扫描发现癌症方面已经做得更好了。人工智能律师在预审研究方面做得更好。——没有什么是人类能够与人工智能竞争的了,而是协同工作。

未来

未来,人工智能的数量和复杂程度绝对可以扩展到令人难以置信的程度。许多将被设计的能够模仿人类,因为它们能够通过电话和聊天机器人提供有用的信息,并且它们试图向我们出售商品和服务。绝大多数的人工智能在单一任务中将是非常有效的,即使这项任务与驾驶汽车一样复杂。几乎没有一个人工智能会变得具有自我意识,这不应该是自动化机器的世界中存在的东西,因为这会使它们的工作变得更糟。

未来也有可能是我们自己内部算法的扩展和改进,这个世界对于绝大多数人类来说每一天都在变得更加安全。或者说道德水准正在提升。我们的同情心正在扩大。我们每个人都是我们自己内部算法的程序员,完善自己完全取决于我们自身。首先要了解我们的构建是如此地不完美,学会不要相信我们告诉自己的那些关于我们自己行为的故事,并让我们自己在这个过程中致力于消除错误并安装更新的功能。

因此,我们也许永远不会建造一个像人类一样的人工智能。但是,我们人类意识却可以得到更好的完善。







原文出处:科技行者
转载请与作者联系,同时请务必标明文章原始出处和原文链接及本声明。
目录
相关文章
|
机器人
基于树莓派的FRILLER多地形机器人【MagPi杂志74期14-15页】
MagPi74_14 zh.jpg MagPi74_15 zh.jpg MagPi74_14_en.jpg MagPi74_15_en.jpg
971 1
|
机器学习/深度学习 人工智能 机器人
|
机器学习/深度学习 人工智能 机器人

热门文章

最新文章