《中国人工智能学会通讯》——5.19 对“人工智能威胁论”的释义

  1. 云栖社区>
  2. CCAI>
  3. 博客>
  4. 正文

《中国人工智能学会通讯》——5.19 对“人工智能威胁论”的释义

知与谁同 2017-09-04 15:37:00 浏览787
展开阅读全文

5.19 对“人工智能威胁论”的释义

需要说明,大多数研究者认为,人工智能就是对“人类智能(显性智慧能力)”的探索、理解、模拟和扩展。不过,也有一部分研究者坚持把人工智能理解成为对“人类智慧(包括隐性智慧和显性智慧两者)”的探索、理解、模拟和扩展。有人把前者称为“弱人工智能”,把后者称为“强人工智能”。为了叙述简便,在后面的讨论中,凡是不提强弱的“人工智能”都是指“弱人工智能”;凡是指强人工智能的地方,一定会直接使用“强人工智能”的术语。为什么人们会担心人工智能对人类构成的威胁呢?学术界多数研究者认为,由于人造机器没有自身的目的(机器的工作目的都是非常特定的,而且都是人类设计者设置的,而不是机器自己生成的,所以和人类的目的性质完全不同),由于机器没有自身积累的知识(机器知识库的知识都是特定领域的,都是人类输入的,而且往往是不完备的;虽然机器可以具有一定的学习能力,但也只是针对特定领域的学习),机器难以具备直觉能力、想象能力、灵感和审美能力,因此,在人工智能研究不断取得进展的同时,“强人工智能”的研究至少在可预见的未来难以取得实质性的成果。所以,人工智能专业领域的研究者通常不存在“人工智能威胁”的忧虑。

然而在普通公众和非人工智能专业领域的学者之中,由于对人工智能的真实涵义缺乏了解,对人工智能的工作机制尚不清楚,很容易从字面上囫囵吞枣地想象人工智能的研究,把它误认为是对于“人类智慧(隐性智慧和显性智慧的整体)”的研究。于是,一旦看到人工智能显示出某些卓越(显性智慧)能力,就会产生“人工智能全面超人”的推想,进而造成本不应当存在的恐慌。就以国际象棋和围棋的“人机大战”为例,在人工智能研究人员看来,Deep Blue 和 AlphaGo 战胜人类棋手的事情本不足为怪,因为这些博弈都必须遵守明确而严格的操作规则,而不能创造新的规则,只需要有足够好的记忆和推理的能力,而不允许有创造规则的能力,这样,人工智能就可以凭借它强大的策略存储能力和快速的推理能力而超过人类棋手。

换言之,Deeper Blue 和 AlphaGo 系统都只是模拟了人类的显性智慧能力,不具备人类的隐性智慧能力,所以不具有创造能力,怎么可能“全面超越人类”呢?但是,或者由于不懂得“人工智能机器能够做什么和不能做什么”,或者为了某种利益的需要,一些人就故意在媒体上大势宣传“人工智能打败了人类”,大势炒作“人类末日就要到来”。

网友评论

登录后评论
0/500
评论
知与谁同
+ 关注
所属团队号: CCAI