微软研究院舵手Horvitz:AI让机器拥有自主意识

简介:

5b2c9da3f56355f2f6808f898b9656d70ec0a761

身为微软Building 99实验室的主任,Eric Horvitz送给每名员工一本David McCullough写的《莱特兄弟》。“我对他们说看,‘请认真阅读这本书里的每一个字。’”Horvitz边说边用手敲打着桌子,强调他的每个音阶。

Horvitz希望他们通过莱特兄弟的故事明白,要创造一个新的行业所需要投入的精力和决心。从某种意义上讲,他本人在人工智能行业的职业发展也经历了类似的过程。在将近25年的时间内,Horvitz始终在努力让机器具备比肩人类的智能。

要实现这个目标,不仅要在不同的学科开拓新的领域,还要在怀疑声中对人类的创造力保持坚定的信仰。第一台飞行机器“在海滩上扑闪着翅膀,它的腾空而起是一个奇迹。”Horvitz说,“但50年后,我们有了波音707,有了完整的航空业。”

Horvitz希望彻底改变人类与机器的互动方式,既可以开发新的方式,让人工智能为人类驾驶飞机,也可以设计虚拟个人助理来为人们提供各种帮助。由于刚刚被任命为亚洲之外所有微软研发中心的主管,他还将有机会继续扩大自己的影响力。

在新的岗位上,Horvitz将利用每个实验室在人工智能方面的专业技术——包括华盛顿州雷蒙德市、印度班加罗尔、纽约州纽约市、马萨诸塞州剑桥市和英国剑桥——将其融合到微软的核心产品之中,同时在雷蒙德组建一个专门的人工智能项目。

他还准备在微软研究院内部针对人工智能的社会影响展开研究。他表示,自己希望从事的工作将具有“革命意义”。

59岁的Horvitz获得了科技行业最具影响力的人的支持。微软CEO萨提亚·纳德拉(Satya Nadella)过去两年一直在围绕人工智能重建微软。“我们希望把人工智能引入方方面面,使之无所不在,让它为所有人服务。”他去年对开发者说。

让Horvitz执掌微软研究院的大权,有助于确保微软对这项技术的长期关注。

人工智能的难题

Horvitz长期以来都在呼吁加强人工智能的安全性和伦理性,他已经利用自己可观的影响力对人工智能研究提出了很多尖锐问题。例如,如果机器无意识地监禁了无辜的人,该怎么办?这项技术是否可以不顾社会影响,创造巨大的经济不平等?

Horvitz通过人工智能合作组织(Partnership on Artificial Intelligence)汇集了科技行业规模最大、最有影响力的公司在这些问题上的思考,希望以此针对智能产品的透明度、责任心和安全性制定行业标准。当他出席美国参议院的听证会时,还对自动化决策系统的前景展开了冷静的分析,同时建议对这项技术的潜在危害保持警惕。

2007年,Horvitz当选美国人工智能协会(AAAI)主席,任期两年——这是人工智能研究领域最大的行业组织,其影响力不容小觑。

随便找个人工智能专业的博士生,问问他们人工智能研究领域有史以来最重要的研究人员,他们给出的答案无外乎Marvin Minsky(1981至1982年担任AAAI主席)、John McCarthy(1983-1983年担任AAAI主席)和Allen NewWell(1979-1980年担任AAAI主席)。由此可见这个职位的重要性。

在Horvitz担任AAAI主席期间,他一直在寻找人工智能应用于现实世界后的盲点。“他们不得不应对各种未知。”他说。如今,他们对于这些未知有了更好的了解:即便是无意间融入的偏见数据,也会导致执法部门使用的人工智能系统产生性别歧视和肤色歧视;无人驾驶汽车可能忽视现实世界中的某些危险;黑客也可能蒙蔽人工智能系统,使之产生误判。

Horvitz担任AAAI主席的高潮发生在2009年,当时在加州太平洋丛林市的Asilomar酒店举行的一场会议讨论了人工智能的伦理问题,与1975年同样在这座酒店举行的DNA修饰会议秉承了相同的精神。这也是首次在学术界之外探讨这个问题,从很多角度来看,那场会议都成为了整个行业的转折点。


“当时参加会议的所有人后来都成了人工智能技术应用领域的重要参与者。”当时与Horvitz共同主持会议的Bart Selman说,“那场会议也让外界开始思考如何开发有责任的人工智能技术。这也催生了人工智能安全这个新领域。”

自那以后,人工智能扮演的角色便成为公众关注的话题。Faceboook的马克-扎克伯格(Mark Zuckerberg)也必须回答Horvitz十年前提出的问题:如果算法提供了错误信息或把人类困在过滤气泡里面,谁要为此负责?

底特律汽车厂商和硅谷新兴对手也在针对相关的哲学问题展开争论:当乘客和行人同时面临致命威胁时,无人驾驶汽车应该如何抉择?

入坑

伦理和安全问题尚未定论,但毫无疑问,AI在诸多方面仍能带给人类益处——这也让Horvitz有理由花费更多的时间来思考这些问题,而这种思考甚至延伸到了实验室之外。

Quartz记者第一次见到Horvitz时,后者正在肯特谷冰球馆的场地上驰骋。刚刚收获了一场4比1的胜利、还穿着“黑客”队队服的Horvitz很快将记者介绍给了他的一位队友Dae Lee,并随之发起了一场关于AI潜在应用领域的讨论。

“医院里,每年有40000人死于那些本可以被避免的事故。”戴着头盔、仍然气喘吁吁的Horvitz说,“Dae目前正在着手开发一些预测性的机器学习算法来减少这些事故的发生。”

第二天再见到Horvitz时,他将更多的想法介绍给了记者:比如用算法来优化拼车方案,从而减少交通拥堵;或者开发一套根据某人在网络上的搜索记录来预判癌症的系统(当身体出现某些疾病征兆时你可能会去搜索相关信息);Horvitz甚至开发过一套软件,能根据某一地区的历史数据来预测其未来可能出现的问题,如疾病、干旱等,从而帮助一些慈善机构更有针对性地进行援助行动。

Horvitz在心中已经将这些想法咀嚼了数十年之久,而如果一种想法尚未完全成型,他也不会藏着——不管是在谈论他作为成员加入的某个组织时,还是一种关于“意识是否是其部分总和”的想法时(Horvitz目前感觉答案是否定的)。

在大学时期,Horvitz同样在追寻类似问题的答案,并在后来在宾汉姆大学拿到了生物物理学的学士学位。修完学业后,他将一个夏天花费在了曼哈顿的西奈山医院里,在那里,他用示波器对小白鼠大脑神经元输出的电信号进行了观测。

Horvitz原本无意踏入计算机软件领域,但在斯坦福医学院的第一年,他就发现自己真正的意愿是去研究电子大脑——也就是说,让机器可以变得像人一样去思考。盯着苹果的第二代电脑,Horvitz意识到自己在着手解决人类大脑活动问题的过程中,似乎选择了一条错误的道路。

“我当时觉得,这种把玻璃电极贴在头上来观察神经元活动的做法,就像是把电线贴在那些黑色的计算机主板上然后去推断操作系统的想法”。Horvitz说。

他开始试着由外及内地去理解有机大脑,而不是由内而外地去重构它。在拿到了医学学位后,Horvitz选择继续去斯坦福深造并拿到了人工智能的博士学位。

Horvitz关于AI最初的一些想法与医学直接相关。他曾经设计过一种程序,这种程序能够通过迅速辨别一名病人的病情到底是呼吸困难还是呼吸衰竭,来帮助创伤外科医生完成分诊。

但当时的电脑,包括著名的苹果IIe在内,全都又慢又笨重。要让机器在指定时间内做出优秀决策的唯一方法是让它们知道自己的极限——它们要知道并决定自己是否能够做这个决策,或者做这个决策是否太晚。

机器需要具备意识。

科幻小说

几十年来,具有自主意识的机器一直是科学小说的常客,而Horvitz一直致力于把这种机器造出来。亚马逊、Google和Facebook等公司,都在自己的产品中广泛使用了人工智能技术,其中大多数集中在构建深度神经网络(DNN)。

DNN在识别图像中的人或物体、语音识别、理解文本等方面效果显著。而Horvitz更关心的是:如何让机器像人类专家一样做决定,以及如何更快更好。

1990年他在斯坦福发表的一篇论文中,把这个想法描述为“自动推理系统的理性行动模型,利用灵活近似法和决策理论程序来确定如何最有效地解决有限计算资源下的问题”。

这就是一种自主意识。尽管对这个词如何准确界定还有争议,但可以被理解为:理解自身限制后展开的行动。

Horvitz清楚的指出自主意识不是一个简单的开关,而是人类每天无意中进行的小预测汇聚成的海洋,而且有时可以被逆向工程。

为了看清这一点,可以参考这个Horvitz在2009年的一项研究。一个AI为两个人类玩家主持了一场问答游戏,这个AI会考虑它有多长时间形成一个问题并念出来,还得预测这么做是不是有礼貌。

另外,如果AI的摄像头在背景中看到第三个人,它会停止游戏并询问新人是否有意加入。这只是小小的一步,但确实出乎意料之外。

“很像魔法,对吧?那一刻这个系统仿佛有了生命”,微软高级研究工程师Anne Loomis Thompson说。“当这些系统开始工作时,感觉就像它们真能和你互动,就像科学创造的生命一般”。

褪去微软这层外衣,Horvitz对AI的安全性更感兴趣。他出资赞助了2014年启动的斯坦福大学人工智能百年研究项目(One Hundred Year Study)。此项目在学术框架下探讨人工智能的长期影响,其成员包括了经济、就业、娱乐、交通、城市发展、公共安全等各个方面的专家。它的首个目标是估测2030年AI对一座城市的影响。

这个关于人工智能的合作组织是由微软、谷歌、亚马逊、Facebook和苹果的AI领导人共同组成的,在Horvitz的构想中,它代表了一种能将这一产业的资源聚集起来,并对AI的用途进行探讨以使人类受益的形式。

最近这个组织发布了其目标,主要围绕AI系统的公平性、包容性、透明度、隐私性、道德性和安全性制定出实践方案。此组织还邀请了像Jason Furman(奥巴马首席经济顾问)等大牛来做技术顾问。Horvitz说,目前大概有60家公司意欲加入。

尽管AI驱动的世界存在潜在的危险,但Horvitz相信科技可以使人类的生活更有意义。而现在,他也有了更大的平台来分享自己的想法。

本文来源于"中国人工智能学会",原文发表时间" 2017-05-03 "

相关文章
|
1月前
|
人工智能 IDE 安全
微软AI程序员登场
【2月更文挑战第27天】微软AI程序员登场
51 2
微软AI程序员登场
|
1月前
|
人工智能 搜索推荐
NUWA-XL:微软视频创作AI编辑工具
【2月更文挑战第17天】NUWA-XL:微软视频创作AI编辑工具
42 3
NUWA-XL:微软视频创作AI编辑工具
|
1月前
|
人工智能 安全 搜索推荐
OpenAI、谷歌、微软、Meta联名签署AI公开信
【2月更文挑战第16天】OpenAI、谷歌、微软、Meta联名签署AI公开信
22 2
OpenAI、谷歌、微软、Meta联名签署AI公开信
|
2月前
|
人工智能
微软变“渣男”!据悉已投资法国开源 AI 独角兽Mistral,OpenAI成“备胎”了?
【2月更文挑战第8天】微软变“渣男”!据悉已投资法国开源 AI 独角兽Mistral,OpenAI成“备胎”了?
42 3
微软变“渣男”!据悉已投资法国开源 AI 独角兽Mistral,OpenAI成“备胎”了?
|
5月前
|
人工智能 API 开发工具
【Auto-GPT】会自主完成任务的 AI!安整的安装&使用教学
【Auto-GPT】会自主完成任务的 AI!安整的安装&使用教学
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
函数计算FC 这个模型AI大语言模型支持自主训练吗?
函数计算FC 这个模型AI大语言模型支持自主训练吗?
305 1
|
5月前
|
人工智能 数据可视化 物联网
vivo AI全球研究院 BlueLM-7B系列开源!魔搭社区最佳实践教程来了!
BlueLM 是由 vivo AI 全球研究院自主研发的大规模预训练语言模型,本次发布包含 7B 基础模型、7B 对话模型,4bits量化的7B对话模型,支持 32K 的长文本基础模型和对话模型。
|
6月前
|
机器学习/深度学习 人工智能 算法
专栏介绍《机器智造:AI与实战学习》
专栏介绍《机器智造:AI与实战学习》
37 0
|
6月前
|
人工智能 并行计算 芯片
|
8月前
|
存储 机器学习/深度学习 人工智能
LangChain + Streamlit + Llama:将对话式AI引入本地机器
在过去的几个月里,大型语言模型(LLM)获得了极大的关注,引起了全球开发人员的兴趣。这些模型创造了令人兴奋的前景,特别是对于从事聊天机器人、个人助理和内容创作的开发人员而言。LLM带来的可能性引发了开发人员的热情 |人工智能 |NLP社区。
452 0