量子那些事儿 关注
手机版

量子计算机:从空想到现实

  1. 云栖社区>
  2. 量子那些事儿>
  3. 博客>
  4. 正文

量子计算机:从空想到现实

雪花又一年 2018-05-16 14:34:39 浏览393 评论0

摘要: 本年度的诺贝尔物理学奖由来自巴黎高等师范学院塞尔日·阿罗什(Serge Haroche)教授以及美国国家标准与技术研究院的大卫·维因兰德(David Wineland)教授共同分享,他们两人的获奖理由是分别发明了测量和控制孤立量子系统的实验方法。

本年度的诺贝尔物理学奖由来自巴黎高等师范学院塞尔日·阿罗什(Serge Haroche)教授以及美国国家标准与技术研究院的大卫·维因兰德(David Wineland)教授共同分享,他们两人的获奖理由是分别发明了测量和控制孤立量子系统的实验方法。

在诺贝尔奖委员会的新闻稿中,两位获奖者的成就被称为“为实现量子计算机奠定了基础。”一时间,量子计算机也成为了业界关注的焦点。

薛定谔的猫和诺贝尔奖

对于普通人来说,量子力学是个深不可测的概念。不过,随着最近几年科幻题材电影电视剧的风靡,“平行宇宙”、“平行世界”之类的词汇开始被频频提及,而它正是出自量子力学的相关概念。

想要了解什么是量子计算机,那么首先需要了解“薛定谔的猫”这个量子力学中的经典假设。

1935年,奥地利著名物理学家,同时也是量子力学创始人之一的薛定谔设想出这样一个实验:一只猫被关进一个不透明的箱子里,箱子内事先放置好一个毒气罐,毒气罐的开关由一个放射性原子核来控制。当原子核发生衰变时,它会释放出一个粒子触发毒气罐的开关,这样毒气释放,猫就会被毒死。

根据量子力学的理论,在实验者没有开箱进行观测时,原子核处于衰变和未衰变的叠加状态,换言之,箱子里的猫既是活的也是死的,对于普通人来说,很难理解“既生又死”这样的状态,但这正是量子力学研究的领域。量子力学针对的是在微观环境下的物理现象,在这一环境中,大家中学时候学习的经典物理学中的规律会突然失效,微观世界是由另一套自然法则在操控,这也是为什么薛定谔的理想实验中猫既能是活的也能是死的。

不过,一旦打开箱子,微观实现就会出现“崩塌”,原子核的状态就会确定下来,此时猫是生是死也随之揭晓答案。

长期以来,由于不能实际观测,量子力学仅仅停留在理论之上,而缺乏实践的验证。然而,今年两位诺贝尔奖得主的成就正是在这方面取得了突破。他们各自通过精妙的实验,使“测量和操控量子系统成为可能”,让不打开箱子就能观察猫的生死变成了可能。当然,更重要的是,它也使量子计算机的实现变得不再遥不可及。

不再是空想的量子计算机

所谓量子计算机是基于量子力学基本原理实现信息处理的一项革命性计算技术。1982年,美国物理学家费曼在一次演讲中提出利用量子体系实现通用计算的想法,当时他发现,分析模拟量子物理世界所需要的计算能力远远超过了经典计算机所能达到的能力,而用实验室中一个可控的量子系统来模拟和计算另外一个人们感兴趣的量子系统会非常高效,量子计算机的概念也应运而生。

量子计算机与经典计算机不同之处在于,对于经典计算机来说,其基本的数据单位就是一个比特,相对应的一个比特不是0就是1,而对于量子计算机来说,一个比特可以同时表示0和1,这就意味着两个比特就能表示00、01、10、11四种状态。这样,只要有300个量子比特,其承载的数据就能是2的300次方,这将超过整个宇宙的原子数量总和。简而言之,量子计算机的运算能力将是目前经典计算机所无法比拟的。

前面的表述未免抽象,举一个形象的例子:目前最好的多核处理器能够解密150位的密码,如果想要解密一个1000位的密码,那么需要调用目前全球的计算资源才有可能实现。但是从理论上讲,一台量子计算机在几个小时内就能解决这一问题。在量子计算机面前,目前世界上最复杂的密码也会变得不堪一击,这意味着互联网上将不再有秘密可言,人类需要重新设立一套与现在完全不同的信息加密系统。

量子计算机的用处当然不只是破译密码,在大数据分析的时代,对计算机运算能力的要求正变得愈来愈高,从语义识别到人工智能,都需要倚仗计算机强大的运算能力才能完成,这也让业界对于量子计算机的诞生充满了期待。

不过,虽然理论上300个量子比特就能赋予计算机难以想象的运算能力,但现实与想象毕竟还存在不小的差距。根据清华大学交叉信息研究院助理研究员尹章琦的介绍,估算大概需要至少一万个量子比特才能超越经典计算机的计算能力,“因为我们需要对计算过程进行纠错,所以需要很多个物理比特才能获得一个可容错的逻辑比特。估计需要大概一千个逻辑比特运行Shor算法来超越经典计算机的计算能力,那么物理比特至少要高一个量级,甚至可能要高两个量级”。尹章琦所从事的正是关于量子信息与量子光学的理论与实验研究。

商业化的未来

在学界还在探讨量子计算机可行性的时候,产业界已经迫不及待开始了实践。早在2001年,IBM就曾经成功实现利用7个量子比特完成量子计算中的素因子分解法。

2007年,加拿大的D-Wave公司就发布了号称全球第一台商用量子计算机——采用16位量子比特处理器的Orion(猎户座)。不过,Orion发布后迅速被业界泼了一盆冷水,业内人士称,Orion并不是真正意义上的量子计算机,只是具备了一些量子计算的特性。

去年,D-Wave卷土出来,发布了全新的产品——D-Wave One,这一次它的处理器达到了128量子比特,比前代产品大大提升,一台售价高达1000万美元。但是,由于D-Wave对核心技术三缄其口,学术界无法得知关于其产品的更多信息,质疑之声再起,因为目前能够实现10量子比特已经是相当了不起的成就。

不过,即便质疑不断,D-Wave还是成功拿到了第一张订单,外国媒体报道,美国知名的军备制造商洛克希德·马丁已经购买了D-Wave的产品并且将其用在一些复杂的项目上,比如F-35战斗机软件错误的自动检测。

不仅如此,D-Wave还在今年10月得到了来自贝索斯以及美国中情局下属投资机构In-Q-Tel总计3000万美元的投资。贝索斯的投资逻辑显而易见,随着现实世界的不断互联网化,他的野心自然是通过深度挖掘和分析亚马逊积累的海量数据创造出更大的商业价值,而量子计算机正是实现这一切的基础。

在D-Wave大出风头的同时,老牌巨头IBM也不甘落后,今年2月,IBM宣布在量子计算领域再次取得重大进展。新的技术使得科学家可以在初步计算中减少数据错误率,同时在量子比特中保持量子机械属性的完整性。

IBM TJ沃森研究中心的物理信息主管Mark Ketchen表示,IBM目前已具备在一段足够长的时间内保持栅电极状态的能力,“一旦数据差错降低到足够小,我们就能把许多栅电极组合在一起,从而得到一个完美的量子位,这表明我们已经拿到了入场券,并可以开始真正制造一些东西了。”

当然,量子计算机要想真正实现还有很长的路要走。“量子计算机的第二步是进一步提高量子比特数目到10这个量级,第三步就是到100乃至1000这个量级。第四步是实现可容错的量子计算,最终就可以实现一个超越经典计算机的量子计算机。”尹章琦说,“目前我们刚刚走到第二步。”不过,随着像IBM这样老牌巨头的发力,以及贝索斯这样投资人的介入,量子计算机的真正实现或许离我们已经并不遥远。


原文发布时间为:2013-01-04
本文作者:杨钊
本文来源:钛媒体,如需转载请联系原作者。

【云栖快讯】阿里云栖开发者沙龙(Java技术专场)火热来袭!快来报名参与吧!  详情请点击

网友评论

雪花又一年
文章1321篇 | 关注45
关注
快速、完全托管的TB/PB级数据仓库解决方案,向用户提供了完善的数据导入方案以及多种经典的分... 查看详情
阿里云流计算(Aliyun StreamCompute)是运行在阿里云平台上的流式大数据分析... 查看详情
提供一种性能卓越、稳定、安全、便捷的计算服务,帮助您快速构建处理能力出色的应用,解放计算给服... 查看详情
为您提供简单高效、处理能力可弹性伸缩的计算服务,帮助您快速构建更稳定、安全的应用,提升运维效... 查看详情
双12

双12