相比传统计算,量子计算有什么特别?

简介:

实验和理论物理学家目前都对开发基于量子理论的计算机的前景感到欢欣鼓舞。军方(他们可以提供大量资金)和大公司也对此有着浓厚的兴趣。量子计算是 21 世纪前 20 年中最热门的科研课题之一,量子计算主要依靠对量子实体(电子,光子或单原子)的操纵,这些量子实体可以同时处于两种状态,就像薛定谔著名的“既死又活的”猫一样。下面是我的题目。

这是计算科学的一个分水岭,原因在于量子计算机不仅仅在运算速度上,在其他方面也远远超过了传统计算机。例如,量子计算机可以用来破解传统计算机完全不可能破解的密码,这也是军方和大公司感兴趣的主要原因之一。几十年前这一点在理论上就已得到了证明(理查德•费曼是第一个对这些问题进行思考的人);而目前实用的量子计算机已经投入使用了。不可否认的是:迄今为止,如果用量子计算机解决非常简单的问题,例如,找出 15 的所有因数,就需要大量昂贵又不太可靠的设备。

但是所有见证了传统计算机从昂贵又不太可靠,动辄占据整个实验室、浑身遍布发光的“阀门”的机器发展到个人电脑和 iPad 整个历程的人都不会怀疑, 10 年内计算机世界将发生天翻地覆的变化。更神奇的是:这样的机器将使得物理学家可以更好地把握量子世界的本质,在量子世界中,通信的传播速度要超过光速;远程传输成为可能;粒子可以同时位于两个不同的地点。其影响目前尚不可知,但是可以说,量子计算机所代表的进步远远超越了传统计算机,就像传统计算机曾经远远超越了算盘一样。

传统计算机通常被称为“经典”计算机,可以对二进制数字或字节组成的信息进行存储和处理。这就像普通的开关,可以处于两种位置:开或者关,上或者下。开关的状态是由数字 0 和 1 来表示,计算机所有的操作就是以适当的方式改变这些开关的设置。当我写这些句子时,我的电脑上在运行文字处理程序,同时也在播放音乐,还有一个提醒我收到新邮件的电子邮件程序在后台运行。计算机之所以具有这些以及其他一些功能是因为 0 和 1 的字符串正在计算机的“大脑”内被移动和操纵。

8 个这样的比特[0或1]构成一个字节,此外,我们是在按二进制而不是十进制进行运算,乘法运算的步骤不是按照10,100,1000 等进行递进,而是按照 2,4,8,16 这样进行递进。结果就是: 2^10 表示为 1024 ,接近 1000 ,又因为我们习惯于使用十进制,因此, 1024 个字节被称为千字节。同样, 1024 个字节构成一个兆字节,而 1024 个兆字节构成一个千兆字节。我的笔记本电脑的硬盘驱动器可存储 160 千兆字节的信息,而“计算机的大脑”- 处理器可以同时处理高达 2 千兆字节,这些字节都是以 0 和 1 字符串的形式进行存储的(而这样的计算机已经很落后了;今年的新型号计算机的功能要强大得多)。

相比之下,量子计算机则完全不同。在量子的世界中,电子等实体可以处于一种叠加状态。这意味着量子开关可以同时处于“开”和“关”两种状态,就像薛定谔的“既死又活的”猫一样。电子本身具有一种“自旋”的性质,这与我们日常生活中所指的“旋转”不同,但是可以认为这是指电子在做向上和向下的运动。假设“上”对应于 0 ,而“下”对应于 1 ,那我们就有了一个二进制的量子开关。在适当的条件下,量子开关可以同时处于“向上”和“向下”的状态。或者也可以处于“向上”的状态或“向下”的状态,这样就有了三种可能性!

约翰·格里宾,来自:维基百科

一个处于叠加状态的量子开关可以同时存储数字 0 和 1 。借用经典计算机的语言来说,这样的量子开关就叫做量子位元,全称是“quantum bit”,读作“Cubit”,和圣经中的长度单位“肘”(Cubit)同音。量子位元就是指本书标题中的“量子猫”。量子位元的存在令人振奋。例如,两个传统的比特可以表示0到3这四个数字中的任何一个,它们有四种不同的组合方式: 00 , 01 , 10 和 11 。要同时表示所有的这四个数字(0,1,2和3),你就需要四对数字,即一个字节。但是只需要两个量子位元就可以同时表示所有这四个数字。作为一个数字像这样进行存储和运算的一组比特(或量子位元)叫做一个寄存器。一个寄存器由 8 个量子位元(=1个量子字节)组成,可以同时表示 28 个数字而不是 4 个数字。那么,一个量子字节中就可以存储 256 个数字。或者,正如牛津物理学家大卫·多伊奇所说,量子字节在多元宇宙中表示 256 个不同的宇宙,按某种方式进行着信息的共享。

在一台正在运行的量子计算机中,任何操作都需要同时在所有 256 个宇宙中,对所有由这个量子字节的信息所表示的 256 个数字中的每个数字进行处理,就像我们有 256 台经典计算机,每一台处理我们宇宙中的问题的一个方面,或者说,一台计算机需要运行 256 次,每求一个值都要运行一次。展望更远的未来,基于 30 个量子位元处理器的量子计算机将具有相当于一台传统计算机 10 万亿次浮点运算的能力(可以每秒进行万亿次浮点运算)— 这个速度超过今天的传统台式计算机一万倍,今天的计算机可以进行每秒 10 亿次浮点运算。

这些数字预示着量子计算机的神奇能力;但是关键之处在于在计算结束后如何获取有用的信息——让不同的宇宙以适当的方式互相交涉以产生一个我们可以理解的“答案”,而不会在这个过程中破坏有用的信息。世界各地的数个研究团队已经掌握了这个方法,其中包括我所在的苏塞克斯大学的一个研究团队。这本书将告诉你,如何在原则上建造一台量子计算机。但是在这样的背景下,我想追溯一下机器计算的起源,如我们所知,要追溯到上个世纪30年代,这个时间比人类的寿命还要短,并且我还要介绍一下启动这一进程的人物的相关研究。


原文发布时间为:2017-03-22
本文作者:曾梦龙
本文来源:好奇心日报,如需转载请联系原作者。

目录
相关文章
|
12天前
|
机器学习/深度学习 自然语言处理 并行计算
量子计算与神经形态计算:区别、联系及未来潜力对比
量子计算与神经形态计算:区别、联系及未来潜力对比
20 4
|
2月前
|
机器学习/深度学习 存储 人工智能
存内计算芯片研究进展及应用—以基于NorFlash的卷积神经网络量化及部署研究突出存内计算特性
存内计算芯片研究进展及应用—以基于NorFlash的卷积神经网络量化及部署研究突出存内计算特性
102 3
|
3月前
|
监控 安全 物联网
相比4G,5G有那些优势满足工业4.0的技术需求
5G凭借其超高速率、超低延迟、高可靠性、大连接数等核心技术优势,有力满足了工业4.0对于实时通信、灵活生产、高效自动化及大规模物联网应用的需求。
42 0
|
4月前
|
机器学习/深度学习 人工智能 供应链
传统算法是如何在销补调计划中发挥作用的
传统算法是如何在销补调计划中发挥作用的
|
11月前
|
移动开发 5G
带你读《5G大规模天线增强技术》——1.3.1 数学基础
带你读《5G大规模天线增强技术》——1.3.1 数学基础
|
11月前
|
机器学习/深度学习 人工智能 芯片
摩尔定律失效怎么办?神经形态计算专家:把重点变成树突学习
摩尔定律失效怎么办?神经形态计算专家:把重点变成树突学习
|
11月前
|
存储 量子技术 芯片
百万量子比特如何实现?光量子计算公司PsiQuantum论文揭示可扩展光量子通用计算方案
百万量子比特如何实现?光量子计算公司PsiQuantum论文揭示可扩展光量子通用计算方案
|
11月前
|
机器学习/深度学习 人工智能 缓存
英伟达用AI设计GPU算术电路,面积比最先进EDA减少25%,速度更快、更加高效
英伟达用AI设计GPU算术电路,面积比最先进EDA减少25%,速度更快、更加高效
207 0
|
算法 小程序
软件复杂性表现,如何计算?
软件复杂性度量的参数很多,主要有: • 规模,即总共的指令数,或源程序行数。 • 难度,通常由程序中出现的操作数的数目所决定的量来表示。 • 结构,通常用于程序结构有关的度量来表示。 • 智能度,即算法的难易程度。
175 0
|
前端开发 内存技术 RDMA
symNVM 与传统架构相比
symNVM 与传统架构相比

热门文章

最新文章