从原理上讲, 经典计算可以被描述为对输入信号序列按一定算法进行变换(逻辑门操作) 的物理过程。 基于经典比特的非 0 即 1 的确定特征,经典算法是通过经典计算机(或经典图灵机)的内部逻辑电路加以实现的。 而量子计算, 则是基于量子比特的既 |0> 又 |1>相干叠加特征,对可由量子叠加态描述的输入信号, 根据量子的算法要求,进行叫做“量子逻辑门操作”的幺正变换。 这是一个被人为控制的、以输入态为初态的量子物理演化过程。对末态 — 输出态进行量子测量,给出量子计算的结果。 顾名思义,所谓的量子计算机(quantum computer) 就是实现这种量子计算过程的机器。
图1:量子比特由控制粒子和控制手段组成
发展历程
量子计算机的概念最早源于二十世纪六、 七十年代对克服能耗问题的可逆计算机的研究.计算机芯片的发热, 影响芯片的集成度, 从而大大限制了计算机的运行速度. Landauer关于“能耗产生于计算过程中的不可逆操作”的发现表明,虽然物理原理并没有限制能耗的下限,但必须将不可逆操作改造为可逆操作,才能大大提高芯片的集成度。直观地说,当电路集成密度很大时, ∆x 很小时, ∆p 就会很大,电子不再被束缚,就会出现量子物理所描述的量子干涉效应,从而破坏传统计算机芯片的功能。对于现有的传统计算机技术,量子力学的限制似乎是一个不可逾越的障碍。 只有量子力学中的幺正变换,才能真正地实现可逆操作。 从理论观念的角度讲, 量子计算的想法与美国著名物理学家 R. Feynman“不可能用传统计算机全面模拟量子力学过程” 的看法直接相关。 在此基础上, 1985 年, 英国牛津大学的 D. Deutsch 初步阐述了量子图灵机的概念,并且指出了量子图灵机可能比经典图灵机具有更强大的功能。 1995 年, Shor 提出了大数因子化量子算法,并有其他人演示了量子计算在冷却离子系统中实现的可能性, 量子计算机的研究才变成物理学家、计算机专家和数学家共同关心的交叉领域研究课题。
基本原理
量子并行性是量子计算的关键所在。 显而易见, 描述有 2 个比特的量子计算机,需要 4个系数数字; 描述 n 个量子比特的量子计算机就需要 2n个系数数字。 例如, 如果 n 等于 50,那就需要大约 1015个数来描述量子计算机的所有可能状态。虽然 n 增大时所有可能状态的数目将迅速变成一个很大的集合,但由于态叠加原理,量子计算机操作 —幺正变换能够对处于叠加态的所有分量同时进行。 这就是所谓的量子并行性。由于这一奇妙的内禀并行性, 一台量子计算机仅仅靠一个处理器就能够很自然地同时进行非常多的运算。典型的量子计算有 Shor 的大数因子化和 Grover 的数据库量子搜索。
Shor 的大数因式分解算法
所谓的大数因子化是把一个给定大数分解为素数因子的乘积。破译某些密码(如“RSA公共密钥体系” ) , 需要在有效的时间内完成这样的计算。 然而, 在传统计算机中, 一个n 位二进制数是由一串有 n 个 0 或 1 组成的数串描述。 任何一个十进制数 x= a0 20 +a1 21 +a2 22+…..+an2n 可以唯一地表达为一个二进制数 an an-1 …a2 a1 a0,其中 aI=0,1。存储大数x通常约需要 n=log2x 个比特。如果用1,2,3,、、、直到 sqrt(x) 去试除 x,经典计算过程通过约 sqrt(x) 步运算, 可以最后找到x的全部素数因子。 显然, 计算的步数 s= e n (ln2)/2 与这个大数的数据位数呈e指数增长关系。 因此, 随着n变大, 步数将是一个天文数字。 按照现有的算法, 对于一个 400 位数字的分解, 使用现今世界上最快的超级计算机也要花几十亿年时间才能完成。 人类的历史才不过几百万年, 这样的计算必定是无效的。 然而, 令人吃惊的是,美国电报电话公司的 Peter W.Shor在 1995年写下了一个量子算法,使得完成 一个 n 位大数的因子分解所用的计算步数只是 n 的多项式函数, 而不是 n 的指数函数。 这个被称为“Shor 大数因子化”的量子算法,充分发挥了量子并行性的强大作用,原则上可以在一年左右的时间内分解一个 400 位大数。 由于现有的加密系统大多是建立在大数难于分解的基础之上, Shor 的发现有可能使现在所用的大部分复杂加密方案失效,从而在金融和国防的保密方面产生了极大的影响。
图2:Peter Shor和 Lov Grover
Grover 量子搜索算法
表现量子计算独特能力的另一项算法, 是贝尔实验室的 L.K.Grover 设计的量子搜索算法。 计算机在搜索藏在有 n 个对象的数据库中的一个特定的对象时,经典的搜索过程要比较每一个对象,平均说来需要进行 n/2 次尝试才有较大的可能找到那个对象。 经典搜索的一个日常生活的例子是在一个按人名索引的、 共有N个人的电话簿里,找到确定号码的人, 通常要找O(N) 次才能成功。 Grover 把它换成量子力学问题就是: 对于N个态的均匀相干叠加, 通过若干次基本的么正变换可以把其中一个特定分量的几率放大为1。令人惊讶的是,Grover 的量子搜索可以通过大约根号 sqrt(N) 次尝试就找出所需的对象。1998 年初,IBM 公司加洲阿尔马登研究中心的 Issac Chuang 等人利用氯仿核磁共振实现了两个量子数据位的量子搜索实验,成为量子计算的第一个演示实例。
量子计算应用化研究-量子计算机
一般认为量子计算机仍处于研究阶段。然而2011年5月11日加拿大的D-Wave 系统公司发布了一款号称“全球第一款商用型量子计算机”的计算设备“D-Wave One”,含有128个量子位。。2011年5月25日,洛克希德·马丁同意购买D-Wave One。南加州大学洛克希德马丁量子电脑研究中心(USC-Lockheed Martin Quantum Computation Center)证明D-Wave One不遵循古典物理学法则的模拟退火(simulated annealing)运算模型,而是量子退火法。该论文《可编程量子退火的实验特性》(Experimental Signature of Programmable Quantum Annealing)发表于《自然通讯》(Nature Communications)期刊。该量子设备是否真的实现了量子计算目前还没有得到学术界广泛认同,只能有证据显示D-Wave系统在运作时逻辑不同于传统电脑。
图3:D-Wave 系统公司发布的计算设备
2013年5月D-Wave 系统公司宣称NASA和Google共同预定了一台采用512量子位的D-Wave Two量子计算机。该电脑执行特定演算法时比传统电脑快上亿倍,但换用演算法解相同问题时却又输给传统电脑,所以实验色彩浓厚并延续了学术界争论。
2013年5月,谷歌和NASA在加利福尼亚的量子人工智能实验室发布D-Wave Two。
2013年6月,中国科学技术大学潘建伟院士领衔的量子光学和量子通信团队的陆朝阳、刘乃乐研究小组,在国际上首次成功实现用量子计算机求解线性方程组的实验。同年发现了世界上稳定度最高量子记忆体,建构实用量子电脑更进一步。
2015年5月,IBM在量子运算上取得两项关键性突破,开发出四量子位原型电路(four quantum bit circuit),成为未来10年量子电脑基础。另外一项是,可以同时发现两项量子的错误型态,分别为bit-flip(位元翻转)与phase-flip(相位翻转),不同于过往在同一时间内只能找出一种错误型态,使量子电脑运作更为稳定。
2015年10月,新南威尔斯大学首度使用矽制作出量子闸。
2016年8月,美国马里兰大学学院市分校发明世界上第一台由5量子位元组成的可编程量子计算机。
2017年5月,中国科学院宣布制造出世界首台超越早期经典计算机的光量子计算机,研发了10位元超导量子计算线路样品,通过高精度脉冲控制和全局纠缠操作,成功实现了目前世界上最大数目的超导量子位元多体纯纠缠,并通过层析测量方法完整地刻画了十位元量子态。此原型机的“玻色取样”速度比国际同行之前所有实验机加快至少24000倍,比人类历史上第一台电子管计算机(ENIAC)和第一台晶体管计算机(TRADIC)运行速度快10-100倍,虽然还是缓慢但已经逐步跨入实用价值阶段。
2017年7月,美国研究人员宣布完成51个量子位元的量子模拟器。哈佛大学米哈伊尔·卢金(Mikhail Lukin)在莫斯科量子技术国际会议上宣布这一消息。量子模拟器使用了雷射冷却的原子,并使用雷射将原子固定。