量子计算原理

2024-08-02

量子计算原理(精选7篇)

量子计算原理 篇1

因为人们一般认为量子力学是一门属于物理学研究范畴的学科, 所以我们可以将量子化学看作一门物理与化学性结合的交叉研究领域。因此, 量子化学, 顾名思义就是一门借助量子力学的基本原理与方法研究一些化学领域内的问题的学科。在上世纪初旧量子力理论出现后, 随着科学家对这一理论的不断完善, 量子理论基本原理和方法开始被其他学科领域借鉴, 应用范围越来越广。到上世纪三十年代, 量子力学开始被应用于化学领域, 标志量子化学理论的诞生, 后来, 随着人类文明的不断进步, 各种量子化学计算方法被科学家提出来。

1 量子化学计算方法

1.1 密度泛函法

密度泛函法是一种计算速度快且结果准确的量子化学计算方法, 是上世纪六十年代提出来的一种在物理和化学领域内都有广泛应用的理论。这一理论是根据Hohen-berg-Kohn定理, 研究多电子体系电子结构的量子力学方法, 根据这一理论我们可以知道分子的性质是由电子密度所决定的, 体系的能量就是电子密度的泛函。这一理论是研究凝聚态物理和计算化学时最常用的一种方法。

1.2 从头算法

量子化学的从头算法是根据独立电子、Born-Oppenheimer, 利用电量、电子质量与plank常数三个原子系数与基本物理量, 在完全不借助经验参数的前提下, 来对分子的所有积分进行严格的计算求解薛定谔方程的计算方法。由于这一算法的严格性, 其计算结果的可靠性和准确性是一大优势, 是量子化学计算时经常用到的一种方法。

2 几种化学反应原理的量子化学计算

2.1 一氧化碳与甲醇反产生甲酸的反应机理

一氧化碳与甲醇的反应不能够直接得到甲酸, 但可以得到生产甲酸的基本起始物质, 也就是甲酸甲脂, 得到甲酸甲酯后我们便比较容易得到我们想要的甲酸了。另外, 甲醇和一氧化碳反应需要在特定的条件下才能够发生, 具体条件是需要在催化剂甲醇钠催化作用下, 一氧化碳和甲醇的反应物不能含有水分, 还需要4MPA、80C的反应环境。通过这个反应制取甲酸虽不会造成环境污染, 但其正常反应的条件比较苛刻, 如果对催化剂、温度、压力的控制稍有差错就会影响反应的正常进行, 所以如果可以深入了解这个反应的反应机理, 将使工业制取甲酸更加经济、便捷。

要想深入了解一氧化碳与甲醇反应制取甲酸反应的反应机理, 可以借助量子化学理论和计算方法研究反应的微观过程及反应特征, 从而掌握反应途径和机理。对于该反应, 我们可以采取量子化学理论中的密度泛函计算法在B3LXP/6311++G (d, p) 的计算水平上对反应过程中的过渡态、产物结构和两种反应物进行优化, 同时对反应的频率和振动进行计算和分析, 从而可以确定优化后的几何模型是处于过渡态还是处于势能上的稳定点。在找到过渡态后, 在上述计算水平上计算出所有驻点的频率, 找到过渡态的虚频;之后利用内禀反应坐标进一步精确过渡态的范围, 验证产物和过渡态、反应物之间的关系。最后根据经典过渡态理论计算出该反应的反应速率常数。这个过程就是甲醇与一氧化碳反应制取甲酸反应的量子化学计算过程, 根据这个过程, 我们可以深入认识理解该反应的反应机理, 找到更优的反应过程。

2.2 氨三乙酸分子内脱水的量子化学计算

氨三乙酸是一种含有三个活泼羧基的有机小分子, 因为含有三个羧基, 所以是一种三元酸。氨三乙酸作为一种重要的化工原料, 在金属制备方面有广泛的应用。如果能够解决氨三乙酸的溶解性问题, 其对有机合成的发展将起到巨大的推动作用。借助量子化学理论研究氨三乙酸的分子内脱水问题, 对于深入了解氨三乙酸的脱水反应的微观过程和反应机理有重要意义。

为了深入认识该反应的反应机理, 需要借助量子化学理论对其进行分析计算。对于该反应的量子化学计算采取的同样是密度泛函理论, 也是在密度泛函理论的B3LXP/6-31++G (d, p) 的计算水平上进行计算的, 所以这个反应的量子化学计算过程和一氧化碳与甲醇反应制甲酸反应的有相似性。首先是对过渡态、产物及氨三乙酸进行优化, 得到氨氮乙酸的稳定结构, 在对其频率和振动进行计算和分析, 确定优化后各点的构型是否处于稳定态;再计算出过渡态的虚频, 验证产物与反应物、过渡态的关系, 最后进行零点校正, 根据经典过渡态理论计算出该反应的反应速率常数。

2.3 氨三乙酸分子间脱水的量子化学计算

在简单介绍了上面两个化学反应的量子化学反应机理的大致计算过程后, 我们可以初步的了解化学反应的量子化学计算的基本步骤。下面简单地探讨一下氨三乙酸的分子间脱水反应的量子化学计算过程。与上面两种反应不同, 氨三乙酸的分子间脱水反应的量子化学计算是在密度泛函的DFT/6-311G** (d, p) 计算水平上进行的。其具体的计算过程与上面两种化学反应是一样的。

摘要:化学在我们的日常生活中随处可见, 与我们的生活密切相关, 且极大地丰富和提高了我们的生活内容和生活质量。本文介绍了几种化学反应机理的量子化学计算方法, 包括一氧化碳与甲醇反应生成甲酸的反应的量子化学计算方法, 氨三乙酸的分子间和分子内脱水的反应量子化学计算方法。

关键词:化学反应,量子化学,反应机理

参考文献

[1]李来才, 田安民, 丁二酸脱水制备丁二酸醉的微观反应机理研究化学学报, 201025 (02) .

[2]范晓雷, 周志杰, 王辅臣等热解条件对煤焦气化活性影响的研究进展煤炭转化2009, 28 (3) :74一79.

[3]曹章铁, 孙卓, 郭平生等.碳源流量对碳纳米管厚膜形貌和结构的影响.无机材料学报, 2006}21 (1) :75一80.

量子通信技术的原理和进展 篇2

量子通信是量子信息技术的主要组成部分, 它具有绝对保密, 通信容量大, 传输速度快等优点, 可以完成经典通信所不能完成的特殊任务。量子通信可以利用无法破译的秘钥系统, 实现真正意义上的保密通信, 因此量子通信成为当今世界关注的科技前沿。量子通信是以量子态作为信息元实现对信息的有效传送。它是继电话和光通信之后通信史上的又一次革命。

二、量子通信的主要组成部分

2.1量子秘钥分发

量子秘钥分发不是用于传送保密内容, 而是在于建立和传输密码本, 即在保密通信双方分配秘钥, 俗称量子密码通信[1]。

1984年, 美国的Bennett和加拿大的Brassart提出著明的BB84协议, 即用量子比特作为信息载体, 利用光的偏振特性对量子态进行编码, 实现对秘钥的产生和安全分发。1992年, Bennett提出了基于两个非正交量子态, 流程简单, 效率折半的B92协议。这两种量子秘钥分发方案都是建立在一组或多组正交及非正交的单量子态上。1991年, 英国的Ekert提出了基于两粒子最大纠缠态, 即EPR对的E91方案。

1998年, 又有人提出了在三组共轭基上进行偏振选择的六态方案量子通信, 它是由BB84协议中的四种偏振态和左右旋组成。BB84协议被证明是迄今为止无人攻破的安全秘钥分发方式, 量子测不准原理和量子不可克隆原理, 保证了它的无条件安全性。EPR协议具有重要的理论价值, 它将量子纠缠态与量子保密通信联系起来, 为量子保密通信开辟了新途径。

2.2量子隐形传态

1993年由Bennett等6国科学家提出的量子隐形传态理论是一种纯量子传输方式, 利用两粒子最大纠缠态建立信道来传送未知量子态, 隐形传态的成功率必定会达到100%[2]。

199年, 奥地利的A.Zeilinger小组在室内首次完成量子隐形态传输的原理性实验验证。在不少影片中常出现如此的情节:一个在某处突然消失的神秘人物突然出现在另一处。由于量子隐形传态违背了量子力学中的量子不可克隆原理和海森堡不确定原理, 因此它在经典通信中只不过是一种科幻而已。

然而量子通信中引入了量子纠缠这一特殊概念, 将原物未知量子态信息分成量子信息和经典信息两部分, 使得这种不可思议的奇迹得以发生, 量子信息是在测量过程未提取的信息, 经典信息是对原物进行某种测量。

三、量子通信的进展

从1994年开始, 量子通信已经逐步进入实验阶段, 并向实用化目标迈进, 具有巨大的开发价值和经济效益。1997年, 中国青年科学家潘建伟与荷兰科学家波密斯特等人试验并实现了未知量子态的远程传输。

2004年4月Lorunser等利用量子纠缠分发第一次实现1.45KM的银行间数据传输, 标志着量子通信从实验室走向应用阶段。目前量子通信技术已经引起各国政府、产业界和学术界的高度重视。一些国际著名公司也积极发展量子信息的商业化, 如英国电话电报公司, 美国的Bell、IBM、AT&T等实验室, 日本的东芝公司, 德国的西门子公司等。2008年, 欧盟“基于量子密码的全球保密通信网络开发项目”组建的7节点保密通信演示验证网络试运行成功。

2010年, 美国《时代周刊》在“爆炸性新闻”专栏中以“中国量子科学的飞跃”为题报道了中国在16公里量子隐形传输的实验成功, 标志中国有能力建立地面与卫星间的量子通信网络[3]。2010年, 日本国家情报通信研究机构联合三菱电机和NEC, 以及瑞士ID Quantique公司、东芝欧洲有限公司和奥地利的All Vienna公司在东京成立了六节点城域量子通信网络“Tokyo QKD Network”。该网络集中了目前日本及欧洲在量子通信技术上发展水平最高的研究机构和公司的最新研究成果。

四、量子通信展望

量子通信是通讯技术具有划时代意义的伟大进步, 它与传统的通信技术相比, 在安全性, 信道容量, 传输距离等方面都突破了经典技术的极限。量子通信必将改变未来信息产业的格局。

目前, 其理论框架已基本成型, 理论体系正日趋完善。有科学家预言, 全球化的量子通信有望在十年内实现。

摘要:量子通信是经典通信与量子力学交叉结合所形成的一门新兴学科。本文概括了量子通信的基本概念及其主要技术量子秘钥分发和量子隐形传态的基本原理。同时介绍了量子通信在世界范围内的研究进展和发展前景。

关键词:量子通信,量子秘钥分发,量子隐形传态

参考文献

[1]何燕玲, 王川, 焦荣珍等.量子通信原理及进展概述.[J]中国电子科学研究院学报.2012, 7 (5) :466-471.

[2]苏晓琴, 郭光灿.两种典型的量子通信技术.[J]广西大学学报.2005, 30 (1) :30-38.

量子计算原理 篇3

用户只需具备基本的量子计算知识, 就可以经由简单的软件界面使用这台量子计算机, 这对正在开发实用性量子计算机的研究人员而言, 无疑是一个巨大的福音。

IBM此举的目的之一是展示其量子计算机, 让研究人员和公众验证其研究成果。不过, 量子计算技术的先驱、德国亚琛工业大学量子信息研究所教授大卫·迪文森佐认为:“或许有人能从量子计算机的行为中获得更多信息和连开发者都没想到的惊喜。”

据英国广播公司 (BBC) 近日报道, 传统计算机使用比特0和1来处理信息, 但量子计算机则利用了“量子叠加”这一“秘密武器”, 量子比特在同一时间可以为0、1或这两者。研究人员认为, 这一核心差异最终或可使量子计算机的处理能力超越传统计算机的极限。目前, 科学家们正试图借助量子计算机解密新的技术领域:从分析基因序列到预测股市涨跌;从模拟单个分子之间的交互方式到拓展机器学习的潜能等。

IBM的量子计算机非常敏感, 目前只有5个量子比特。IBM希望, 未来十年能研制出运行50甚至100个量子比特的处理器, 而通用量子计算机将使用10万多个量子比特。

量子计算物理实现体系 篇4

随着人类社会进步,信息呈指数增长,人类对信息处理速度的要求越来越高,但由于“热耗效应”和“尺寸效应”,传统电子计算机的发展逐渐接近瓶颈[1],也启发人们开始探索如何用量子力学原理构造计算机。

量子计算机是一类依照量子力学规律,能够进行量子信息存储和计算的物理装置。与目前普遍应用的电子计算机的根本区别在于,量子计算机信息处理单元不是比特(bit),而是量子比特(qubit),比特包含0和1两种状态,而量子比特是0和1两种状态的叠加,称为量子叠加态。量子比特叠加态可看做是一个二维复向量,因此能够代表更多信息。量子叠加性、相干性、纠缠性、并行性作为量子计算机的重要特征,是量子计算机的基础,也决定了量子计算机的复杂性。

1982年,美国物理学家Feynman提出将量子力学理论和计算机技术结合起来的设想。1985年,英国牛津大学的Deutsch等人进一步阐述了量子计算机的概念,并提出实现普适量子计算机的重点是研究如何由量子逻辑门构成逻辑网络。1994年AT&T Bell实验室的Shor证明了量子计算在解决质因数分解问题和计算离散对数问题的突出能力,科学界对量子计算机的关注达到了前所未有的程度,量子计算进入到了实验研究阶段。

2 物理实现体系

要真正实现普适量子计算机,需要具备三个基本条件:量子芯片、量子编码和量子算法,它们分别是代表了量子计算机的物理硬件系统、确保计算可靠的底层信息处理系统和提高运算速度的软件系统。量子计算理论方面的进展发展迅速,但量子计算的实验进展则要缓慢得多。按照IBM科学家所提出的DvVincenzon判据,为了进行有效的量子计算,实现量子计算的物理体系需要满足以下基本要求:具有可伸缩的、特性良好的量子比特;量子比特具备初态制备能力;量子比特要有足够长的相干时间;具有完备的幺正操作能力;能够对量子比特终态实施有效的测量。除此之外为实现实用量子计算机,量子计算物理体系还要能够规模集成化,目前的技术水平在量子世界实现规模化是非常困难的。

2.1 离子阱体系

离子阱体系采用受限离子的基态和激发态组成的两能级体系作为量子比特,很多离子被放在“阱”里面形成离子比特单元。离子阱的基本原理是利用电荷与电磁场间的交互作用力牵制带电粒子体运动,将其局限在某一个小范围内。早在50年代末离子阱就被应用于改进光谱丈量的精确度。1995年奥地利Innsbruck大学的Cirac和Zoller首次提出利用线性离子阱体系实现量子计算,并展示了如何利用被俘获离子做一个控制非门。该方案利用失谐激光束照射和激光冷却实现量子比特的受控幺正变换和初态制备,从此离子阱方案引起广泛关注。

由于激光冷却在线性离子阱方案中效率很低,并且离子对电场噪声敏感,运动模式存在退相干问题,量子比特的扩展变得很困难。为了提高量子比特的集成数目,解决方法之一是通过设置阱电极,离子在电场力的作用下穿梭于复杂阱结构的不同区域,离子之间相互独立,减小相互之间干扰;另一种方法是利用光学相互作用将小的库仓离子团耦合起来,实现微米尺度的离子纠缠。

晶格离子阱方案中每个离子阱中仅仅束缚单个离子,不同离子阱间隔较远,可以忽略之间的相互作用,相比线性离子阱方案,增大了并行操作效率,且由于离子阱之间互不影响,易于集成[3]。离子阱系统主要挑战在于外加激光强度、频率及相位的不稳定性,微型化和集成化存在巨大的困难,以及高度集成时如何保持有较高的高保真度。

2.2半导体量子点体系

半导体量子点体系利用当前成熟的半导体加工工艺方法,在平面半导体电子器件上制备单电子晶体管,其电子服从量子力学运动规律,将电子自旋的向上和向下组成的系统作为一个量子比特,这种电子自旋的量子物理体系被认为最有希望成为未来量子计算机的发展方向之一。

2004年,荷兰Delft大学的Kouwenhoven等人首次在半导体器件上实现了自旋量子比特的制备。2005年,美国哈弗大学的Marcus等人成功实现了自旋量子比特的逻辑门操作。2007年底,荷兰Delft大学的Vanderspyen等人在同一块半导体量子点器件上实现了自旋量子计算的全部基本要素:量子比特制备、量子逻辑门操作、量子相干和测量。

但半导体量子点体系受周围核自旋影响严重,如何解决其退相干,维持其量子相干状态遇到了更大的挑战。目前众多研究人员在利用多种新型半导体材料制备量子点方面取得一系列突破:如利用Si/Ge材料、纳米管、单层石墨等新材料制备量子点,这些新材料没有核自旋,因此具有很长的量子相干时间,为半导体量子点的研究开辟了一条新的道路。

半导体量子点体系被认为是最有可能实现大规模量子计算机的候选方案之一,是量子计算机研究领域发展最快的分支。著名量子信息专家、美国IBM公司研究员Dviincenzo在《Science》上发表评论[4],其认为半导体量子点体系作为未来量子计算的量子芯片是真实可行的。

2.3 腔量子电动力学体系

基于腔量子电动力学(Cavity QED)的量子计算机类似于离子阱量子计算,其中量子信息存储在原子或光子的内部能级中,利用原子或光子与微腔的相互作用控制原子或光子的内部状态实现量子比特之间的耦合。从腔的工作频率来分,腔QED系统可分为微波腔和光学腔。微波腔需要精确控制飞行的里德堡原子的飞行速度,而原子并不适合作为飞行量子位,目前国际上主要集中在光学腔的研究。1995年,美国加州理工学院的Kimble等人第一次验证了工作在强耦合下的光学腔QED可以提供实现量子逻辑门所需要的非线性相互作用。2000年,德国马普研究所的Rempe等人实现了利用基于绝热通道的受激拉曼散射,对量子态进行调控。

由于传统光学腔品质因数、扩展集成、复杂工艺等问题,研究人员开始探索新的光学微腔体系。目前主要研究方向有回音壁模式微腔和光子晶体缺陷微腔。这两种微腔具有较小的模式体积和极高的品质因数,能够提供更强的原子光场相干强度。回音壁模式的微腔加工工艺采用的是传统的半导体刻蚀技术,十分容易集成。目前回音壁模式微腔研究已成为一个国际研究热点[3]。

2.4 超导量子体系

1985年,Leggett提出用超导约瑟夫森结来观测宏观量子现象,随后研究人员在超导约瑟夫森结器件中陆续实现和观测了量子隧穿、能级量子化、量子态相加叠加、量子相干振荡等现象。超导量子体系利用的是超导电极与约瑟夫森结的耦合体系。约瑟夫森结是一种“超导体—绝缘体—超导体”的三层结构。量子比特有超导电荷、超导磁通和超导相位三种形式。这三种超导量子比特的主要区别是约瑟夫森结耦合能和电荷能相对大小不同,磁通量子比特和相位量子比特都以相位作为自由度,约瑟夫森结耦合能大于电荷能,不同的是相位量子比特约瑟夫森结耦合能更大。

目前开展超导量子比特实验研究的有美国、欧洲、日本、中国的约20个小组,是目前进展最快最好的一种固体量子计算实现方法[5]。2001年,德国Karlsruhe University的Makhlin等实现了超导电荷比特。2004年,美国耶鲁大学的Schoelkopf等实现了1个电荷比特与超导传输线腔谐振子之间的强耦合。1999年,美国麻省理工的Orlando等提出了磁通超导比特。2006年,日本NEC实验室的Niskanen等实现了2个磁通比特之间的可控耦合。

超导量子体系的优点在于:超导量子电路的能级结构可以通过对电路的设计或外加电磁信号定制或调控;约瑟夫森量子电路具有目前多数体系都难以克服的可扩展性。超导体系量子计算在未来有很大发展潜力。但是由于量子体系的不可封闭性,在实现超导量子比特体系时,环境噪声、正像电荷表示、寄生电荷(准粒子)的背景起伏等使得耗散和退相干成为不可避免的问题。

目前国际上另一个发展趋势就是超导绝热量子计算。加拿大D-Wave Systems公司推出的D-Wave系列量子计算机采用了基于量子退火的绝热量子计算方式[1],该公司2015年8月发布D-Wave 2X系统运用了1152 Qubit的架构。2015年12月,美国谷歌量子人工智能实验室宣布在两次测试D-Wave 2X的运行速度比传统模拟装置计算机芯片运行速度快1亿倍。但对于这种采用非量子门电路的量子退火计算机,科学界一直质疑声不断,但无可否认这种计算机在解决一些特定问题能够大大提高速度,也是目前仅有的能够大规模实现的方式。

3 结束语

本文总结了量子计算物理实现的历史、现状和发展趋势,分析了不同物理实现体系的优势与问题。从目前研究来看,未来哪种物理实现系统最终可研制成通用量子计算机尚无定论。尽管量子计算的物理实现问题不存在原则上的障碍,量子计算的各个基本思想的原理性验证都取得了较大进展,但在集成性技术上的难度还是非常巨大的,但人们相信量子计算机必定能研制出来,这种信念正激励着广大研究人员以更大热情投入到这个新兴领域的研究中。

参考文献

[1]周正威,涂涛,龚明,等.量子计算的进展和展望[J].物理学进展,2009,29(3).

[2]方粮,刘汝霖,汤振林,等.量子计算机:量子算法与物理实现[J].计算机工程与科学,2012,34(8).

[3]郭光灿,周正威,郭国平,等.量子计算机的发展现状与趋势[J].学科发展,2010,25(5).

[4]Divincenzo D P.Science[J].2005(309):2173-2174.

量子计算的语形表征及其意义 篇5

一经典可逆计算的量子语形表征

量子计算概念的提出最早源于对经典计算机中可逆操作的研究。通过研究用量子语言对经典可逆计算进行表征,科学家考虑了利用量子系统进行计算的可行性,从而将研究的方向转向了量子计算本身。

从20世纪六七十年代开始,随着计算科学的发展,理论物理学家就一直在考虑有关计算物理学极限的一些基本问题。这个物理的分支被称为“计算物理学”(physics of computation)。一个在计算物理学中被广泛涉及的问题就是:“进行一个基本的计算步骤所消耗的最低能量是多少”,也即计算的能耗问题。这个问题之所以受到关注,是由于能耗会导致计算机芯片发热,影响芯片的集成度,从而影响计算速度的提高。如果计算的能耗问题能够得以解决的话,硅片上元器件的密集程度将能得到大幅提升,甚至可以实现大规模的三维电路,并且理论上没有尺寸的限制,这对于计算速度的提高将会是空前的。那么计算机能耗产生的原因是什么呢?

计算物理学家朗道(Landauer)最早考虑了计算过程中能耗的来源,他认为能耗产生于计算过程中的不可逆操作。在计算机里产生热量的是“重置”内存寄存器的过程,也就是清除它们的内容并且重置为零的操作。清除寄存器内容意味着增加它的次序,让它减少随机性。从热力学第二定律的角度讲,在封闭系统中熵值不会减少。所以如果一个寄存器的内容被清除,它的熵,即随机程度将减少,那么既然熵值不能减少,多余的熵只能以热的形式散发到计算机部件的周围环境中去,从而产生了热量,这就是计算机能耗的来源。而这个消除信息或者说清除比特的过程,正是热力学的不可逆过程。以对两比特信号的异或操作为例,将两比特信号的输入转化为单比特信号的输出,这是一个不可逆的过程,也就是说,不是总能通过输出的结果来推断输入的状态是什么。比如,如果输出是1,那么输入可以为(0,1),也可以为(1,0);如果输出是0,也不能确定输入到底是(0,0)还是(1,1)。事实上,正是由于这一过程导致系统损失了一个自由度,因此是不可逆的过程,根据热力学定理,可知必然会有一定的能量转变为无用的热量,从而造成能量的损失,也即产生了能耗。但这种不可逆性并不是必须的,事实上,只要对异或门的操作做出简单的改进,将一个输入比特保留至输出端,使输入和输出信号同样为两比特的,那么该操作就可变为可逆的了。如图1保留输入端b到输出端,则若ab为1,b为0,则可确定输入端a为1,b为0,也即可通过输出的结果来推断出输入的状态,实现计算过程可逆性。

因此可以看出,既然可以将不可逆操作转变为可逆操作,而可逆过程是没有热量产生的,那么就能通过这样的转变来实现能耗的降低,并且物理原理并没有限制能耗的下限。而其后Bennett更严格地考虑了此问题,并证明所有经典不可逆的计算都可以改造为可逆计算,而不影响其计算能力。

既然计算机中的每步操作都可以改造为可逆操作,在量子力学中,系统的动力学演化过程为幺正过程,而幺正变换又是可逆的,那么计算机中的可逆操作可否用一个幺正变换来表征呢?于是Benioff考虑了用量子力学系统的动力学演化来描述可逆计算过程的可行性。他认为存在量子可逆计算机,二能级的量子体系可以作为信息比特的载体,量子体系可以处于|0>和|1>上,代表经典计算中的二进制逻辑,但规定其不能处于它们的叠加态上。整个体系的态就用这些二能级体系本征波函数的直积来描述,例如|ψ〉=|1,0,1,1〉。由于整个体系始终处于计算基|0>和|1>上,而不处于叠加态,因此在最后通过测量得出计算结果时也不会存在所谓波包塌缩的问题,从而不会影响整个计算体系的可逆性。

费曼用可逆的通用逻辑门非门(NOT)Aa、受控非门(CONTROLLED NOT)Aa,b和Toffoli门(CON-TROLLED CONTROLLED NOT)Aab,c的叠加来实现所有可逆计算的逻辑操作[1],而在量子可逆计算中用幺正矩阵M来表征逻辑操作,例如:

并将Aa、Aa,b和Aab,c用升降算符a,b,c和a*,b*,c*来表征,即:

其中a=b=c=为降算符,a*=b*=c*=为升算符。

那么可逆计算的过程就能表征为:|ψout〉=M|ψin〉,接下来要考虑的问题就是如何通过量子力学的方法来构造一个矩阵M,从而实现从输入到输出的计算过程。我们知道,量子系统的动力学演化为:|ψout〉=eiHt|ψin〉,其中H为系统的哈密顿量。因此,问题就转化为找到某个哈密顿量H,使得它在时刻t时恰好与矩阵M对应,从而实现所需要的幺正变换,就可以成功地完成所要求的可逆计算了。

可以说,量子可逆计算的核心任务就是对应于具体的问题,寻找合适的哈密顿量来实现幺正矩阵的功能,即完成量子态的转化。事实上,这种在经典可逆计算研究语境下提出的量子可逆计算,是为了实现理论上零能耗的经典计算,用算符和幺正变换等符号表达可逆过程,却并没有利用量子力学的本质特性即量子叠加性和相干性,而且也只能通过寻找生成特定幺正变换的哈密顿量,完成某种特定的计算任务,即只能实现特例计算,并不能通过编程来解决一般性的问题。因此,早期的量子可逆计算实际上只是用量子力学的语形结构表征了的经典可逆计算,不过它也为以量子力学特性为基础的计算研究提供了前提,从而为量子计算概念的提出创造了条件。

二量子计算的语形表征

1982年,物理学家费曼在试图用传统的数字计算机模拟量子力学对象的行为时遇到一个问题:量子系统的行为通常具有过大的信息量,导致要完成一个模拟所需的运算资源(时间和空间)变得相当巨大,甚至是不切实际的天文数字。以光的干涉现象为例,在干涉过程中,相互作用的光子每增加一个,有可能发生的情况就会呈指数增加。模拟这样的实验所需的计算量实在太大了,相应的计算资源是难以提供的,因为这样的问题在经典计算中是不能用多项式来表达的,也即属于NP类问题,是无法用经典计算机解决的。但是从逆向的角度思考,能够发现:量子力学系统的行为是真实发生的,同时也具有良好的可预测性。比如在干涉实验中,只要给定初始条件,就可以推测出屏幕上影子的形状。费曼推断:如果算出干涉实验中发生的现象需要大量的计算,那么搭建这样一个实验,测量其结果,不就恰好相当于完成了一个复杂的计算吗?因此,可以通过在真实的量子力学对象上完成实验,并把实验结果整合到计算中作为输出状态,从而获得远远超出传统计算机的运算速度。这就是最早的量子计算的思想模型,而利用量子系统的特性完成计算正是其超越经典计算的内在原因。

自然科学的发展过程表明,将基本科学理论在数学及逻辑的形式语言中建构是自然科学飞速发展的前提。对于计算科学,一套完整的形式语言的建立更是其算法设计和功能实现的基础。量子计算既然有了思想模型,那自然就需要一套合适的语形表征体系,而将量子力学的表征方式与经典计算的二进制逻辑结合就成为其必然的选择。可以看出,量子计算同经典计算一样,采用了二进制的数据结构,而量子力学中的狄拉克算符表征为其提供了语形空间;将可逆的量子逻辑门表达为量子幺正变换,是量子计算过程形式化的必然选择。事实上,可以对比于经典计算,通过对数据的存储,计算过程和结果的输出这三方面的分析来讨论量子计算的语形表征。

(一)量子位:信息的存储方式

传统的数字电子计算机的语形基础来自于图灵(Turing)计算模型,也就是二进制的逻辑语形。在这样的语形语境中,信息的存储单元是一个二进制的位(Bit),它能够处于“0”态或“1”态。因此,当存在N个这样的语形单元时,可存放2N个数据中的一个,而这个数据所包含的信息是N位的。类似于这种二进制的经典计算语形,在一个二进制的量子计算机中,定义了一个量子位(Qubit),它是量子计算语形的信息存储单元。这个量子位可以像经典计算机中的位一样,处于“0”态或“1”态。但与之不同的是,由于量子力学中的态叠加原理,量子位还可以处于“0”态和“1”态的叠加态,也就是说它既是“0”态又是“1”态。用狄拉克符号表示一个量子位为:

那么,对于两个量子位组成的语形空间,则叠加态为:

也就是说这个叠加态处于一个22维的Hilbert空间,其有四个相互正交的基本态:|00〉,|01〉,|10〉,|11〉。

因此,定义一个N位量子寄存器为N个量子位的有序集合,则它的叠加态为:

|Ψ〉是2N维的Hilbert空间中的单位向量,它有2N个相互正交的基本态。

这就意味着在量子计算机中,处于叠加态的N位量子寄存器中的数是从0到2N-1的所有数,它们各以一定的概率同时存在。因此,一个N位量子寄存器就可以同时保存2N个N位二进制数。量子寄存器位数的线性增长使存储空间呈现指数增长,这是量子计算语形的基本特征,也是量子计算速度能大大超越经典计算速度的前提。

(二)量子逻辑门:计算过程

在量子计算语形中,相应于经典计算中的逻辑门,对量子位的态进行变换以实现一些逻辑功能,实际上也就是量子计算的过程,是通过对量子位的态进行幺正变换实现的。量子语形中的幺正变换是具有可逆性的,因此,量子逻辑门也都是可逆的。也就是说,如果一个量子输入态经过一个量子逻辑门成为输出态,那么输出态经过一个逆向的量子逻辑门又成为输入态,这与经典计算所不同。在经典计算中,“与”门、“或”门等就是不可逆的。这种所有逻辑门的可逆性也是量子计算语形的一个特征,可表达为:

而且,由于幺正变换是对量子态左乘一个幺正矩阵,因而量子语形中的逻辑操作是对于所有的基本量子态同时进行的,量子计算的这种特性称为量子并行性。这意味着“量子计算机对N个量子存储器实行一次操作,即同时对所存储的2N个数据进行数学运算,等效于经典计算机重复实施2N次操作”[2]1158,这对于计算速度的提高无疑是巨大的。

那么,量子计算的并行处理与经典并行计算有什么不同之处呢?这其实是与两种计算结构的语义不同性相关的。在经典计算中,并行性的核心思想是将一个计算任务分配给多个处理器同时运行,要快于使用一个处理器来运行。在理想的情况下,将工作分配给K个处理器就应该使计算时间缩短为原来的1/K。但是Amdahl在1967年发现这种加速性有一个极限,当达到这个极限时,即使再增加处理器的数量,也不能使计算速度有所提高。这是因为在经典计算中并不是所有的运算都可以分给多个处理器来做,因为这些运算是具有连续性的,必须在得到上一个运算的结果之后才能开始下一步的运算。因此,“可以将经典计算分为可并行计算和不可并行计算的两部分,分别用P和S来表示,并用Tp和Ts分别表示用一个处理器进行两种运算所需要的时间。定义一个经典计算使用K个处理器的加速能力S(K)为使用一个处理器操作所用的时间T(1)与使用K个处理器操作所用的时间T(K)之比,即

即使当K→∞,加速能力也会存在一个极限,即

可见,一个经典计算所能达到的加速能力的极限是由该计算中的连续计算决定的。”[3]399而实际情况是,加速能力还应该更弱,因为以上的讨论还没有将分离可并行计算部分给多个处理器和并行计算过程中和结束后处理器之间数据传输所耗费的时间计算在内。由此可以认识到,经典计算的并行性事实上是一种不彻底的并行性,它并不是通过一次操作来改变所存储的全部数据,而只是将数据分配给多个处理器同时进行操作,因此,当连续运算出现时,就导致了其并行计算加速能力极限的出现。

与经典计算中的并行性不同,由于量子计算的语形结构特点是数据的可叠加性质和操作的幺正变换本质,从而就决定了量子计算的语义特征是完全意义上的通过一次操作即可改变全部数据的并行计算。与经典计算对比来看,“将一个N位量子寄存器中的2N个数据同时通过一次幺正变换(即进行一次运算)所需的时间定义为tq,而经典计算中对一个数据进行运算的时间为tc,因为一次量子计算就对所有的数据做了并行处理,所以量子计算加速能力可以表示为

假设tq=tc,则S(K)=2N。这与K=2N的完全可并行经典计算的加速能力

是相等的。”[3]400这表示量子计算中的一个处理器的一次并行运算就相当于经典计算中2N个处理器同时各自完成对一个数据的运算。由此也可看出量子并行计算的加速能力是没有极限的,因而是完全的并行计算。量子计算的并行性之所以不同于经典计算的并行性,正如尼尔逊与昌所指出的原因,在于经典计算机上的选择总是互相排斥的,而在量子计算机上“选择却可能通过相互干涉,而给出函数的某些全局性质”[4]。

(三)量子测量:输出结果

虽然一个N位量子寄存器能容纳2N个N位二进制数,但是输出的结果却只能是其中的一个N位二进制数,这是由量子计算输出结果的方式决定的。因为在量子计算语形中,量子寄存器所存储的数据是叠加的,也就是处于一种未知的状态。而将结果输出的方式是通过对寄存器中的每个量子位进行测量来完成的。对于每个量子位来说,测量就会使它们从叠加态塌缩到一个基本态,因此,N位量子寄存器中的所有可能数据就会塌缩到一个确定的N位二进制数,这就是输出的结果。以一个两位的量子寄存器为例,测量前为叠加态:

测量后将会塌缩到|00〉、|01〉、|11〉或|10〉中的任一个,其概率分别为|c0|2、|c1|2、|c2|2和|c3|2。同样地,量子计算的一次操作即幺正变换虽然也可产生2N个结果,但也和N位量子寄存器一样,只能读出其中的一个结果。也就是说,虽然量子并行计算对所有数据都进行了操作,但却不能将结果全部输出。通过量子并行计算只是得到了一些潜在结果,不过只能输出其中的一个。这里需要注意的是,测量后塌缩的结果是随机的,是不能选择的,这就说明量子计算是一个真正随机计算过程。这就要求设计的量子算法要“利用量子态的干涉特性,使所需的结果增强,同时使不需要的结果减弱,从而使所需的结果在测量时以相当高的概率出现”。[2]1162已经设计出的一些能体现加速性的量子算法,如大数因子分解的Shor算法和遍历搜寻问题的Grover算法等[5][6],其设计的核心思想都需要考虑利用量子态的干涉特性,通过多次量子逻辑门操作,使所需结果的概率幅增大,从而所需的结果在测量时能以相当高的概率出现。这些量子算法适用于解决求解困难而验证容易的经典慢算法问题,当通过量子计算得到结果后,将结果带入到问题中进行验证,若不正确则返回重新计算。因此从结果输出的角度看,量子算法是一种概率算法。

三量子计算的哲学意义

通过对量子计算语形表征及其意义的分析,可以看出,量子计算是量子力学和计算理论内在融合的产物。它借用了经典计算基于二进制数据存储和操作的语形特点,又使这种数据具有了叠加性、纠缠性以及可塌缩性等量子世界特有的性质,从而实现了超越经典计算意义上的并行运算。量子计算不仅在解决某些经典慢算法问题方面具有实际的应用价值,而且在哲学层面也具有重要的启迪意义,为我们理解客观世界开拓了全新的思路。

首先,量子计算超越了经典计算语境的局限,克服了经典计算关于计算复杂性方面的困难,如Shor算法与Grover算法对经典慢算法的解决以及对量子系统演化的模拟等等。事实上,量子计算解决的计算复杂性是一种基于算法的复杂性,它是由于所选择的计算模式而造成的。因为在经典计算语境下,某些算法如大数因子分解问题算法的复杂性随输入规模的增加要快于多项式的速度增加,这就使其难以在合理的时空尺度下完成计算,从而成为一个不可计算的问题。但在量子计算语境下,利用量子Shor算法就可将其转化为一个可以在多项式时间内完成的算法,从而成为可计算的。这种语境转换下计算复杂性的变化,一方面说明了经典计算复杂性(非通用图灵机规定的不可计算性)只是操作层面上的复杂性,并不是客观世界的复杂性;另一方面也为量子计算这种新的计算模式可应用于实际问题求解的认识提供了强有力的支持。其意义的体现,不仅在于量子计算模式下一些实际问题解决方案的提出以及对局域量子系统模拟的探讨,更在于通过一些具体的研究使我们更清楚地认识到量子力学逻辑对于理解客观世界的威力,为突破经典逻辑“非此即彼”的固有模式,促进逻辑理论的发展奠定了基础。

不过,我们也应该注意到,量子计算以量子系统特有的复杂性可以处理经典计算中遇到的一些复杂性问题,但并非可以普遍性地解决所有经典复杂性问题,例如已证明对于旅行商问题,如果使用量子算法则所需功率将会按指数增长,因而也是不可实现的。[7]可见,量子计算并不是万能的,而是局限于量子语境的,它的极限也就是量子系统自身复杂性的极限,这与经典计算所受经典物理规律所限是相同的。其实这是因为量子计算与经典计算基于通用图灵机一样,是基于量子图灵机的,它只是将经典概率图灵机当前读写头的状态和当前存储单元内容由经典的正交态变成了量子态,将概率函数变成了取值为复数的概率幅函数。所以量子计算的理论基础仍然是丘奇-图灵论题,因而不能计算不可计算的函数,也不能解决停机问题。因此,只有从量子语境的角度理解量子计算对于计算复杂性的克服才是适当的,也就是说将语境分析作为工具来探讨和把握量子计算的适用范围是有效的也是必要的。

其次,量子计算改变了我们对计算概念的认识,这种理解不再被局限于传统逻辑意义上的经典计算语境,而扩展为广义的基于自然机制的物理状态变换。在经典计算语境下,计算系统被认为与应用有效方法的系统属于同一范畴,而在量子计算的语境下,计算不再等同于有效方法。尽管“有效方法”并没有一个统一的定义,但是其概念一定包含一些确定的核心要求,其中之一就是所谓有效方法必须可以由一个无帮助的人独立地执行。经典计算是能够满足这个要求的,但是对于量子计算而言却不能得到满足。根据Copeland对有效方法给出的定义:“一个数学方法被认为是‘有效的’或者‘力学的’当且仅当它能由一个人仅仅严格按照该方法的步骤用纸和笔就能从开始执行到最后,而不需要其具有任何洞见力和创造力,”[8]可以看出在经典计算语境下,计算和有效方法被广泛认为是同义的,“计算就是遵循一定的规则或有效方法而得到函数的值或解决问题的过程”[9]。然而量子计算是应用量子资源来实现计算的,这些资源包括量子干涉、量子叠加及量子纠缠等,这些资源对于应用经典方法的无帮助的人是完全无法获取的。对于一些函数,分别应用经典方法和量子方式进行运算,可以得到同样的计算结果,但是这种相同只是对于输入和输出而言的,对于计算过程,二者是完全不同的。

量子计算不能等同于有效方法表明了我们原先对于计算的认识过于局限,而完全忽视了自然机制下物理状态变换所内含的信息变化。而量子计算正是受到量子力学所规定的自然机制的制约,突破了传统计算语境下一些假设的要求,如记数位“非此即彼”的排中性,记数位的可复制性,数据读取(测量)不变性以及对某数据操作不会影响其他数据的性质等等,利用量子态的相干性、纠缠性、不确定性、不可克隆性以及非定域性等等完成了信息的传送及转化,构成了一个全新的计算语境。计算语境的不同就决定了符号的表征、计算的操作方式以及算法设计的不同,从而造成计算复杂性的差异。正是这种差异与不同使我们认识到计算并不局限于一种模式,而是基于不同机制的多样性,数据的表征既可以是电流的有无也可以是电子的自旋,操作过程既可以是经典的逻辑门方式也可以是量子幺正变换,算法设计则只要保证在特定语境中满足操作的递归性即可。这种对计算认识的扩展说明通过从不同的计算语境基底来把握和认识计算的多样性,才是正确的合理的科学方式,从对某种计算所依赖的自然机制的研究出发来设计算法是该计算能高效执行的必要前提。

最后,量子计算还促使计算主义的思潮逐渐向各个科学领域扩展,从而引起对计算实在性研究的广泛关注。当代计算主义发端于认知科学,“认知的本质是计算”这一假说作为人工智能理论的本体论预设,为人类心智方面的计算化研究建立了语境基础。随着生物信息学以及人工生命领域研究的进展,其影响范围逐步得以扩展。当量子计算学家多伊奇于1985年提出“每个有限可实现的物理系统,总能为一台通用模拟机器以有限方式的操作来完美地模拟”[10]这一经验性的命题时,“世界的本质是计算”就成为某种意义上的本体论预设,因为只有承认了在本体意义上的整体性计算主义,才能在物理系统与通用模拟机器之间建立对等关系,从而相信基于计算的模拟是可行的。这也为量子计算提供了语境支持,我们相信量子计算可以实现对量子系统的模拟,是基于量子实在不再如传统认识中由粒子堆砌而成,而是由结构和关系来表示的信息传输和计算过程,也就是说量子系统反映了其本体上的计算实在性。而最大的量子系统其实是我们存在于其中的宇宙,用量子计算机模拟宇宙演化,由于计算复杂度将会是多项式函数,因而在理论上是个可解问题。这就表明,作为整体的宇宙可以由其中的某部分得以体现,如果不从宇宙的本质是信息和计算的角度来理解,这显然是不可想象的。除了对量子系统的模拟,量子计算另一个有意义的应用是用它来模拟人脑的信息处理过程。尽管目前还缺乏可靠的科学依据证明人脑确实是如同量子计算机那样运作,但未来这方面的研究将会为我们理解意识的计算本质提供更多可靠的依据。事实上,从密尔本(Milburn,G.J)将多伊奇的命题修改为“所有有限可描述的物理测量系统的结果都可以很好地为一台通用量子计算机以有限方式的操作完美地模拟,测量结果的记录是最终产物”,[11]就可以看出,量子计算为计算实在性的确立提供了多么充分的科学依据。

当然,量子计算作为一种全新的计算模式,尽管在理论研究方面已经取得不少进展,但是在物理实现、算法结构以及哲学理解等方面还有待突破。从语境论的视角对量子计算的语形表征进行分析,作为研究其哲学内涵的一种新尝试,无疑具有重要的导向作用。对于量子计算在语义及语用语境层面的意义,我们今后将会在另文中给予关注。

参考文献

[1]Feynman R P.Quantum Mechanical Computers[J].Founda-tions of Physics,1986,16(2):512.

[2]夏培肃.量子计算[J].计算机研究与发展,2001(10).

[3]D'Hooghe B,Pykacz J.Quantum Mechanics and Computa-tion[J].Foundations of Science,2004(9).

[4]Nielsen M A,Chuang I L.Quantum Computation and Quan-tum Information[M].Cambridge:Cambridge UniversityPress,2000:29.

[5]Shor P W.A Logarithms for Quantum Computation:DiscreteLogarithms and Factoring[C]//Proceedings of the 35thAnnual Symposium on the Foundations of Computer Sci-ence.New Mexico:IEEE Computer Society Press,1994:124-134.

[6]Grover L K.Quantum Mechanics Helps in Searching for aNeedle in a Haystack[J].Phys.Rev.Lett,1997,79(2):325-328.

[7]Cerny V.Quantum Computers and Intractable(NP-Com-plete)Computing Problems[J].Phys Rev A,1993(1):119.

[8]Copeland B J.Narrow Versus Wide Mechanism:Including aRe-examination of Turing’s Views on the Mind-machineIssue[J].Journal of Philosophy,2000(1):12.

[9]Burkholder L.Computing[C]//A Companion to the Philos-ophy of Science.Oxford:Blackwell,2000:47.

[10]Deutsch D.Quantum Theory,the Church-Turing Principleand Universal Quantum Computer[J].Proceedings of theRoyal Society of London,1985(400):97.

量子计算机的发展现状与趋势 篇6

量子信息科学是利用量子体系的独特性质对计算、编码、信息处理和传输过程给予新的诠释,开发新的、更为高效的信息处理功能的一门学科,它是现代科学技术发展的必然结果。量子信息科学的研究为物理学、信息科学、材料科学乃至整个科学注入了新的生命力,同时对推动相关高新技术的发展以及人类社会的进步具有深远的意义。

量子信息科学的核心目标是实现真正意义上的量子计算机和实现绝对安全的、可实用化的长程量子通信。目前,量子密码技术正从实验室研究走向实际应用,研究实用系统的安全性以及提高实用性能成为该方向的主要课题。量子计算机的研究尚在起步阶段,但它以其独特的魅力正吸引着越来越多的科学家和工程技术人员加入这个研究阵营。

1 量子计算机的研究概况

量子计算机与现有的电子计算机以及正在研究的光计算机、生物计算机等的根本区别在于,其信息单元不是比特(bit,两个状态分别用0或1表示),而是量子比特(qubit),即两个状态是0和1的相应量子态叠加。因此,单个量子CPU具有强大的平行处理数据的能力,而且其运算能力随量子处理器数目的增加呈指数增强,这将为人类处理海量数据提供无比强大的运算工具,例如运用量子并行算法就可以轻而易举地攻破现在广泛使用的RSA公钥体系。

在1985年,英国牛津大学的Deutsch建立了量子图灵机的模型。随后,他把建立普适量子计算机的任务转化为建立由量子逻辑门所构成的逻辑网络。1995年,人们发现量子计算机的逻辑网络可以由结构更为简单的逻辑门集构成,即采用单量子比特的任意旋转和双量子比特的受控非门,就可以搭建任意的量子电路,这就是所谓的量子计算机标准模型[1]。

如果要在真实的物理体系中实现量子计算的功能,该物理体系必须满足所谓的Divincenzo。鉴于很难找到某个物理系统能同时满足这个判据,科学家提出以下若干个替代标准模型的量子计算方案。

1.1 拓扑量子计算

该方案最初由数学物理学家Kitaev于1997年提出。他利用特殊系统不受小扰动影响的拓扑量子性质来构造量子计算机,从而可以实现容错的量子计算。目前,这一领域在国际学术界得到很大的重视,哈佛大学、哥伦比亚大学、芝加哥大学及加州理工学院等一流学校已开始了理论和实验方面的研究。

二维空间系统存在具有分数统计的准粒子,被称为任意子。任意子的统计包含阿贝尔和非阿贝尔两种,非阿贝尔任意子的拓扑性质能够用来做拓扑量子计算。

用于做拓扑量子计算的任意子具有以下特点:(1)有一系列不同类型的准粒子,用于信息的初始化;(2)任意子的交换和旋转满足群论中的辫群规则,可以实现拓扑量子门,用来处理信息;(3)拓扑量子计算中信息编码是非局域的,基本上不受周围环境的影响,因此错误率很低,具有自动容错的功能;(4)满足干涉测量中的Bunching规则,可用于信息读取。

目前的研究表明,二维系统的非阿贝尔统计的任意子态最有可能在填充因子为5/2的分数量子霍尔效应中实现。2009年,美国哈佛大学和以色列Weizmann研究所同时报道在实验上证实了这类态的存在,并在此态上构建了基本的量子位。

1.2 单向量子计算

单向量子计算是R.Raussendorf和H.Briegel在2000年提出的一种新的途径。其思想是利用量子纠缠态以及局域操作和经典通信过程,可以传递非局域的相互作用,从而等价地实现非局域哈密顿量的功能。因此,可建立一种高度纠缠的状态(至少是二维的),称为图态,只需要通过对相邻的几个量子比特进行LOCC过程,测量结束之后可以等效地实现对出发端的量子比特的普适逻辑门操作。这样一来,图态就像是一个面包板,我们将有待实现的量子电路设计出来,将每个原件插上去就可以实现相应的量子操作[2]。显然,量子计算标准模型的难度在这里就转化为如何高效而精确地实现一个超大量子比特数目的图态上。

1.3 绝热量子计算

绝热量子计算最先是由MIT的Golbstone等人提出,其核心思想是通过绝热演化的特性来等效地实现量子幺正变换。在绝对零度时,如果系统的初态处于基态,那么绝热地变换系统哈密顿量的参数,只要不出现基态和激发态的能级交叉,原则上体系始终处于基态。然而,系统演化前后的基态之间必然有一个幺正变换联系。如果这个幺正变换恰恰就是我们所需要的幺正变换,那么量子计算也就可以通过这个绝热过程完成。

该方案的优点在于,在理想情况下,系统始终处于基态,从而不存在退相干问题;其缺点是绝热的条件依赖于基态和第一激发态的能隙,能隙越小,所需要的绝热演化的时间就越长。如果随计算量的变大,绝热演化时间指数相应地变长,那么就失去了量子计算的意义。

近十多年来,著名刊物《Nature》和《Science》平均每个月发表一篇量子计算机研究的论文,但至今量子计算仍然未有突破性的进展。在少数量子比特的物理体系统中,人们成功地演示了量子计算的原理、逻辑门操作、量子编码和量子算法等,证实量子计算的实现不存在原则性困难。但真正要研制出量子计算机,存在两大主要障碍:其一是物理可扩展性问题,即如何实现成千上万个量子比特,并能有效地进行相干操控;其二是容错计算问题,即量子操作的出错率如何能减少到低于阀值,确保计算结果的可靠性[3]。

当前,人们一方面寻找可扩展可容错的量子计算体系,另一方面着手研究技术难度较低的量子仿真。量子仿真的目的就是发展出一套多体系统相干操控的手段,通过实验直接操控、观测人工多体系统的演化行为,为强关联物理学等提供完美的检测场所。量子仿真的研究很可能带来全新的科学发现(如新物质态的发现)。

2 具有可集成性的量子计算体系的实验进展

目前,国际学术界主流较为认可的量子计算物理体系是:量子点、超导、腔电动力学、离子或原子体系。

2.1 量子点体系

半导体量子点借鉴成熟的微加工方法,在半导体二维电子气上制备成单电子晶体管,其电子服从量子力学规律,可以将电子自旋的向上和向下作为量子信息单元1和0。这种利用半导体器件上的电子自旋进行量子信息处理的量子点体系被认为是最有希望成为未来量子计算机的方向之一。

从1998年D.Loss和D.P.Divincenzo提出利用量子点中的电子自旋作固态量子计算开始,国际上多个著名研究机构在半导体量子点作为未来可扩展的量子计算器件的实验研究中取得一系列重大进展。半导体量子点作为量子芯片应具备的基本条件:量子比特的制备、量子逻辑门操作、量子测量和量子相干性。这些基本条件在实验中都已成功实现。著名量子信息专家、美国IBM公司资深研究员D.P.Divincenzo在《Science》杂志专门发表评论,认为半导体量子点作为未来量子计算的元器件————量子芯片是一条真实可行的路。

尽管利用半导体量子点和自旋进行量子信息处理已获得许多令人瞩目的进展,但是要成为真正实用的量子芯片还有很多困难需要解决。量子芯片本质上利用了量子相干性,而半导体量子点体系受周边环境的影响比较严重,控制和维持其量子相干状态遇到了更大的挑战。

2.2 超导量子电路

超导量子计算的核心单元是一种被称为Josephson结的电子器件。按照表征量子比特的不同,Josephson量子电路大致可划分为电荷、磁通和相位等三大类型。与原子和光子之类的天然量子体系相比,Josephson量子电路这种人工量子体系具有以下特点:(1)Josephson量子电路中的能级结构可以通过对电路的设计来制定,也可以通过外加的电磁信号进行调控;(2)基于现有的微电子制造工艺,Josephson量子电路具有良好的可扩展性,这种可扩展性既包括Josephson量子电路之间的级联,也包括Josephson量子电路与其他量子体系之间的耦合。

量子信息领域内的多数学者认为,这些优点使得超导量子电路是最具潜力、也最有可能率先实现有实用价值的大规模量子信息处理器的物理方案之一。目前,单量子比特逻辑门操作已在不同种类的Josephson器件上实现,而双量子比特逻辑门也陆续在不同的超导量子电路中完成。最近,人们在超导传输线腔、SQUID谐振子和纳米机械谐振子等介观谐振子器件方面取得了很有意义的进展。由于这些介观谐振子体系的本征频率都在GHz范围,与超导量子比特在同一量级,因此,将不同类型的超导量子电路和各种谐振子器件耦合,以实现量子逻辑门或模拟各种量子光学现象得到了相当的关注。

超导量子计算虽然是现今各种量子计算方案中发展最快、可集成电路性最好、潜力最大的方案之一。即便如此,超导量子计算现今仍然还处在摇篮阶段,人们最多能够实现的只有1~4个量子比特的耦合,而今各种Josephson量子电路的消相干时间处在各自的单量子比特操作时间的102~103,距离实现量子纠错编码所需要的104次单量子比特操作的阈值仍有较大差距。未来的超导量子计算发展必须要解决两个重要问题,其一是延长量子比特的相干时间;其二是改进量子比特之间的耦合方式。

2.3 离子阱体系

离子阱体系是最早尝试实现量子计算的物理体系。该体系实现量子计算的理论方案最早由Cirac和Zoller于1994年提出;同年,美国国家标准技术局(NIST)的实验组开始了该0方向的实验研究[4]。该系统在单、双量子比特的实验进展方面达到了非常高的水平。目前,主要研究集中在如何提高量子操控的单元技术,以达到容错量子计算的要求;以及如何扩展该体系,实现多位的量子信息过程这两个方面。

离子间的库仑斥力和轴向的谐振子势,使得N个离子在轴向形成N个振动(声子)模式,这些振动模式成为传导离子内态之间相互作用的“信使”。通过声子—激光—离子三者的作用可实现量子信息的初态制备、操控和读取。

目前,科学家已制备出8个离子的W态,保真度达72%,制备了6个离子的薛定谔猫态,保真度超过50.9%。为解决离子阱体系的物理可扩展性问题,人们已提出若干有效方案。据悉,美国已启动研制50~80量子比特的离子阱量子计算的计划,未来预期有重大突破。

2.4 腔量子电动力学(QED)体系

这种类型的量子计算是基于腔模和偶极子之间的强耦合,有效地提供了光子与两能级量子体系(原子、量子点等)之间的相互作用,实现两个量子比特的可控操作。这种方案的优势之一是原子作为静止量子比特,适用于存储信息,而光子作为飞行量子比特,适合于传递和交换信息。而且,量子光学理论能够精确处理腔量子电动力学的问题。

然而,从量子计算的可扩展性出发,现在的传统光学腔也面临很多困难,比如其品质因数很难进一步提高,扩展多个比特需要更多的光腔,使体系变得很复杂,也无法做到集成。为此,国际上很多著名的研究小组开始将目光转移到寻找新的光学微型腔体系。现在研究最为热门的光学微腔主要有回音壁模式微腔和光子晶体缺陷微腔。以回音壁模式微腔为例,这种腔具有极高的品质因数和较小的模式体积,可以提供更强的原子光场相干强度。此外回音壁模式的微腔加工工艺是基于传统的半导体刻蚀技术,很容易集成[5,5]。目前,利用回音壁模式微腔进行量子电动力学和量子信息的研究已经成为国际上研究的一个热点。

光学微腔和光学F-P腔一样,首先要实现的是单个原子和腔模的强耦合,这涉及到如何将单个粒子放入腔中和调谐腔模如何与粒子共振这两个技术[6]。迄今这两个技术尚未获得完满解决。

目前,光学微腔的飞速发展以及微腔与量子点的结合,有可能在一块硅芯片上集成固态微腔阵列,其中每个微腔里面都有与微腔强耦合的原子(量子点等其他粒子)作为量子比特而由光波导中传输的光子构成了系统的总线。

3 当前国际国内研究趋势

近几年,美国启动了一个研究量子芯片的计划。该计划势必加快量子计算机的研究进程,并将触动国际上新一轮的激烈竞争。半导体芯片几十年来一直沿着摩尔定律发展,而单位芯片上晶体管数目越来越多,而每个晶体管的尺寸越来越小,目前已经小到一个流感病毒的大小。

同时,每个晶体管电子数目越来越少,量子效应越来越明显,按照传统模式,人们将到达控制电子的物理极限。当每个晶体管缩小到只容纳一个电子,即单电子晶体管(量子点),其中的电子必然满足量子力学的物理规律,因此芯片的可持续发展必然依赖于新一代基于量子力学的计算芯片。

量子计算是芯片突破现有半导体微电子技术物理极限的必然产物,将成为后摩尔时代具有标志性的新技术和未来信息技术的战略制高点。美国前总统布什于2006年1月31日的国情咨文中宣布了“美国竞争力计划”,在这项富有进取心的长期计划中,第四条举措即为“突破技术障碍,实现量子信息处理技术的实际应用”。2009年,由美国总统科技顾问牵头的美国科学技术委员会发布了关于量子信息科学的联邦报告,呼吁国家安全局、DARPA、NSF、NIST、Los Alamos和Sandia国家实验室等多个军事机构一起协调开展量子计算的研究。

基于量子芯片在下一代产业和国家安全等方面的重要性,美国DARPA负责人Tether博士在向美国众议院军事委员会做报告时,将半导体量子芯片科技列为未来9大战略研究计划的第二位,并仿照当年曼哈顿工程制造原子弹的成功先例,投巨资启动“mini-Manhattan project”(微型曼哈顿计划),集中了包括Intel、IBM公司等半导体界巨头以及哈佛大学、普林斯顿大学、Sandia国家实验室等著名研究机构,在国家层面上组织各部门跨学科统筹攻关,以期占领未来量子计算技术的战略制高点。

众所周知,DARPA常常提出意义十分重大,但极富风险和挑战性的项目。这些看似不可能的计划,一旦突破将产生巨大的效果,会大大增强美国的战略竞争能力,例如因特网、卫星定位系统、隐形飞机等就是其成功的例子。现在他们将目光聚焦到量子芯片的研制上,待在量子计算技术的战略竞争中抢占制高点。

日本和欧共体在美国微型曼哈顿计划的刺激下也紧跟其后启动类似计划,引发了新一轮关于量子计算技术的国际竞争。

虽然中国是世界上电子计算机生产制造大国,也涌现了像神威、银河、曙光这样的超级计算机。但纵观我国的微电子发展状况,国产半导体芯片无论在性能上,还是数量、品种上都远远不能满足需要,计算机芯片依然主要依赖进口。

新一轮国际战略竞争的焦点是“量子芯片”,这是我国改变目前在微电子工业受制于人的被动局面的新机遇。我们不能再重蹈没有核“芯”技术的旧辙,应当在起跑线上采取有力措施,参与这场关系到国家重大利益的激烈竞争。我国“中长期科技发展纲要”将“量子调控”列入重大基础研究计划,这是富有前瞻性的战略布局,这个计划的实施有力推动了量子信息这个新兴高技术在我国的发展。近几年来,我国在量子密码技术、多光子纠缠等方面取得重要进展。

尽管不断地取得研究进展,但鉴于基础研究较弱,我国在国际主流方向上做出原创性的成果还很少,总体水平明显落后于西方强国,特别是在量子计算机这个学科主流方向上,差距正日益增大。当前美国启动的“微型曼哈顿计划”对我国是个严峻挑战。因此,在保持“量子调控”重大专项的基础上,迫切需要另一个类似于“微型曼哈顿计划”,有一定冒险性的专项计划,组织国内精锐研究队伍,提供足够强大的支撑,加强相关的基础建设,实实在在去寻求突破,在下一代量子芯片的国际竞争中抢占战略制高点。

摘要:量子计算机是一种新型的运算工具,它具有强大的并行处理数据的能力,可解决现有计算机难以运算的数学问题,因此,它成为世界各国战略竞争的焦点。本文综述了量子计算机目前的发展状况和可扩展、可容错的量子计算机物理体系的实验研究进展,并分析了美国最近启动研制量子芯片的微型曼哈顿计划对我国构成的严峻挑战。

关键词:量子信息,量子计算机,量子芯片

参考文献

[1]周正威,涂涛,龚明,等.量子计算的进展和展望[J].物理学进展,2009,29(3):127-165.

[2]贾锐,宋志宏,秦传锋.基于案例的新型舰船备件需求量的预测模型[J].船海工程,2006,(2):70-72.

[3]张镇九等.量子计算中的因子分解[J].物理,2000,9.

[4]苏晓琴,郭光灿.量子通信与量子计算[J].量子电子学报,2004,(3):43-45.

[5]周熠,高峰.量子计算机研究进展[J].衡阳师范学院学报,2006,(6):135-137.

量子计算原理 篇7

研究人员认为, 制造一台实用的量子计算机的最佳途径之一就要涉及到创建数百个或数千个量子比特构成的格栅共同工作。这种芯片电路是由金属制成的, 当冷却到极低的温度时会变成超导体。芯片中仅有一小部分是在绝对零度以上运行。

该芯片仅包含最简单的格栅, 四个量子比特按照二对二排列。但此前研究人员曾表示只有当排成一条线, 量子比特才能一起运行。不同于传统的二进制位, 一个量子比特可以输入一个“叠加状态”, 其中0和1是同时有效。当在该状态下的量子比特一起工作, 就可以完成对于传统的硬件而言不可能完成的复杂的计算。Google、美国航空航天局 (NASA)、微软、IBM和美国政府都在研究这种技术。

有不同的方式制造量子比特, 而超导电路是最有发展前景的一种方式。然而所有的量子比特都会遭受的问题是, 他们用来表示数据的量子效应很容易受到干扰。目前的大部分工作主要集中在小部分量子比特在发生错误时可以检测到这些错误, 从而使研究人员可以围绕其展开工作或纠正。

今年早些时候, 加利福尼亚州圣巴巴拉分校的研究人员和Google共同宣布, 他们已经做了一个由九个超导量子比特排列在一条线上的芯片。位于该系统中的一些量子比特可以在同类设备遭受到比特翻转的错误类型时, 及时监测到错误。然而, 量子比特也会遭受到第二种类型的错误———相位翻转,也就是其中一个量子比特的叠加态变得扭曲。

上一篇:物流系统成本下一篇:财务会计核算体系论文