1.5 量子计算机是什么计算机
1.5.1 什么是量子计算机
量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。
1. 量子计算机的提出
量子计算机的概念源于对可逆计算机的研究,研究可逆计算机的目的是为了解决计算机中的能耗问题。研究发现,能耗来源于计算过程中的不可逆操作。那么,是否计算过程必须用不可逆操作才能完成呢?问题的答案是所有经典计算机都可以找到一种对应的可逆计算机,而且不影响运算能力。
由此,科学家想到既然计算机中的每一步操作都可以改造为可逆操作,那么在量子力学中,它就可以用一个幺正变换表示,从而运用到量子计算机中。幺正矩阵是基本的物理概念,是指如果一个n阶方阵,它的列向量构成一组标准正交基,那么这个矩阵就是幺正矩阵。由幺正矩阵所表示的变换称为幺正变换。
当今的计算机厂商提供的强大计算处理能力仍不能满足人们对运算速度和运算能力的渴求。1947年,美国计算机工程师霍华德·艾肯(Howard Aiken)曾说,只要6台电子数字计算机就可以满足全美国的计算需要。
现在,是不是还有什么大腕说有多少台量子计算机就可以满足全世界的需要了呢?据调查,还没有人说出这样的话。
2. 集成电路的发展极限
图1-11 美国物理学家理查德·费曼
人们现在使用的大规模集成电路是有极限的。早在20世纪,1990年已经制成了64M位的动态随机存储器,集成电路的线宽已细到0.3μm。1993年制成了256M位的动态随机存储器。当存储器达到1024M位时,集成电路的线宽将细到0.1μm,也就是千万分之一米,差不多是一根头发丝的千分之一。这样细的电路,被认为是集成电路的发展极限,电路比这更细时,现有电子元件将失去工作的理论基础。
实际上,早在1981年,美国物理学家理查德·费曼(见图1-11)已提出,人们能够研制出“遵循量子力学法则的微型计算机”。他认为,这样的量子计算机可能是模拟现实世界量子系统的最好方式。
费曼是美国著名的物理学家,1965年度诺贝尔物理学奖得主。他提出了费曼图、费曼规则和重正化计算方法,是研究量子电动力学和粒子物理学不可缺少的工具。
自那时起,各国科学家一直在研制量子计算机,但结果始终不尽如人意。早期的量子计算机,实际上是用量子力学语言描述的经典计算机,并没有用到量子力学的本质特性,如量子态的叠加性和相干性。
1.5.2 量子计算机的前世今生
1. 量子计算机的前世
1920年,薛定谔、爱因斯坦、海森伯和狄拉克,共同创建了一个前所未有的新学科——量子力学。量子力学的诞生为人类未来的第四次工业革命打下了基础。在此基础上人们发现了一项新技术,就是量子计算机。
量子计算机的技术概念最早由费曼提出,之后经过很多年的研究这一技术已初步见成效。在20世纪80年代多处于理论推导等纸上谈兵状态。一直到1994年秀尔提出量子质因子分解算法后,因其对于现在通行于银行及网络等处的RSA加密算法可以破解而构成威胁之后,量子计算机变成了热门的话题。除了理论之外,也有不少学者着力于利用各种量子系统实现量子计算机。
2. 现代量子计算机的今生
1994年,两位物理学家尼尔和艾萨克研制出一台最基本的量子计算机,能够进行简单的运算。使用丙氨酸,它可以完成1+1的运算;使用液态三氯甲烷,还能解决其他问题。物理学家们现在正努力研究出一种比较复杂的计算机,能够将15分解成3乘5。
2000年,日本日立公司开发成功一种量子元件——单个电子晶体管,可以控制单个电子的运动,具有体积小、功耗低的特点,约是目前功耗最小的晶体管的千分之一。日本富士通公司正在开发量子元件超高密度存储器,在1cm2芯片上,可存储10万亿比特的信息,相当于可存储6000亿个汉字。美国物理学家约翰逊开发成功的电子自旋晶体管,有可能将集成电路的线宽降至0.01μm。在一个小小的芯片上可容纳数万亿个晶体管,使集成电路的集成度大大提高。
2000年3月,美国洛斯阿拉莫斯国家实验室的科学家们宣布研制了一台包含7量子比特,存在于一滴液体中的量子计算机,如图1-12所示。该量子计算机使用核磁共振操纵反式丁烯酸分子原子核中的粒子。反式丁烯酸是一种简单的液体,其分子由6个氢原子和4个碳原子组成。核磁共振可用来产生促使粒子排列起来的电磁脉冲。处于与磁场方向相同或相反位置的粒子,使得该量子计算机可以模仿数字计算机按比特对信息进行编码。
图1-12 存在于一滴液体中的量子计算机
2000年8月,IBM Research-Almaden研究中心宣布制成了一台据称是当时最先进的量子计算机。这台量子计算机的5量子比特由5个相互作用的氟原子核构成,使用无线电频率脉冲编程,并使用类似于医院中的核磁共振(NMR)设备(有关详细信息可参见核磁共振成像原理)进行探测。这支由艾萨克·庄(Isaac Chuang)博士领导的IBM小组成功地仅用一步解决了一个用传统机器需要循环才能解决的数学问题。这个称为寻秩的问题涉及查找一个特定函数的周期,是密码学中经常遇到的众多数学问题之一。
近年来由于社会对高速、保密、大容量的通信及计算的需求,促进了量子信息、量子计算理论与实验的迅速发展。目前,美国的洛斯阿拉莫斯国家实验室和麻省理工学院、IBM公司和斯坦福大学、中国科学院武汉物理研究所、清华大学的四个研究组已实现7量子比特量子算法演示。
2007年2月26日,加拿大一家公司宣布已经制造出了世界上首个商业量子计算机。
2007年年初,中国科技大学潘建伟小组在Nature·Physical上发表论文,成功制备了国际上纠缠光子数最多的“薛定谔猫”态和单向量子计算机,刷新了光子纠缠和量子计算领域的两项世界纪录,成果被欧洲物理学会和Nature杂志等广泛报道。
特别引人注目的是,英国New Scientist杂志在“中国崛起”的专栏中,把中国科技大学在量子计算领域取得的一系列成就作为中国科技崛起的重要代表性成果,进行了专门介绍。
1.5.3 量子计算机进入世界级竞赛
进入21世纪以来,量子计算机进入世界级竞赛。
相比传统计算机,量子计算机的最大区别在于:传统计算机只能按照时间顺序一个个地解决问题,而量子计算机却可以同时解决多个问题。
传统计算机使用的运算规则是二进制,用0和1记录信息状态。但量子计算机由量子状态描述信息,根据量子的特性,它可以同时表示多种状态,并同时进行叠加运算,因而拥有更快速的运算方式。
由于量子计算机的处理能力比当前传统超级计算机高几个数量级。因此,许多人认为,量子计算机将完成以前被认为是不可能完成的任务,例如模拟化学催化剂、建立超级复杂系统的模型、破解加密密码等。但迄今为止,这些公司开发的量子计算机处理能力不够强大或不够精确,在运行大多数任务时不足以超过传统计算机。
量子计算机成熟商用时点逐步临近,超强运算能力对传统加密手段形成巨大冲击,量子通信绝对安全的理论特性愈加重要,量子通信的应用和推广有望进一步提速。传统计算机15万年才能完成的300位大数分解,量子计算机利用Shor算法只需1s,经典非对称密码体系全部能够被量子Shor算法破解。
目前,IBM、Intel公司均已推出17量子比特量子计算机,50量子比特产品商用也有望近期落地。量子计算机面世后,信息安全将无法保证,量子通信绝对安全的理论特点在量子计算时代格外重要,量子通信的应用和推广有望进一步提速。
1. IBM公司发布了17量子比特的处理器
2017年5月,IBM公司发布了17量子比特的处理器,如图1-13所示。其强大的计算能力,使得它可以应用于那些需要强大计算性能的场景,传统计算机是没法胜任这类工作的。量子计算机利用量子现象同时表示多个数据,这使得以往只能进行一次运算的时间内可以实现并行的复杂运算。
图1-13 17量子比特计算测试芯片
2. Intel公司交付49量子比特测试芯片:算力等于5000颗8代i7
Intel公司也在研究量子处理器,并在2017年10月携手荷兰研发合作伙伴QuTech量子实验室成功利用先进材料技术和制造技术开发出了一款包含17量子比特的新超导芯片,并将芯片交QuTech进行测试,挑战IBM公司此前推出的规模最大的量子计算芯片。
目前,各大科技公司的研究员都在开发包含50量子比特的芯片。这样的芯片计算能力将超过当前所有超级计算机。
根据Intel公司介绍,量子计算的构建模块(也就是量子比特)相当脆弱,只能在极低温度下运行,而且封装时要求很高,必须预防数据丢失。Intel公司找到一种新方法,它们制造出17量子比特芯片,芯片的架构在更高温度下更可靠,量子比特之间的射频干扰更小。
2017年,Intel公司已经成功设计、制造和交付49量子比特的超导测试芯片,这距离Intel公司交付17量子比特芯片仅仅过去了3个月的时间。
49量子比特的芯片代号是Tangle Lake,被Intel公司认为是里程碑。因为在这样的尺度上,已经允许研究人员评估改善误差修正技术和模拟计算问题。谈到量子计算的商用,还需要5~7年时间。
7、17、49量子比特芯片如图1-14所示。
图1-14 7、17、49量子比特芯片
除了超导量子比特,Intel公司也基于300mm制程工艺打造了1量子比特的自旋芯片。自旋量子比特的规模和单位面积比超导量子比特更可观,而且,它就像一个单电子晶体管。
3. Google公司宣布开源量子计算软件OpenFermion
另一巨头Google公司也不甘示弱,它在自己的官方博客上宣布公开开源量子计算软件OpenFermion,让科学家们更方便地使用量子计算机。这次开放的是OpenFermion的源代码,可供用户免费使用,化学家和材料学家可以利用OpenFermion改编算法和方程,使之能在量子计算机上运行。
Google公司开源的做法也是量子计算机领域目前的趋势。IBM、Intel、Microsoft和D-Wave等公司都曾宣布开放自己的量子计算平台,使之能促进量子计算的商业化运行。
4. 加拿大量子计算公司D-Wave发布全球第一款商用量子计算机
2017年D-Wave公司宣布,推出旗下最新型号的量子计算机D-Wave 2000Q,如图1-15所示。D-Wave 2000Q的计算能力是以前型号的两倍,Temporal防御系统公司是这台新计算机的首个客户,其主要目的是把D-Wave 2000Q用于网络安全研究。
图1-15 量子计算机D-Wave 2000Q
在这之前,Google公司购买了一台D-Wave量子计算机用来研究人工智能,美国国家宇航局NASA和军火商洛克希德·马丁公司也采购了同样的机型用于研究。
5. 美国IBM公司成功构建50量子比特原型机
IBM公司从2017年开始以云计算服务的形式提供量子计算能力。IBM公司宣布,已经成功开发了包含50量子比特的原型产品,量子计算机中的芯片所处环境温度被降至15K,如图1-16所示。这是量子计算领域的下一个里程碑。IBM公司最初版本的量子计算机是免费提供的,目的是培育用户社区,指导用户如何使用这些机器编程。
图1-16 IBM公司量子计算机中的芯片所处环境已降至15K
量子计算机和量子信息技术在科技界的领先地位是不可动摇的。未来处理能力超强的量子计算机能够在数秒内完成目前速度最快的超级计算机数年才能完成的计算任务。可能未来的某天,你会发现现代的数字计算机已经因为过时而被丢进了历史的垃圾堆。量子计算虽然起源于理论物理这个高度特殊的领域,但是它的未来无疑有着深远的意义,它必将对全人类的生活产生深刻的影响。
6. Google公司发布全球首个72量子比特通用量子计算机
2018年3月,Google公司宣布推出一款72量子比特的量子处理器Bristlecone,实现了1%的低错误率,与9量子比特的量子计算机持平。
Google公司认为,使用Bristlecone可以实现量子霸权。同时IBM公司也曝光了其50量子比特量子原型机内部构造。Google公司在量子比特位数和错误率上的亮眼表现,霎时将2018年的量子霸权竞赛的赛点提前。这个最新设备遵循Google公司之前提出的9量子比特量子计算机的线性阵列技术所对应的物理学原理,而该技术显示的最佳结果如下:低的读数错误率(1%)、单量子比特门(0.1%)以及最重要的双量子比特门(0.6%)。该设备使用与9个量子比特的相同的模式进行耦合、控制和读出,但将其扩展为一个包含72量子比特的正方形数组。
图1-17(a)是Google公司最新的72量子比特量子处理器Bristlecone。
图1-17(b)是该设备的图示:每个“×”代表一个量子比特,量子比特之间以线性阵列方式相连。
图1-17 Google公司最新的72量子比特的量子处理器Bristlecone
一直以来,大家都认为50量子比特的量子计算机是实现量子霸权的“起步价”。就在Google公司抛出49量子比特的量子计算机实现量子霸权的说法后不久,IBM公司就称,它们的研究表明,对于某些特定的量子应用,可能需要56个乃至更多个量子比特才能实现量子霸权。这可能是为什么Google公司从2017年的49量子比特一下子跳跃到72量子比特的一个原因,超出这么多,应该能打消各种疑虑。但是,要实现量子霸权,就不得不说刚才提到的量子模拟。目前最强大的超级计算机,只能模拟46量子比特。
7. 抢占2018年量子霸权竞赛赛点,小型商用量子计算机5年内出现
当我们可以实现几十乃至几百万量子比特0.1%~1%的错误率时,量子计算机将开始真正高效解决实际问题。这可能需要十年或者更久的时间。但是,至少Google公司认为,在制造出大规模量子比特量子计算机之前,我们可能会先实现一些小型的甚至是商用的量子计算机,或者说量子计算商业应用。2017年,Google公司量子团队在Nature刊文称,他们坚信即使还缺乏能够完整纠错的理论,但5年之内仍会有与量子计算有关的小型设备问世,而这也将给投资者带来短期的回报。早期的量子计算设备将在量子模拟、量子辅助优化和量子采样领域有商业运用。更快的计算速度对从人工智能到金融和医疗等领域具有明显的商业优势。