3.1 量子芯片

3.1.1 超导量子芯片

  超导量子计算是基于超导电路的量子计算方案,其核心器件是超导约瑟夫森结。超导量子电路在设计、制备和测量等方面,与现有的集成电路技术具有较高的兼容性,对量子比特的能级与耦合可以实现非常灵活的设计与控制,极具规模化的潜力。

  由于近年来的迅速发展,超导量子计算已成为目前最有希望实现通用量子计算的候选方案之一。超导量子计算实验点致力于构建一个多比特超导量子计算架构平台,解决超导量子计算规模化量产中遇到的难题。

  如图3.1.1(a),超导电路类似于传统的电子谐振电路,这种谐振电路产生了谐振子的能级。超导约瑟夫森效应使得超导电路在不发生损耗和退相干的情况下产生非线性,非线性导致谐振子的能级间隔不再等同,其中最低的两个能级可以用来实现量子比特的操控,如图3.1.1(b)所示。与经典谐振电路不同的是,超导电路还含有由约瑟夫森结带来的电感Lj这一项,改变这一项和电感L、电容C的比值,物理学家提出了多种基于超导线路的比特形式,如图3.1.1(c)[6]。

../_images/3.1.1.png

图3.1.1超导电路构成量子比特[2](a)超导量子比特的等效电路模型(b)超导量子比特的能级(c)不同种类的超导量子比特(Cooper pair box-库珀对盒,Quantronium/fluxonium/transmon-一种量子比特装置,不需要翻译,Flux qubit-磁通量子比特,Phase qubit-相位量子比特,Hybrid qubit-混合量子比特)

  超导量子计算的研究始于2000年前后,后来在美国耶鲁大学Schoelkopf和Devoret研究组的推动下,将超导比特和微波腔进行耦合,实现了量子比特高保真度的读出和纠缠,加速了超导量子比特的研究。微波腔是一种容纳微波光子的谐振腔,比特的两个能级会对微波腔的光子产生扰动,这一信号的扰动就可以用来实现比特信号的读出。比特和比特之间还可以通过微波腔相连,当两个比特和腔是强耦合状态的时候,两个比特就会通过腔发生相互作用,物理学家通过这一相互作用实现了两比特操作。在2009年,基于超导比特和腔的耦合,实现了两比特的高保真度量子算法,使得超导量子计算得到了世界的广泛关注[3]。

  从2014年开始,美国企业界开始关注超导量子比特的研究,并加入了研究的大潮中。2014年9月,美国Google公司与美国加州大学圣芭芭拉分校合作研究超导量子比特,使用X-mon形式的超导量子比特,如图3.1.2(a)所示为一个9比特芯片,这个超导芯片的单比特和两比特保真度均可以超过99%,在X-mon结构中,近邻的两个比特(两个十字)可以直接发生相互作用[4]。2016年基于这个芯片实现了对氢分子能量的模拟,表明了其对于量子计算商用化的决心[5]。

  2017年,Google发布了实现量子计算机对经典计算机的超越——“量子霸权”的发展蓝图[6]。2018年年初,其设计了72比特的量子芯片,并着手进行制备和测量,这是向实现量子霸权迈出的第一步。在Google公司加入量子计算大战的同时,美国国际商用机器有限公司(IBM)于2016年5月在云平台上发布了他们的五比特量子芯片,如图3.1.2(b)所示,这种比特形式叫做Transmon,Transmon的单比特保真度可以超过99%,两比特保真度可以超过95%,在Transmon的结构中,比特和比特之间仍然用腔连接,使得其布线方式和X-mon相比更加自由。

  2017年,IBM制备了20比特的芯片,并展示了用于50比特芯片的测量设备,同时也公布了对BeH2分子能量的模拟,表明了在量子计算的研究上紧随Google的步伐[7],不仅如此,IBM还发布了QISKit的量子软件包,促进了人们通过经典编程语言实现对量子计算机的操控。

../_images/3.1.2.png

图3.1.2不同公司的超导量子芯片(a)Google的九比特芯片(b)IBM的五比特芯片 (c)Rigetti公司的19比特芯片(d)本源量子公司的6比特芯片[4,7,8](measurement-测量,Qubits-量子比特,control-控制)

  除了美国Google公司和IBM公司外,美国Intel公司和荷兰代尔夫特理工大学也合作设计了17比特和49比特超导量子芯片,并在2018年的CES大会上发布,不过具体的性能参数还有待测试;美国初创公司Rigetti发布了19比特超导量子芯片,并演示了无人监督的机器学习算法,使人们见到了利用量子计算机加速机器学习的曙光[8],如图3.1.2(c)所示。美国微软公司开发了Quantum Development Kit量子计算软件包,通过传统的软件产品Visual Studio就可以进行量子程序的编写。

  在国内,2017年,中国科学技术大学潘建伟研究组实现了多达十个超导比特的纠缠[9],2018年年初,中科院和阿里云联合发布了11位量子比特芯片,保真度和Google的芯片不相上下,表明了我国在超导量子计算方面也不甘落后,并迎头赶上,同时,合肥本源量子公司也正在开发6比特高保真度量子芯片,如图3.1.2(d)所示。南京大学和浙江大学也对超导量子比特进行了卓有成效的研究[10, 11]。在超导量子计算方面,可谓是国内国外百花齐放,百家争鸣。

3.1.2 半导体量子芯片

  由于经典计算机主要基于半导体技术,基于半导体开发量子计算也是物理学家研究的重点领域。相比超导量子计算微米级别的比特大小,量子点量子比特所占的空间是纳米级别,类似于大规模集成电路一样,更有希望实现大规模的量子芯片。现在的主要方法是在硅或者砷化镓等半导体材料上制备门控量子点来编码量子比特。编码量子比特的方案多种多样,在半导体系统中主要是通过对电子的电荷或者自旋量子态的控制实现。

  基于电荷位置的量子比特如图3.1.3所示,这是中国科学技术大学郭国平研究组利用GaAs/AlGaAs异质结制备的三电荷量子比特的样品,图中Q1、Q2和Q3作为探测器可以探测由U、L电极形成的量子点中电荷的状态,六个圆圈代表六个量子点,每种颜色代表一个电荷量子比特。以两个黄圈为例,当电子处于右边量子点中时,它处于量子比特的基态,代表0;当电子处于左边量子点时,它处于量子比特的激发态,代表1。这三个比特的相互作用可以通过量子点之间的电极调节,因而可以用来形成三比特控制操作[12],不过这种三比特操作的保真度较低,提高保真度需要进一步抑制电荷噪声。

../_images/3.1.3.png

图3.1.3 中国科学技术大学郭国平研究组研制的三电荷量子比特半导体芯片[12]

  基于自旋的量子比特如图3.1.4(a)所示,这是美国普林斯顿大学Petta研究组基于Si/SiGe异质结制备的两自旋量子比特芯片,图3.1.4(a)中带箭头的圆圈代表不同自旋方向的电子,自旋在磁场下劈裂产生的两个能级可以用于编码量子比特。这两个量子比特之间的耦合可以通过中间的电极M进行控制,实现两比特操作[13]。由于对电荷噪声有较高的免疫效果,自旋量子比特的退相干时间非常长,2014年,澳大利亚新南威尔士大学Morello研究组的实验结果显示自旋的退相干时间可以长达30秒,可以用来制备超高保真度的量子比特[14]。截止到2018年年初,已经有包括澳大利亚新南威尔士大学Dzurak组、美国普林斯顿大学Petta组和荷兰代尔夫特大学Vandersypen组实现了半导体自旋量子比特的两比特操控[13, 15-16],其单量子比特操控保真度已经可以超过99%,两比特操控保真度可以达到80%左右。2017年,日本Tarucha研究组报道了保真度达到99.9%的单量子比特,证明了自旋量子比特的超高保真度[17]。

../_images/3.1.4.png

图3.1.4 不同研究组的两自旋量子比特半导体芯片(a)美国普林斯顿大学Petta研究组(b)澳大利亚新南威尔士大学Dzurak组(c)荷兰代尔夫特理工大学Vandersypen组[13, 15-16](Bext-外磁场,Qubits-量子比特,Charge sensor-电荷探测器,Al203-氧化铝,Si-硅,SiGe-硅锗,Bz-垂直磁场,Co micromagnet-钴微磁体,Depletion gate-耗尽电极,Accumulation gate-汇聚电极)

  与超导量子计算类似,半导体量子计算也正在从科研界转向工业界,2016年,美国芯片巨头Intel公司开始投资代尔夫特理工大学的硅基量子计算研究,目标是在五年内制备出第一个二维表面码结构下的逻辑量子比特;2017年,澳大利亚也组建了硅量子计算公司,目标是五年内制备出第一台10比特硅基量子计算机。

  在国内,中国科学技术大学的郭国平研究组在传统的GaAs基量子比特方面积累了成熟的技术,实现了多达3个电荷量子比特的操控和读出,并基于电荷量子比特制备了品质因子更高的杂化量子比特[12, 18-20],同时,该组从2016年开启了硅基量子比特计划,计划五年内制备出硅基高保真度的两比特量子逻辑门,实现对国际水平的追赶,并为进一步的超越做准备。

3.1.3 其他类型体系的量子计算体系

1. 离子阱量子计算

  离子阱量子计算在影响范围方面仅次于超导量子计算。早在2003年,基于离子阱就可以演示两比特量子算法[21]。离子阱编码量子比特主要是利用真空腔中的电场囚禁少数离子,并通过激光冷却这些囚禁的离子[22]。以囚禁Yb+为例,图3.1.5(a)是离子阱装置图,20个Yb+连成一排,每一个离子在超精细相互作用下产生的两个能级作为量子比特的两个能级,标记为|↑>和|↓>。图3.1.5(b)表示通过合适的激光可以将离子调节到基态,然后图3.1.5(c)表示可以通过观察荧光来探测比特是否处于|↑>。离子阱的读出和初始化效率可以接近100%,这是它超过前两种比特形式的优势。单比特的操控可以通过加入满足比特两个能级差的频率的激光实现,两比特操控可以通过调节离子之间的库伦相互作用实现。

../_images/3.1.5.png

图3.1.5 (a)离子阱装置(b)比特初始化(c)通过荧光探测测量比特状态[19]

  2016年,美国马里兰大学C. Monroe组基于离子阱制备了五比特可编程量子计算机,其单比特和两比特的操作保真度平均可以达到98%,运行Deutsch–Jozsa算法的保真度可以达到95%[23]。他们还进一步将离子阱的五比特量子芯片和IBM的五比特超导芯片在性能方面进行了比较,发现离子阱量子计算的保真度和比特的相干时间更长,而超导芯片的速度更快。在比特扩展方面,两者都有一定的难度,不过在20-100个比特这个数目内,两者现在可能都有一定的突破[24]。除了量子计算,离子阱还能用来进行量子模拟,如图3.1.6所示。2017年,C. Monroe组使用了53个离子实现了多体相互作用相位跃迁的观测,读出效率高达99%,是迄今为止比特数目最多的高读出效率量子模拟器[25]。虽然不能单独控制单个比特的操作,但是这也证明了离子阱量子计算的巨大潜力。

../_images/3.1.6.png

图3.1.6利用53个离子实现多体相互作用观测的量子模拟器示意图[25](Initialize spins-初始自旋状态,measurement-测量,magnetization-磁化,time-时间,Quantum quench-量子退火, Camera-相机)

  对于两比特操控速度问题,这一直是限制离子阱量子计算发展的主要因素。两比特门操作速度最快也需要100 us,远远高于超导量子比特和半导体量子比特的200 ns。2018年,牛津大学的Lucas组通过改进激光脉冲,达到了最快480 ns的操作速度,展现了离子阱量子计算的丰富前景[26]。

  2015年,马里兰大学和杜克大学联合成立了IonQ量子计算公司,2017年7月,该公司获得两千万美元的融资,计划在2018年将自己的量子计算机推向市场,这是继超导量子计算之后第二个能够面向公众的商用量子计算体系。

  国内的离子阱量子计算也于近几年发展起来。清华大学的金奇奂研究组和中国科学技术大学的李传锋、黄运峰研究组已经实现了对一个离子的操控,做了一些量子模拟方面的工作[27, 28]。清华大学计划在五年内实现单个离子阱中15-20个离子的相干操控,演示量子算法,说明中国也已经加入到了离子阱量子计算的竞赛中。

2. 原子量子计算

  除了利用离子,较早的方法还包括直接利用原子来进行量子计算。不同于离子,原子不带电,原子之间没有库伦相互作用,因此可以非常紧密地连在一起而不相互影响。原子可以通过磁场或者光场来囚禁,用后者可以形成一维、二维甚至三维的原子阵列,如图3.1.7所示[29]。

../_images/wps496.jpg

图3.1.7用光场囚禁的多原子阵列(a)一维阵列(b)二维阵列(c)三维阵列[29]

  原子可以通过边带冷却的方式冷却到基态,然后同样可以通过激光对比特进行操控,比特的读出也类似于离子阱的方法。由于没有库伦相互作用,两比特操控在原子中较难实现,它们必须首先被激发到里德堡态,原子的能量升高,波函数展宽,再通过里德堡阻塞机制实现两比特操控。尽管迄今为止,原子量子比特的两比特纠缠的保真度只有75%,还远远落后于离子阱和超导比特,但是2016年一篇论文中,通过理论计算,经过波形修饰的两个原子量子比特的纠缠保真度可以达到99.99%[30]。

  除了传统的基于量子逻辑门进行量子计算的方法,还有一种实现量子计算的方式是对不同拓扑结构的量子纠缠态进行测量,这两种方法在解决问题的范围上是等价的。在这方面,中国科学技术大学的潘建伟研究组进行了卓有成果的研究,2016年实现了600对量子比特的纠缠,纠缠保真度在79%左右[31],根据下一步计划,将基于成对的量子比特纠缠实现约百个量子比特集体的纠缠,开展基于测量的量子计算方法。

  基于原子的量子模拟可能比量子计算更加受到科研界的关注。利用光晶格中的原子,可以研究强关联多体系统中的诸多物理问题,比如玻色子的超流态到Mott绝缘体的相变和费米子的Fermi-Hubbard模型,经典磁性(铁磁、反铁磁和自旋阻挫),拓扑结构或者自旋依赖的能带结构以及BCS-BEC交叉等问题。现在聚焦的主要是量子磁性问题、量子力学中的非平衡演化问题和无序问题[32]。在基于原子的量子模拟方面,2017年哈佛大学Lukin组甚至利用51个原子对多体相互作用的动态相变进行了模拟[33]。我国在2016年,中国科学技术大学的潘建伟研究组对玻色-爱因斯坦凝聚态的二维自旋-轨道耦合进行了模拟,为研究新奇的量子相打开了大门[34]。

3. 核自旋量子计算

  1997年,斯坦福大学的Chuang等人提出利用核磁共振来进行量子计算的实验[35],之后,基于核自旋的量子计算迅速发展,Grover搜索算法[36]和七比特Shor算法[37]相继在核自旋上实现。迄今为止,它的单比特和两比特保真度可以分别达到99.97%和99.5%[38]。

  这种方法一般是利用液体中分子的核自旋进行实验,由于分子内部电子间复杂的排斥作用,不同的核自旋具有不同的共振频率,因而可以被单独操控;不同的核自旋通过电子间接发生相互作用,可以进行两比特操作。下图是一种用于核磁共振实验的分子,里面的两个C原子用13C标记,加上外面5个F原子,它们7个构成实验用的7个比特,表中是比特频率、相干时间和相互作用能。

../_images/3.1.8.png

图3.1.8用于Shor算法的核磁共振实验的分子结构及相关参数[37]

  不过这种量子计算方式依赖于分子结构,难以扩展;而且是利用多个分子的集体效应进行操控,初始化比较有难度,该方向还有待进一步的突破。国内从事核自旋量子计算实验的主要有清华大学的龙桂鲁课题组,2017年,该课题组将核自旋量子计算连接到云端,向公众开放使用,该云服务包含四个量子比特,比特保真度超过98%。

4. 拓扑量子计算

  拓扑量子计算是一种被认为对噪声有极大免疫的量子计算形式,它利用的是一种叫做非阿贝尔任意子的准粒子[39]。为了实现量子计算,首先要在某种系统中创造出一系列任意子-反任意子,然后将这些任意子的两种熔接(fusion)结果作为量子比特的两个能级,再利用编织(braiding)进行量子比特的操控,最后通过测量任意子的熔接结果得到比特的末态。这一系列操作对噪声和退相干都有极大地免疫,因为唯一改变量子态的机制就是随机产生的任意子-反任意子对干扰了比特的编织过程,但这种情况在低温下是非常罕见的,噪声和其他量子比特系统常见的电荷等相比,影响是非常小的。

  现在国际上进行拓扑量子计算研究的实验组主要是荷兰代尔夫特理工大学的Kouwenhoven研究组和丹麦哥本哈根大学的Marcus研究组。研究组在实验中获得任意子的方法就是得到马约拉纳费米子,当s波超导体和一条具有强烈自旋-轨道耦合效应的半导体纳米线耦合在一起时,在纳米线的两端就可以产生马约拉纳费米子,实验中可以观察到马约拉纳费米子引起的电导尖峰,当这些纳米线可以很好地外延生长成阵列时,就可以进行比特实验。从2012年首次在半导体-超导体异质结中观察到马约拉纳零模的特征开始[40],到2018年观察到量子化的电导平台[41],Kouwenhoven研究组的实验已经让大多数科学家认同了可以在这种体系中产生马约拉纳费米子,不仅如此,进行拓扑量子计算的Al-InSb和Al-InP两种半导体-超导体耦合的纳米线阵列已经先后在实验中实现[42, 43]。未来将尝试进行编织实验,实现世界上第一个拓扑量子比特。

../_images/3.1.9.png

图3.1.9(a)观察马约拉纳费米子的器件结构(b)实验观察到的量子化电导平台(c)InSb纳米线阵列(d)Al-InSb异质结[41,42](Experiment-实验,Super-gate-超级电极,Tunnel-gate-隧穿电极,Back-gate-背栅电极,InSb-铟锑,Al-铝)

  除了利用半导体-超导体异质结可以得到马约拉纳费米子,其他获得的方式还包括量子霍尔效应、分数量子霍尔效应、二维无自旋超导体和超导体上的铁磁原子链。最近在量子反常霍尔绝缘体-超导结构中发现的一维马约拉纳模式也被认为可以用于拓扑量子计算[44],但是基于马约拉纳费米子进行的拓扑量子计算仍然不能满足单比特任意的旋转,它仍然需要和其他形式的量子比特互补或者通过某种方法进行近似的量子操作,不过,对高质量量子比特的追求仍然推动着科学家研究拓扑量子比特。

  不同于其他美国巨头公司,微软公司在量子计算方面押注在拓扑量子计算,认为现在量子比特的噪声仍然太大,发明一种保真度更高的量子比特将有助于量子比特的高质量扩展,进而更容易实现量子计算。其与荷兰代尔夫特理工大学、丹麦哥本哈根大学、瑞士苏黎世理工大学、美国加州大学圣芭芭拉分校、普渡大学和马里兰大学在实验和理论上展开了广泛的合作,目标是五年内制备出世界上第一个拓扑量子比特,其拓扑保护的时间可长达一秒。中国在拓扑量子计算方面也开始发力,2017年12月1日,中国科学院拓扑量子计算卓越创新中心在中国科学院大学启动筹建,国科大卡弗里理论科学研究所所长张富春任中心负责人。未来几年可能是中国拓扑量子计算的高速发展期。

  从目前量子计算的发展脉络来看,各种体系有先有后,有的量子计算方式现在已经让其他方式望尘莫及;有的量子计算方式还有关键技术亟待突破;也有的量子计算方式正在萌芽之中。就像群雄逐鹿中原,鹿死谁手,尚未可知。有观点认为,未来量子计算机的实现可能是多种途径混合的,比如利用半导体量子比特的长相干时间做量子存储,超导量子比特的高保真操控和快速读出做计算等等;也有观点认为,根据不同的量子计算用途,可能使用不同的量子计算方法,就像CPU更适合任务多而数据少的日常处理,而GPU更适合图像处理这种单一任务但数据量大的处理。无论未来的量子计算发展情况如何,中国在各个量子计算方式上都进行了跟随式研究,这是我国现有的技术发展水平和国家实力的体现。随着国家对相关科研的进一步投入,相信未来在量子计算的实现方面,也可以领先于世界其他国家,实现弯道超车。