量子计算以量子比特为基本单元,利用量子叠加和干涉等原理实现并行计算,有望在解决计算复杂问题过程中提供指数级加速,
具有重大战略意义和科学价值,是未来实现计算能力跨越式发展的重要方向之一,全球主要国家持续深化布局相关技术研发、应用探索和产业生态培育,国际竞争日趋激烈。 当前,量子计算处于技术攻关和应用探索的关键阶段。超导、
离子阱、中性原子、光量子、硅半导体等技术路线科研探索和原型机工程研发不断取得进展,金融、化工、生物、交通、人工智能等行业领域应用探索持续深化,量子 - 经典融合计算成为业界关注焦点,
基准测评研究稳步推进,科技巨头和初创企业发展保持活跃,国内外积极推动产业联盟建设,业界依托量子计算云平台、公共基础设施等平台措施进一步加快构建产业生态,生态系统正逐渐壮大。
一、全球持续深化量子计算布局,正进入快速发展期 (一)量子计算有望带来颠覆变革,成国际竞逐焦点 量子计算是以量子比特为基本单元,利用量子叠加和干涉等原理实现信息处理的一种计算方案,具有经典计算无法比拟的信息表征能力和超强并行处理能力,为解决特定计算复杂问题提供指数级加速。量子计算是 “第二次量子革命” 的重要标志,可以带动计算能力实现跨越式发展,有望颠覆和重塑传统技术体系对于信息处理和问题解决的模式,为经济社会发展带来前所未有的机遇。 量子计算已成为全球主要国家之间开展综合国力竞争,维护国家技术主权的关注焦点之一。近几年全球主要科技国家在量子计算领域的规划布局持续加强,已有 30 余个国家开展了以量子计算为重点的量子信息领域规划布局。
美国是全球最早开展量子计算研究的国家之一,注重依托政府指导推进量子计算发展,国家战略部署围绕顶层设计、组织机制、
专项计划、生态建设等多个维度展开。2023 年 12 月,美国国家科学技术委员会发布《NQI 2024 年年报》1,报告表明美国在量子信息领域实际投资较 NQI 法案原计划五年投资 12.75 亿美元超出两倍有余,
2019-2023 年累计投资 39.39 亿美元,2024 年预计投资 9.68 亿美元,
其中量子计算投资占比最高,五年共计投资约 14 亿美元。 欧洲国家自上世纪九十年代开始关注并持续支持量子计算发展。
近年来,欧洲国家布局并出台了一系列量子信息相关战略和专项计划,目标是在全球量子科技竞争中赢得主动。2024 年,欧盟发布新版量子旗舰计划《战略研究和产业议程》
2,在量子计算等四大领域分别提出短期(2027 年)和中期(2030 年)发展目标及建议,通过开展基础科研、促进产业化以及加强基础设施建设等方式,使欧洲在量子技术、产业生态和关键使能因素等方面实现领先。我国高度重视以量子计算为代表的量子信息领域发展,通过组建国家实验室和实施重大科技专项等措施推动形成全面科研布局。
2024 年《政府工作报告》中提到在积极培育新兴产业和未来产业领域,制定未来产业发展规划,开辟量子技术、生命科学等新赛道,
创建一批未来产业先导区
- 3。近年来我国已有二十余个省市在地方 “十四五” 科技与信息技术产业发展规划中,针对量子计算基础科研、
应用探索和产业培育等方面提出规划部署,采取措施主要聚焦在量子计算技术研发、应用探索和产业培育等方向。 此外,英国、日本、加拿大、印度、澳大利亚、丹麦、韩国、
爱尔兰、新加坡等国也高度重视量子计算发展,相继发布了量子信息发展战略,围绕顶层规划、专项计划、组织机制、前沿研究、应用探索、产业培育和人才培养等领域,打造量子计算竞争能力。
(二)技术创新持续活跃,渐成为前沿科学研究热点 量子计算技术创新持续活跃,正逐渐成为前沿科技领域的研究热点,近年全球量子计算科研论文发
表数量和专利数量如图 1 所示。
全球量子计算论文发表量在约 10 年时间中增长了 4 倍左右,这种增速一定程度上反应了量子计算科研活跃度不断提高。从发文趋势上看,2013 年到 2017 年的论文年增长量相对较小,平均每年的增长量约为 70 篇。然而,从 2017 年开始,增长速度明显加快,尤其是从 2019 年到 2021 年,每年的增长量超过了 300 篇。根据过去的增长趋势,预计未来几年全球量子计算论文量仍将继续增长,相关研究不断增加。
2013 年至 2023 年期间,全球量子计算发明专利申请量共计 15437 件,全球授权总量 5417 件。从申请趋势看,2013 年起进入快速发展阶段,年度申请量呈现快速增长趋势,到 2021 年达到峰值 2866 件,2022 年申请量略微下降,2023 年度申请量受公开延迟的影响有所下降,预计仍然保持上升趋势。从授权趋势看,2013 年起呈现稳步增长状态,2023 年达到峰值 1384 件,2024 年度授权量受统计时间影响有所下降,全年授权量预计仍然保持上升趋势。
量子计算论文数量前十位国家的统计情况如图 2 所示,可反映各国量子计算科研产出和影响力。从发文量看,美国和中国占据前两位,分别为 5430 篇和 4813 篇,遥遥领先于其他国家,这反映了两国在量子计算科研方面的活跃度和领先地位。德国、英国和日本紧随其后,发文量分别为 1955 篇、1441 篇和 1421 篇,也显示出了强劲的研究活跃度。根据篇均被引频次(即平均每篇的被引频次)分布情况,澳大利亚以篇均被引 41 次居于首位,表明其相关研究有较高的认可度和影响力。美国和加拿大的篇均被引频次均为 38 次,德国和英国同样展现了较高的影响力。虽然中国在论文数量上仅次于美国,但篇均被引频次相对较低,仅为 19 次,这表明我国高水平论文数量有待提升。
量子计算包括不同技术路线,超导量子计算、离子阱量子计算、
中性原子量子计算、光量子计算、硅半导体量子计算等五个主流技术方向的科研论文数量统计如图 3 所示,可反映量子计算不同细分领域的受关注程度。可以看出,五条技术路线均受到广泛关注,发文量均呈现上升态势。其中,超导量子计算和中性原子量子计算的论文发表量增长尤为突出。
量子计算专利申请的主要来源国家情况如图 4 所示,可反映主要国家 / 地区量子计算技术产出与贡献。量子计算专利的主要来源国家为中国和美国,分别占比 39% 和 28%,此外,日本、欧洲、韩国等国家 / 地区也有约 5%、3%、2% 占比的专利申请量。这反映了上述国家 / 地区在量子计算领域具有较高的技术创新能力和活跃程度,其中中国和美国的技术产出量和贡献度最为突出。
二、量子计算技术研究有序推进,依旧面临多重挑战
(一)多技术路线竞相争鸣,短期难以形成方案聚焦 量子计算目前呈现多种硬件技术路线并行发展的态势。目前不同技术路线可以归纳为两类,一类是以超导路线、硅半导体路线为代表的人造粒子路线,另一类是以离子阱路线、中性原子路线、光量子路线为代表的天然粒子路线。前者在扩展性等方面占据优势,但在逻辑门保真度、量子比特控制等指标提升方面对加工工艺条件的依赖性较高。后者具有比特全同性和高逻辑门精度等优势,但实现更大规模的系统将会面临困难。近年来,多条技术路线量子比特规模、质量、退相干时间等关键指标持续优化,技术水平稳步提升,依旧保持多元化和竞争性的发展格局,路线收敛呈现出较大不确定性,短期内难以形成方案聚焦。
超导技术路线基于超导约瑟夫森结构造二能级系统,具有扩展性好、易操控和集成电路工艺兼容等优势,是关注度最高、发展较为迅速的技术路线之一。近年来,超导量子计算原型机研制不断取得新成果,2023 年年底,IBM 推出 1121 量子比特超导量子处理器 Condor 以及 133 量子比特超导量子处理器 Heron5。2024 年,中科院研发 504 比特超导量子计算芯片 “骁鸿” 6。北京量子院联合团队实现五块百比特规模量子芯片和经典计算资源融合,总量子比特数达 5907。本源量子上线 72 位超导量子比特芯片 “悟空芯” 8。基于超导路线的科研成果层出不穷,深圳量子院联合团队基于分布式超导量子处理器,验证了使用分布式量子处理器模拟拓扑相位的可行性 9。
Terra Quantum 宣布基于扭曲铜酸盐范德华异质结构实现 Flowermon 型超导量子比特 10。清华大学联合团队在超导量子处理器上模拟斐波那契任意子编织,实验结果所得的斐波那契任意子量子维度十分接近理论的黄金分割率 1.61811。总体而言,超导量子计算路线在比特规模、质量等技术指标突破较为迅猛,仍然是最受瞩目的量子计算技术路线之一。 离子阱技术路线以囚禁在射频电场中离子的超精细或塞曼能级作为量子比特载体,通过激光或微波进行相干操控,离子阱量子比特的全连接性使其在操控精度、相干时间等方面具有优势。近年来囚禁离子数量、逻辑门操控保真度等关键指标持续提升,工程技术研究不断深入。
2023 年底,清华大学联合团队利用离子阱系统展示了多种量子误差缓解技术对复杂量子线路进行误差消除的能力 12。
2024 年,Quantinuum 离子阱原型机 Model H1 中单 / 双量子比特逻辑门保真度分别达到 99.9979% 和 99.914%,量子体积达到 104857613,
并推出了 56 位量子比特离子阱原型机 Model H2-1,单 / 双量子比特逻辑门保真度分别达到 99.997% 和 99.87%14。清华大学实现 512 离子二维阵列的稳定囚禁冷却以及 300 离子量子比特的量子模拟计算 15。
Oxford Ionics 将离子阱技术与硅芯片技术相结合,推出具有更优扩展性和更低噪声特性的新型电子量子比特控制技术 16。离子阱量子计算路线面临量子比特大规模扩展、高集成度测控以及模块化互联等瓶颈挑战,未来在路线竞争中能否脱颖而出仍待进一步追踪。 中性原子技术路线使用光镊或光晶格进行原子的囚禁,激光激发原子里德堡态进行逻辑门操作或量子模拟演化,在相干时间、操控精度以及可扩展性方面占据一定优势。近年来在比特规模扩展和基于中性原子路线的科研成果颇多。2024 年,德国达姆施塔特工业大学发布 1305 个单原子量子比特阵列操控实验成果 17。Infleqtion 发布原子量子计算路线图,计划 2024 年推出 1600 个量子比特原型机 18。英国国家量子计算中心与美国 QuEra、Infleqtion 等公司签订商业合同,部署中性原子量子计算原型机并建设测试平台 19。Pasqal 宣布在 2080 个陷阱位中成功捕获约 1110 个原子 20。近期中性原子路线研究与实验等方面表现颇为亮眼,未来有望在量子模拟应用等方面产生突破,在多技术路线竞争中迅速崛起。 光量子技术路线利用光子的多个自由度进行编码。
图 10 量子计算主要硬件技术路线关键指标对比概况
总的来说,多条硬件路线的技术突破难度和发展应用前景存在差异,各有优劣势,目前仍处于并行发展阶段,何种体系最优尚无明确定论。当前量子计算原型机的性能水平距离实现大规模可容错通用量子计算依旧存在较大差距,技术攻关的核心要素是高精度扩展量子计算原型机比特规模,这意味着量子比特的设计、制造和调控等方面均面临巨大挑战,未来仍需学术界和工程界协同努力攻关。
(二)量子纠错研究不断深入,实用化差距依旧明显
量子纠错用于保护量子比特免受噪声等干扰,是使量子计算机能够真正发挥其巨大潜力的重要环节之一。
量子纠错方案的基本思路是使用冗余的量子比特来检测和纠正量子比特中的错误,从而恢复出原始的量子态。这些冗余的量子比特也即量子纠错码,其作用在于即使在环境噪声和干扰很强的情况下,仍能够保证量子计算的正确性。 相较于经典纠错码,量子纠错码的构建更为复杂,这是由量子系统本身特性导致的,例如量子态的不可克隆性会限制非正交未知量子态的精确复制,因此量子纠错码无法利用简单的复制操作来增加冗余。自从量子纠错概念被提出,目前已出现了多种采用不同原理实现的量子纠错编码方案,其中表面码作为一种二能级编码方式,
具有扩展性好、仅需近邻物理比特相互作用、容错阈值高以及多路线适用等优点,因此受到业界广泛关注。 随着量子计算硬件水平的不断提升,量子纠错研究具备了更好的物理 基础 ,研 究持 续 深 入 并 取 得 诸多 新进 展 。
2024 年,Alice&Bob 公司联合团队提出基于玻色子猫态量子比特和量子低密度奇偶校验码的纠错编码方案,基于 1500 个物理量子比特编码实现 100 个高可靠性的逻辑量子比特(错误率 < 10−8)26。清华大学联合团队提出基于玻色编码的纠错方案,并将其应用到多个逻辑量子比特从而实现纠缠保护,使纠缠逻辑量子比特的相干时间提高了 45%,
并首次在实验上利用逻辑量子比特证明贝尔不等式 27。IBM 提出基于量子低密度奇偶校验码的纠错方案,方案实现了 0.7% 误差阈值,当假设物理错误率为 0.1% 时,使用 288 个物理量子比特可保护 12 个逻辑量子比特 28。Quantinuum 联合团队利用 30 个物理量子比特构建 4 个逻辑量子比特,逻辑量子比特纠缠时的错误率降至 10−5,相较于纠缠物理量子比特 8 × 10−3 的错误率降低了近 800 倍 29。 随着近年来量子计算硬件性能和纠错相关控制技术的迅速发展,
量子纠错科研与实验验证持续深入并取得较多进展,但当前逻辑量子比特的最低错误率距离量子计算实用化要求依旧存在很大差距,未来需要在以下多个方面开展攻关:研究基于高维度量子资源带来的冗余实现量子纠错,探索分布式量子纠错架构,实现从原理上免疫特定噪声的量子系统操控,搭建切合实用化需求的量子纠错方案评价体系,探究容错量子逻辑门的相关操作等等。综上所述,实用化量子纠错已经成为业界的重点研究和攻关方向之一,基于量子纠错构建逻辑量子比特将是下一个重要里程碑,为实现这一目标,未来仍需开展持续研究攻关。 (三)量子计算软件
持续多元发展,成熟度有待提升 量子计算软件为开发者提供使用量子计算硬件和运行量子算法的必要工具,正处于快速发展阶段。量子计算软件作为一种结构化的工具集合,需依据量子计算原理进行开发设计,为不同技术路线提供应用开发能力、编译能力、硬件测控能力和 EDA 设计开发能力等,业界在多个方向展开布局,体系架构已逐渐形成,
如图 11 所示。
其中应用软件匹配不同行业诉求并进行需求映射,编译软件是实现软件开发功能的基础,测控软件为量子计算机正常高效运行提供支撑保障,EDA 软件则是提升量子计算硬件研发与制造工程化水平的关键,不同量子计算软件的功能各具特色,在用户使用过程中各司其职。
应用软件提供创建和操作量子程序的工具集,包括算法库、开发组件和调试优化工具等,支持开发者设计和实现各类复杂的量子程序并获得执行结果。
-
2024 年,Quantinuum 发布量子自然语言处理软件 “lambeq” 0.4.0 版本,改进可用性的同时提升字符串图处理速度 30。HQS 向莱布尼茨超级计算中心交付量子模拟仿真软件 “HQS Noise App”,可用于模拟运行量子力学系统 31。微软 Azure Quantum Elements 软件推出生成化学和密度泛函理论加速两项新功能,助力用户开展化学和材料科学研究 32。未来应用开发软件需要扩展应用场景研究,丰富计算问题类型,提升算法运行效率,提高跨硬件后端的支撑能力。 编译软件规范量子编程边界并实现量子程序的正确编译和执行,同时提供成套的语法规则用以协调和约束编译操作。
-
2023 年底,英伟达发布量子电路模拟软件 cuQuantum 23.10 版本,更新 API 功能并提供英伟达 Grace Hopper 系统的支持 33。2024 年,IBM 推出更新版 Qiskit 软件,提升了量子硬件电路优化速度和存储资源占用量等性能 34。Intel 发布量子软件开发工具包 1.1 版本 35。Quantum Circuits 推出集成式量子软件用于在算法运行中实时管理量子比特错误检测 36。编译软件未来需要在持续更新迭代的基础上,提升软硬件协同编译能力,完善调度、优化和调试等核心功能。 测控软件主要用于量子计算硬件的控制、处理和运算,支持测量结果反馈以及芯片校准等功能。
-
2024 年,是德科技将 Q-CTRL 的 Boulder Opal 硬件优化和自动化功能集成到其量子控制系统中,以提供更优的量子处理器表征和优化功能 。QuantrolOx 发布量子比特自动化控制软件平台 Quantum Edge,支持量子芯片监控、工作流程自动化和数据可视化
-
测控软件面临的挑战主要体现在量子纠错支持能力、物理比特和逻辑比特映射能力、自动化和流程化等方面。 EDA 软件可提供量子计算芯片的芯片设计、优化布局、仿真验证、制造测试等功能。
-
2024 年,是德科技推出面向超导量子处理器设计的 EDA 仿真工具 QuantumPro,可实现电路原理图设计、布局构建、电磁分析、非线性电路仿真和量子参数提取等功能
-
。EDA 软件未来需要在功能完整性、仿真效率与准确性、优化效果等方面持续完善,从而实现提升量子芯片设计效率和质量的目标。 由于当前量子计算机硬件技术路线尚未最终确定、通用体系架构并未完全统一等原因,目前量子计算软件处于开发设计与生态构建的初期阶段,呈现多元化和差异化的发展态势,不同类型软件功能各异,但在技术成熟度、稳定性和用户体验等方面均远不及经典软件完善。随着硬件能力的提升和算法的改进,未来量子计算软件需在量子编程语言、算法库、量子中间表示、硬件接口和优化等关键环节持续推进,为后续实现更高效可靠的量子计算应用奠定基础。
(四)支撑保障
系统愈加重要,指标亟待进一步提高 量子态信息易受到复杂环境噪声干扰和量子系统内部非理想特性等因素的影响而被破坏,因此量子计算机的运行需要极其苛刻的环境支撑系统,以及高精度的测控系统进行环境保障和测控支持。量子计算支撑保障系统是技术研究和样机工程研发的重要组成部分和核心控制要素,主要包括环境设备、测控系统、关键设备组件等部分,不同部分面临瓶颈挑战存在差异。 环境设备是保障量子计算机稳定运行的必要支撑部分和基础设施,主要包括超大功率稀释制冷机、GM 脉管制冷机、超高真空腔及泵组等。
2024 年,Bluefors 推出超紧凑版 LD 稀释制冷系统 40。近年来我国在稀释制冷机等设备方面也取得颇多成果,国盾量子 ezQfridge 稀释制冷机完成交付测试
41,本源量子推出自研的本源 SL1000 稀释制冷机
42。运行不同技术路线的量子计算机所需的环境设备有所区别,未来仍需在技术水平、核心指标、设备工程化、小型化、集成化等方面突破技术瓶颈,以支持量子计算机比特数量的大规模扩展。 精确的量子控制技术和高效的读出技术,对于实现可靠的单量
三、量子计算应用探索持续发力,实用落地有待突破
(一)多领域应用探索并进,实用落地仍需加速突破 目前量子计算处于从前沿研究向应用落地突破的关键阶段,广泛而活跃的多方应用探索是推动量子计算技术走向应用的关键。业界正在积极寻找匹配行业需求的特定应用场景,目标是在未来为不同行业应用领域提供服务。典型应用领域包括金融、化工、生物、
交通、人工智能等。
如图 12 所示,根据麦肯锡 2024 年发布的《量子技术监测》研究报告,量子计算预计在未来五到十年将加速发展,
到 2035 年市场规模估值可能达到万亿美元级别。
金融领域存在大量量子计算潜在应用场景,包括金融风险管理、
投资组合分析、模拟量化交易、金融市场预测等。2023 年底,
Multiverse Computing 和穆迪公司合联合推出 QFStudio 平台,为金融域应用探索提供量子计算解决方案 49。2024 年,芝加哥量子交易所发布报告认为量子计算在金融领域有望实现缩短获取最优解时间、
提升预测准确性等诸多作用 50。花旗银行与 Classiq 共同基于 Amazon Braket 平台研究用于投资组合优化的量子解决方案,基于预期回报和风险水平构建了性能更优的投资组合 。 化工领域量子计算应用可用于模拟化学分子结构、化学反应等,
并以此为基础更高效、更低耗能地设计化学品。
2024 年,英国石油公司和 ORCA 使用混合量子 - 经典机器学习方法建模以产生分子构象,
探索量子计算提升化学领域机器学习算法性能的潜力 。微软与美国能源部太平洋西北国家实验室合作利用量子计算将新型电池材料筛选到少数几种,实验表表明筛选时间可大幅减少 。魁北克水电公司利用量子计算探索解决复杂能源问题的方案,用于预测能源需求并设计和运营可持续性的能源系统 。 生物领域量子计算应用主要聚焦于早期疾病诊断、药物研发与筛选、药物测试、基因组数据研究、蛋白质结构预测等场景。
2024 年,勃林格殷格翰量子实验室发表论文探讨量子计算机在药物发现领域的应用现状,认为量子计算未来有望在药物设计领域产生实用化应用 。IBM 和克利夫兰诊所合作利用量子 - 经典混合方法预测蛋白质结构并有效提升了预测精度 。Novonesis 和 Kvantify 合作使用混合量子 - 经典计算方法演示碳酸酐酶的酶促反应计算,有望助力生物过程研究以及工业二氧化碳捕获 。 交通领域量子计算应用可用于交通流量优化算法与实时预测、
路径即时动态规划等场景。
2024 年,IonQ 与德国基础科学研究中心将量子计算应用于航班登机口优化,在缩短旅客转机时间、飞机停靠时间的同时,提高了登机口服务效率 。Pasqal 和泰雷兹公司基于中性原子量子处理器,展示了量子计算在解决卫星规划问题中的潜力 。新加坡量子技术中心使用 8 个和 13 个量子比特解决 128 路和 3964 路的车辆路径问题,提高解决组合优化问题的的效率 。
(二)量子计算云平台提供者渐多,功能普遍待强化
现阶段,量子计算机具有软硬件使用门槛高、硬件环境要求严苛以及运维成本高昂等特点,这使得企业和个人用户难以在本地进行部署。以此为背景,量子计算云平台应运而生,融合了量子计算与经典云服务,通过网络为用户提供量子计算机的远程访问功能。
量子计算云平台凭借其灵活的服务模式、便利的接入方式以及丰富的应用场景,正逐渐成为量子计算重要发展方向之一,未来有望成为提供量子计算服务的主要应用形式。全球已涌现出数十个量子计算云平台,典型云平台如图 13 所示,发展呈现蓬勃态势。
当前量子计算云平台所能提供的量子计算处理器,已有超导、
离子阱、中性原子、光量子、硅半导体等技术路线。量子计算云平台后端硬件的接入模式主要可分为三类。第一类是自研设备接入模式,云平台提供者具备量子计算硬件自主研发能力,在云平台上提供自研的量子计算机或基于经典算力的量子模拟器,代表性企业或机构包括 IBM、IonQ、Xanadu、Rigetti、本源量子、国盾量子、北京量子院等。第二类是云服务接入模式,云平台提供者凭借其云服务能力,在云平台上接入其他供应商的软硬件,代表性企业或机构包括微软、亚马逊、Strangeworks、弧光量子、中国移动、中国电信等。第三类是融合型接入模式,是上述两类接入模式的综合,即在接入自研硬件的同时也支持调用其他供应商硬件资源,以 IBM 量子计算云平台为例,该平台可接入自研量子处理器以及 Rigetti、
Xanadu、AQT、IonQ 等供应商的硬件资源。 国际方面,IBM、谷歌、微软等科技巨头以及 IonQ、Xanadu、
Rigetti 等初创企业纷纷布局量子计算云平台,通过提供量子计算处理器、模拟器以及开发工具等服务,吸引了大量开发者、研究者和企业用户。
2023 年年底,IBM 将 Q-CTRL 公司的错误抑制技术软件 Q-CTRL Embedded 集成至其云平台上 65,测试表明错误抑制后可运行的量子算法复杂性增加了 10 倍、成功率提高了 1000 倍左右 66。
IonQ 在 Amazon Braket 平台上提供 Forte 量子计算机 67。亚马逊在 Amazon Braket 云平台推出 “Braket Direct” 计划,用户可在设定时间段内保留特定量子处理器的算力且不需要排队等待。2024 年,AQT 与德国电信合作为用户提供其量子计算机的云端访问能力 68。 国内方面,本源量子、国盾量子、弧光量子等量子计算企业以及中国移动、中国电信等运营商也相继推出量子计算云平台,这不仅表明量子计算企业对于云平台发展十分重视,也反映出电信运营商认可量子计算在提升网络性能、加强安全通信等方面的潜在价值,
致力于共同推动量子计算应用和产业化进程。
2023 年底,中国移动云能力中心和玻色量子共同推出 “五岳量子计算云平台 —— 恒山光量子算力平台”。中国移动 “五岳” 量子计算云平台布局多制式量子算力并网、多模式量子算法程序设计和多元化量子场景算法等技术方向,旨在拓展量子计算应用边界。2024 年,北京量子院联合中国科学院物理研究所、清华大学发布 Quafu 量子云算力集群,该平台提供五块百比特规模的量子芯片资源,并融合了经典算力资源 69。中国科学院量子信息与量子科技创新研究院研发并交付 504 比特量子计算芯片 “骁鸿”,后续计划通过中电信量子集团 “天衍” 量子计算云平台等平台向全球开放 70。启科量子上线量子 - 经典混合算力云平台 “<Qu|Cloud>”,提供 20 比特离子阱量子计算处理器和基于 CPU/GPU 的量子计算模拟器接入,支持多种编程模式和算法库 。
总的来说,国内量子计算云平台在云平台功能、应用探索、商业模式、用户影响力等方面与国际先进水平相比仍有较大差距,未来仍需进一步提升。 量子计算云平台已成为用户访问量子计算资源、开展实验验证和应用探索的重要助力工具之一。随着量子计算技术的不断进步和云平台功能的日益成熟,未来量子计算云平台将呈现出三方面发展趋势:
一是服务模式的创新与拓展,从当前的基础设施服务向更加丰富的平台服务和应用服务演进;
二是跨平台跨行业的深度融合与协作,推动多领域量子计算应用与落地;三是智能化、自动化的运营管理与安全防护体系构建,提升用户体验和数据安全水平。 量子计算云平台的发展需要业界在多个方向联合推动。首先,持续加大研发投入,提升量子计算技术的成熟度和稳定性,从而支撑量子计算云平台的长期稳定运行;其次,加强数据安全与隐私保护机制的建设,确保用户数据的安全可控;最后,推动标准化与互操作性的发展,降低不同平台之间交互使用的门槛,促进量子计算的普及与应用。 (三)基准测评研究正在稳步推进,成果与挑战并现 随着量子计算原型机的研制和应用探索的开展,基准测评开始逐步受到重视,如何准确高效地评估量子计算系统的性能,已成为业界关注的焦点,为用户分析量子计算技术产业发展水平提供重要参考。量子计算基准测评是表征硬件性能指标和评价系统能力的关键技术,不仅助力推进量子计算底层硬件开发和应用落地,更是连接理论研究与实际应用的关键桥梁。 量子计算基准测评发展十分迅速,业界相继提出了一系列测评基准方法。这些基准方法通常包含多种具有特定功能的任务,例如量子门操作的保真度测试、量子比特的相干时间评估以及量子算法执行效率等等,旨在为不同的量子计算系统提供相对公平的对比手段,有助于研发人员更全面地了解系统的性能。 量子计算基准测评体系框架如图 14 所示,可分为量子比特级、量子电路级、系统级、算法级和应用级等层次,各层次的测评基准呈现出不同特点与侧重点。底层基准,例如量子比特级和量子电路级,与硬件的关联度较高,能够充分体现各种技术路线之间的差异性。底层的参数指标相对更为分散且具体,便于熟悉技术细节的研发人员精准地发现问题并提出解决方案。随着层级的上升,例如系
近年来,业界积极开展量子计算基准测评研究,致力于以更加客观的方法对量子计算系统的综合性能进行评估。2023 年底,IBM 提出了每层门误差(EPLG),可以更准确地评估串扰,也可用于估计错误缓解所需的电路数量,同时更新了每秒电路层操作数(CLOPSh)的定义,以便更真实地反映硬件性能 72。EPLG、
CLOPSh 以及 IBM 最早提出的量子体积(QV)三个指标,可以从规模、质量和速度三个维度较为全面地评价量子计算系统的性能。2024 年,QED-C 更新了面向应用(App-Oriented)的测评基准套件,
扩展了面向 HHL、VQE、量子机器学习等算法的测评基准,并引入计算结果质量(如最终基态能量、分类准确率等)和计算成本等参数进行量子计算性能评估 73。美国 DARPA 启动新量子基准测试计划(QBI),主要针对量子计算算法和应用进行基准测试,并评估构建工业级量子计算机的可行性 74。 随着量子计算技术的不断发展,各类测试基准研究显得尤为重要。然而量子计算基准测评研究也面临着一系列挑战,例如基准的客观性和公正性等备受业界关注。2024 年,Quantinuum 在其报告中指出,#AQ 基准在某些情况下可能导致对量子计算机性能的高估 75,
这种高估主要源于错误缓解技术和电路编译策略的应用,上述技术在特定使用场景中能够提升效率和准确性,但可能误导整体性能的评估。因此,在评估和比较不同量子计算机的性能时,研究人员必须考虑到这些因素,以确保测评结果的客观性和公正性。 量子计算基准测评研究在评估发展现状、推动行业发展、连接理论与实践应用等方面均发挥着至关重要的作用。现阶段国内外针对量子计算基准测评的研究不断深入,取得成果的同时也面对诸多挑战。未来业界需要持续完善评估体系,更新评价方案,建立评估标准,从而更精准、全面地展现量子计算机的实际性能,推动行业不断进步。 (四)量子 - 经典融合成焦点,技术体系架构至关重要 量子计算技术产业目前正处于蓬勃发展的阶段,然而当前量子计算机的操作和维护仍面临巨大挑战,未来大规模商用必须跨越从理论优势证明到实现应用价值的鸿沟。业界逐渐意识到,单纯的量子计算或经典计算均难以满足所有计算需求,因此需将两者进行有机融合,以形成更为强大的计算能力。在此背景下,量子 - 经典融合计算将量子计算和经典计算相结合,充分利用二者的优势共同解决复杂问题。 量子 - 经典融合计算作为一种新型的计算模式,具有两大基本特征:混合和协同。混合是指在一个系统中同时包含量子计算和经典计算,形成具有异构算力的混合计算。量子计算机可以分为通用门型量子计算机和专用量子计算机。通用门型量子计算机目前存在超导、离子阱、中性原子、光量子、硅半导体等多种技术路线,不同路线在技术原理、性能指标、成熟度等方面存在较大差异。专用量子计算机主要包括量子退火机和相干伊辛机。经典处理器主要包括中央处理器(CPU)和图像处理器(GPU)。异构算力融合既包含通用门型量子计算机与专用量子计算机之间的混合,也包含多种量子计算架构与各类经典计算架构的混合。协同是指量子计算机负责处理量子信息,例如量子态制备和测量,而经典计算机则负责处理经典信息,例如逻辑运算、浮点运算、算法分析和优化等。通过设计算法和接口,可使量子计算部分与经典计算部分相互协作,共同完成计算任务。量子计算机适合解决数据的并行运算、矩阵运算、线性代数等问题,而经典计算擅长进行逻辑运算、浮点运算等操作,且具有相对完善的编程开发工具、操作系统和算法库。量子 - 经典融合计算的核心思想是利用量子计算的优势加速求解特定问题,同时借助经典计算的稳定性和易用性确保计算的准确性和可靠性。
初步提出量子 - 经典融合计算技术体系架构,如图 15 所示,可划分为应用层、开发工具层、算法层、编程框架层、任务调度层、资源管理层、物理资源层等七个层级。应用层包含了量子 - 经典融合计算的典型应用领域,包括量化金融、能源材料、生物医药、交通物流和信息通信等,该层主要通过封装好的软件、函数,或自定义开发的形式向行业用户提供计算服务。开发工具层为量子经典融合算法提供开发和调试的工具,包括 Jupyter Notebook、WebIDE 等。算法层为应用层提供典型的量子 - 经典融合算法,代表性算法包括变分量子本征求解器(VQE)、量子近似优化算法(QAOA)、量子机器学习(QML)和量子神经网络(QNN)等。
编程框架层为算法开发提供基本的编程语言和编译工具,为底层硬件和上层应用软件提供互联接口,同时完成量子和经典计算任务的拆解和互操作,最终将高级程序设计语言转化为硬件指令集,传递至底层硬件。任务调度层对拆解后的量子任务和经典任务进行调度,并实现各种量子和经典异构算力之间的协同,目前主要有两种任务调度方式,分别是异构并行调度和远程并行调度,前者实现量子 - 经典系统间的低时延通信,后者实现方式相对容易。资源管理层实现各类物理机、虚拟机、Docker 容器以及拓扑的注册、监控、调度等功能。物理资源层是最底层,分为经典资源和量子资源,经典资源包含各类经典算力、存力、运力基础设施,量子资源包含各种技术路线的通用门型量子计算机、专用量子计算机以及量子线路模拟器。 随着技术的不断突破,科技企业逐渐认识到量子 - 经典融合计算的重要性,竞相布局相关研究。国际方面,英伟达发布 GPU 加速的量子计算系统 NVIDIA DGX Quantum,该系统基于 NVIDIA Grace Hopper 架构超级芯片和开源量子 - 经典融合编程模型 CUDA Quantum,使得 GPU 和 QPU 间的通信时延降低至亚微秒级 76。微软提出批量量子计算、交互式量子计算、集成量子计算和分布式量子计算四种量子 - 经典融合模式,逐步从远程并行调度过渡到异构并行模式 。亚马逊推出 Braket Hybrid Jobs 工具,实现量子 - 经典融合算法的完全托管编排,将经典计算资源和量子处理器的访问权限相结合,同时支持量子电路的参数化编译,可优化基于循环迭代的量子 - 经典融合算法的执行流程 78。IBM 在路线图中指出预计在 2025 年演示以量子计算中心的超级计算,将量子处理器、经典处理器、量子通信网络和经典网络等基础设施进行融合 。
国内方面,中微达信推出适用于经典计算机、多路量子测控的融合计算测控单元,基于 PCIe 接口实现量子 - 经典测控指令之间毫秒级的调用延迟 。本源量子发布量云融合方案架构,量子计算机通过公网与经典超算计算机远程互联,通过在量子司南操作系统与超算管理调度模块之间运行量子 - 经典交互协议进行协同计算 。中电信量子 “天衍” 量子计算云平台提供批量和交互式两种量子 - 经典融合模式,从而实现远程并行调度 。 未来随着量子计算技术的不断突破和经典计算机性能的日益提升,量子 - 经典融合计算已成为推动计算产业向前发展的重要趋势之一,二者形成互补优势,是推动技术发展的关键。总体而言,量子 - 经典融合领域将要进一步深入探索应用场景,同时不断健全完善调度机制,分步骤地逐渐建立起产业生态。硬件制造商需要研制高性能、高稳定性的量子 - 经典融合计算系统,为整个生态提供强大的计算基础;软件开发者则需针对融合计算的特点和需求,开发高效、
易用的编程工具和软件平台,降低开发难度,提高开发效率;应用服务提供者将利用量子 - 经典融合计算的优势,为各行各业提供定制化的解决方案,推动产业的数字化转型和升级。
四、量子计算产业培育多方并举,生态系统逐步兴起
(一)产业生态初步形成,关键环节发展仍有待推进 随着量子计算原型机研制、软件研发、应用探索和云平台建设的发展,上中下游企业不断涌现,为量子计算技术产业发展注入充沛动力。量子计算产业生态培育稳步开展,如图 16 所示,各环节参与者逐渐增多,整体仍处于起步阶段,关键环节发展仍有待推进。
产业生态上游包括环境支撑系统、测控系统以及核心设备组件等,具体涉及稀释制冷机、真空系统、低温组件、光学器件等众多方面,是整个量子计算产业生态的基础底座。由于量子计算技术复杂性、多路线并行推进和发展趋势存在不确定性等原因,目前产业生态上游呈现分散化和多样化的特点,一方面分散化导致供应商集中开展技术攻关的难度提升,但另一方面多样化则可能有助于减少单一供应商可能造成的供应垄断等风险。国内外对比来看,欧美国家处于量子计算产业生态上游的企业数量更多且发展水平更高,在产品研制、技术创新以及市场需求等方面积累了较为优越的条件和资源。我国上游企业近几年发展迅速,相继推出各类自研产品,但在部分关键设备组件的性能指标、制造成本和市场认可度等方面仍有较大提升空间,未来仍需通过自主研发进一步提高产品技术水平。 产业生态中游企业包括量子计算原型机制造商和软件供应商,
是量子计算产业生态的核心环节,同时也是企业数量较为集中的部分。原型机方面,全球从事量子计算机原型机研制的企业中,专注于超导路线的企业数量最多,超过总量的三分之一,其次是离子阱、
中性原子、光量子和硅半导体等技术路线。软件方面,众多企业致力于打造各自的量子计算软件,同时构建开源软件社区,为量子计算技术发展和应用探索提供推动力。国内外对比来看,大部分国家并行布局多种技术路线,欧美企业在数量、原型机研制能力、软件研发、开源社区建设等方面占据一定优势。我国在几条主流技术路线均有布局,近年也出现一批量子计算软件企业,但总体而言在企业投入力度、输出成果、创新能力等方面与欧美相比仍存在差距。 产业生态下游企业包括量子计算云平台供应商和行业应用企业,
是最接近用户的环节,在产业生态中扮演着至关重要的角色。云平台方面,依托互联网为各类用户提供云端接入,共享量子计算资源,
促进量子计算产业提前布局与生态良性培养。行业应用方面,金融、
化工、医药、交通等行业用户关注量子计算应用潜力,开放应用场景并开展应用探索,致力于寻找针对行业特定难题的解决方案。国内外对比来看,IBM、亚马逊、微软等国外科技巨头的量子计算云平台在资源共享性、硬件多样性、应用案例丰富性、服务模式商用化等方面走在全球前列。量子计算企业与不同领域行业企业积极合作,联合探索量子计算在重点行业领域的应用。我国量子计算云平台供应商在平台间协同合作、后端硬件水平、商业模式探索等方面仍有待提升。我国传统行业企业在量子计算方面的投入力度、关注程度以及与量子计算企业之间的合作机制等方面仍有待进一步加强和完善,未来需要前瞻开展应用探索,提升应用协同创新能力。 以量子计算为代表的量子信息技术已成为未来产业布局的重要关注点之一。产业基础能力支撑未来产业的布局和发展,不同国家产业基础能力的对比分析能够为评价该国在量子计算技术产业领域的综合实力和国际竞争力提供视角和工具。本报告基于科研基础、
政府支持、商业活动、技术成果等维度构建量子计算产业基础能力分析方法,鉴于美、中、英三个国家在技术。
量子计算:算力产业的颠覆式创新,未来科技的锋利之矛。量子计算机的量子比特利用量子叠加态原理实现处理信息量的指数级增长,以 Shor 算法为例,可以在 20 万个错误率在 0.1% 的量子物理比特上在 8 个小时内破解 2048 位的 RSA 密码,而用经典计算机则需要几百年的时间进行破解。从产业链来看,量子计算芯片、稀释制冷机和室温测控系统成为量子计算机主要组成部分。根据 ICV 的报告,2023 年全球量子计算产业规模达到 47 亿美元,2023 至 2028 年的年平均增长率(CAGR)达到 44.8%,有望实现高速增长。建议关注:量子计算整体解决方案提供商【国盾量子】、量子测控系统提供商【普源精电】等。
量子通信:量子技术实现密钥分发,信息安全的坚固之盾。基于传统 RSA 算法的密钥分发和数字签名技术,在量子计算时代存在较大的安全风险。量子保密通信将经典密钥转换成量子形态的密钥,利用量子不可复制、纠缠等物理特性,实现密钥分发过程的绝对安全。从产业链来看,量子密钥分发设备(QKD)成为行业的核心设备,上游包括芯片 + 光源 + 单光子探测器 + 量子随机数发生器,下游主要在政府、金融、电力等关基行业率先落地。从建设进度来看,中国已经形成骨干网 - 城域网 - 空天一体的三步走发展战略,当前已经建成长度超过 1 万公里的广域量子保密通信一期骨干网,未来城域网和空天一体网络建设有望加速。建议关注:QKD 设备商【国盾量子】、系统集成商【神州信息】等。
抗量子密码:密码原理的底层创新,应对量子攻击的新型方案。抗量子密码(PQC)是能够抵抗量子计算对现有密码算法攻击的新一代密码算法。
从产业进展来看,美国 NIST 将于今年夏季发布第一版的抗量子密码算法标准,从而开启美国抗量子密码迁移的路线图,预计美国对于软件 / 固件签名和传统网络设备的迁移将在 2030 年前完成。建议关注:密码厂商【吉大正元、信安世纪、格尔软件、三未信安】等。
1.1. 技术:两次量子革命带来颠覆式技术创新 第一次量子革命(20 世纪 80 年代至 90 年代末期):量子力学推动推动超导、晶体管、激光、核磁共振等技术诞生。上世纪 80 年来以来,物理学理论探索从经典物理学的连续性观念转向量子力学的离散型观念,普朗克的量子假说、爱因斯坦的光量子理论和玻尔的量子轨道等量子理论诞生并得到应用,推动超导、晶体管、激光、核磁共振等技术的诞生与应用,标志着量子理论的正确性得到验证,量子技术在信息科学实际应用中的巨大潜力逐渐显现,利用量子力学原理进行信息处理的可能性得到探索,为第二次量子革命奠定坚实理论与实验基础。
具体而言,第一次量子革命可分为三个阶段。
1)理论基础奠定期(1900-1980):物理学家开始探索微观物理学现象。1900 年,普朗克提出量子假说,标志着量子理论的诞生。随后,爱因斯坦的光量子理论和玻尔的原子模型进一步巩固了量子理论。1926 年,薛定谔和海森堡分别提出波动力学和矩阵力学,为量子力学奠定坚实基础。在此时期,量子理论成功解释了诸多实验现象,并在固体物理学、原子物理学和分子物理学等领域取得重大进展。在应用方面,超导、晶体管、激光、核磁共振等技术不断诞生并得到应用。1911 年,荷兰物理学家海克・卡马林・奥克斯发现超导现象;1947 年,贝尔实验室的肖克利和巴丁发明第一个晶体管;1953 年,曼彻斯特大学开发世界第一台晶体管计算机;1960 年,西蒙斯和汉斯创造世界第一个激光;1961 年,德州仪器公司生产了第一个商业化集成电路。
2)崭露头角期(1981-1993):在量子理论的指导下,量子科技开始在世纪应用中崭露头角。
1981 年,费曼提出量子计算的概念,并探讨了量子计算机的潜力;1982 年,量子纠缠的实验验证成功,为量子信息科学的发展奠定基础;1991 年,量子密钥分发概念被提出,为量子通信的安全传输提供理论基础。这一时期,量子科技的理论研究和实验验证为后续的技术发展和应用奠定基础。
3)持续发展期(1994-1999):量子科技产业持续发展。1994 年,Peter Shor 提出 Shor 算法,展示了量子计算机在破解加密方面的巨大潜力;同年,Lov Grover 提出量子搜索算法,设计用于无序列表搜索目标性,利用量子并行性和干涉效应加速搜索过程。1996 年,DiVincenzo 提出量子计算机准则,用于评估和设计量子计算机,有助于确定量子系统是否适用于构建量子计算机,包括可扩展量子比特、可控可读量子比特、长时间相干性、通用量子门集、可靠量子读写操作。1998 年,Bernhard Omer 提出量子计算机编程语言,制造为量子计算机提供统一编程框架,结合传统编程概念和量子计算的叠加和纠缠特性。
量子科技产业整体发展历程梳理#
第二次量子革命(21 世纪初至今):实现单个微观粒子操控,量子信息技术产业持续演进。
第一次和第二次量子革命的核心区别在于第一次量子革命主要发明与发展原子能、激光、超导、晶体管和半导体器件、集成电路器件、微处理器、核磁共振成像等基于量子力学效应的信息技术,而第二次量子革命基于操控电子、光子等离子体系的微观量子行为发展量子信息技术,利用量子体系的叠加、纠缠等量子力学行为,进行信息获取、处理和传输,对多个领域产生基础共性与颠覆性的重大影响。在这一时期,量子比特概念的提出,量子纠缠的实验验证、量子计算的原理性验证等,意味着量子层面上操控和利用量子现象成为可能,为解决经典计算难以处理的问题、实现信息安全传输、探索量子模拟等提供全新途径,标志着量子技术开始从理论探索转向实际应用,一系列突破性技术和商业化产品逐渐涌现。
21 世纪以来,随着科技企业积极布局,量子计算进入了技术验证和原理样机研制的阶段。2000 年,DiVincenzo 提出建造量子计算机的判据。此后,加拿大 D-Wave 公司率先推动量子计算机商业化,IBM、谷歌、微软等科技巨头也陆续开始布局量子计算。2018 年,谷歌发布了 72 量子位超导量子计算处理器芯片。2019 年,IBM 发布最新 IBM Q System One 量子计算机,
提出衡量量子计算进展的专用性能指标 —— 量子体积,并据此提出了 “量子摩尔定律”,即量子计算机的量子体积每年增加一倍。在量子优越性方面,2019 年 10 月,谷歌基于 53 位的 Sycamore 量子处理器进行实验,成功证明量子计算机在随机电路采样任务的执行速度远超最快的经典超级计算机,宣布在量子计算领域实现 “量子霸权”。
“量子霸权” 是重要的里程碑,标志着量子计算领域的一个重大转折点,即量子计算机首次在特定任务上展现出超越传统超级计算机的能力,证明了量子计算机从原理走向应用的可行性与在并行计算方面的优越性。尽管目前量子计算机的应用还非常有限,但这一突破展示了量子计算技术的巨大潜力,并为未来的发展奠定了基础。 量子计算机的进一步发展可能会在材料科学、药物发现、优化问题等领域带来革命性的变化。
2020 年 12 月 4 日,中国科学技术大学的潘建伟院士团队成功构建了 76 个光子的量子计算原型机 “九章”。根据中科大钟瀚森、潘建伟等人发表的在 Science 期刊发表的《Quantum computational advantage using photons》论文,“九章” 在处理高斯玻色取样的速度上比当时的超级计算机 “富岳” 快 100 万亿倍,使中国成为全球第二个实现 “量子优越性” 的国家。
2021 年,在 “九章” 的基础上,中国科学技术大学团队又构建了 “九章二号” 和 “祖冲之二号” 量子计算机。这些机器在处理特定问题上的速度比当时的顶级超级计算机快得多,进一步巩固了中国在量子计算领域的国际领先地位。2023 年,中国科学技术大学团队成功构建了 255 个光子的量子计算原型机 “九章三号”。根据邓宇皓、潘建伟等人发表的《Gaussian Boson Sampling with Pseudo-Photon-Number Resolving Detectors and Quantum Computational Advantage》 论文,“九章三号” 在处理高斯玻色取样的速度上比 “九章二号” 提升了 100 万倍,进一步刷新了光量子信息的技术水平和量子计算优越性的世界纪录。
美国量子信息技术实施机构及组织架构
美国:打造量子生态三大支柱,共筑量子领域领导地位。量子信息科学 (QIS) 研发资助机构可被视为支持量子信息产业生态系统的三大支柱,民用科学机构、国防部科学机构和情报部科学机构共同支持量子信息产业的研发工作。
-
1)美国国家标准与技术研究院 (NIST):通过扩展和连接量子系统、提高设备性能和稳定性、丰富人才库、制定技术标准等多种方式,推进测量科学标准,促进美国的创新与工业竞争力;开展在量子传感、计算、网络、风险缓解、基础科学等方面的核心技术项目;建立并支持量子经济发展联盟,致力于通过识别技术、供应链、标准、劳动力和通过合作解决各方面差距的方法,加速美国量子产业增长。
-
2)美国国家科学基金会 (NSF):资助超过 2000 个学术机构的量子科学与工程研究;NQI 法案明确要求 NSF 支持量子信息科学研究与教育的多学科中心,协调量子计算核心项目。此外,NSF 在 2024 财年预算中向国会阐明两大投资目标:①量子计算、量子通信、量子测量、量子网络的先驱发展,提高信息处理、传输与测量效率;②开发具有明显量子优势的概念研制设备、工具、
系统和应用程序。 -
3)美国能源部 (DOE):通过基础和应用科学研究、新技术的发现和开发、同位素生产等多种方式推进量子技术发展;NQI 法案授权能源部建立 5 个国家量子信息科学研究中心,并在核心项目中继续加强和协调量子研究。多个量子研究活动机构在量子信息科学基础研究、教育、培训和劳动力发展方面的投资相互促进、相辅相成,加快美国在量子信息服务领域的领导地位。
美国:量子科技研发资金大幅增加,推动量子科技快速发展。
在 NQI 法案的推动下,用于 QIS 研发的联邦资金大幅增加。从 2019 财年到 2024 财年,联邦资金大约翻了一番。
2023 年 12 月 1 日,《国家量子计划(NQI)总统 2024 财年预算补编》发布,这是《国家量子计划法案》(NQI)要求的第四份 NQI 计划年度报告,2019-2024 财年量子信息科学预算分别 4.49/6.72/8.55/10.31/9.32/9.68 亿美元。此外,分配给 NQI 法案授权活动的资金是在基线量子信息服务研发活动预算之外的额外资金。然而,虽然《国家质量与创新法案》为各联邦机构的质量信息系统研发设定了资助目标和优先事项,但并不保证具体的资助金额。总统和国会通过年度财政年度预算确定各联邦机构的非国防量子研发优先事项和资金,国防开支则通过名为《国防授权法案》的单独法案确定。
美国:促进量子跨学科研究,推进量子科技快速发展。美国国家科学基金会 (NSF) 和能源部 (DOE) 都在通过支持建立跨学科研究中心来克服这些机构障碍,采取不同的方法以反映其不同的使命和资助重点。国家科学基金会的重点是促进大学中心和研究所的教师开展跨学科合作,截至 2023 年 3 月,该机构已资助了五个量子飞跃挑战研究所。另一方面,能源部已在自己的国家实验室建立了跨学科量子研究中心。对此,负责国家量子计划评估工作的国家量子信息中心对量子合作的进展进行了评估,发现总体而言各中心之间的合作发展良好。
图 8. 国家自然科学基金委员会对 QIS 研究中心的规模投资
1.3. 产业:四大研究领域共创新需求 量子信息技术通过对光子、电子和冷原子等微观粒子系统及其量子态进行精确的人工调控和观测,借助量子叠加和量子纠缠等独家物理现象,以经典理论无法实现的方式获取、传输和处理信息。量子信息主要包括量子计算、量子通信、量子测量、抗量子密码四大研究领域。
-
1)量子计算:基于量子力学的新型计算方式,利用量子叠加和纠缠等物理特性,以微观粒子构成的量子比特为基本单元,通过量子态的受控烟花实现计算处理。随着量子比特数量增加,量子计算算力可呈指数级规模拓展,理论上具有经典计算无法比拟的巨大信息携带和超强并行处理能力、以及攻克经典计算无解难题的巨大潜力。
-
2)量子通信:利用量子相干叠加、量子纠缠效应进行信息传输的一种新型通信技术,由量子论和信息论相结合而产生。从物理学角度看,量子通信是在物理极限原理下完成的高性能通信,从物理原理上确保通信的绝对安全,解决了通信技术无法解决的问题,是一种全新的通信方式。从信息学角度看,量子通信是利用量子不可克隆或者量子隐形传输等量子特性,
借助量子测量的方法实现两地之间的信息数据传输。量子通信中传输的不是经典信息,而是量子态携带的量子信息,是未来通信技术的重要发展方向。 -
3)量子测量:以量子力学为基础理论的,采用粒子能级跃迁、量子纠缠、量子相干等技术原理对微观粒子,如原子、光子等量子态制备、测量和读取,实现对物理参数如磁场、频率、
电场、时间、长度等物理参数的高准确度精密测量。量子精密测量能够消除宏观实物基准各种参数不稳定所产生的影响,在待测物理量上可以获得前所未有的测量准确度,可以获得比实物基准高几个数量级的稳定性和准确度。 -
4)抗量子密码:为了解决量子计算机对传统加密算法威胁的产物。其目标是设计新的密码学算法,能够在量子计算机的影响下依然保持高度安全性。这种新型密码学研究了在量子计算背景下仍然难解的数学难题,以及基于这些难题构建的新型加密算法。
-
图 12. 量子科技产业分类
四大领域研究与应用探索发展迅速,前景可期。量子科技作为前沿科技领域,其研究与应用探索正以前所未有的速度发展,展现出广阔的前景。量子计算利用量子比特的叠加态和纠缠态进行计算,有望解决传统计算机难以处理的复杂问题,未来可能在药物发现、材料科学、优化问题等领域实现重大突破。量子通信利用量子纠缠和量子密钥分发实现安全、高效的信息传输,未来目标是构建全球性的量子互联网,实现绝对安全的信息传输。量子测量利用量子系统的超高灵敏度,能够进行精密测量,未来将在精密工程、时间标准、物理常数测定等方面发挥更加关键的作用。抗量子密码旨在开发新的加密算法,确保在量子计算机时代的信息安全,将成为网络安全的新基石。总的来看,量子科技在多个细分领域都取得了显著进展,其发展速度和应用潜力表明,量子科技将成为未来科技革命和产业变革的重要驱动力。
量子计算:2023 年产业规模达到 47 亿美元,预计 2035 年总市场规模有望达到 8117 亿美元。根据 ICV 的报告,2023 年全球量子计算产业规模达到 47 亿美元,2023 至 2028 年的年平均增长率(CAGR)达到 44.8%,有望实现高速增长。2027 年,专用量子计算机预计将实现性能突破,带动整体市场规模达到 105.4 亿美元。在 2028 年至 2035 年,市场规模将继续迅速扩大,
受益于通用量子计算机的技术进步和专用量子计算机在特定领域的广泛应用,到 2035 年总市场规模有望达到 8117 亿美元。我们认为量子计算作为新型的算力形态和模式,有望为社会带来颠覆式创新,创造出许多新模式。
抗量子密码:产业处于初期阶段,未来有望加速发展。PQC 市场增长与 PQC 标准化进程及量子计算机的实用化有较大关联。2023 年,PQC 产业规模仍处在初期成长阶段,约为 1 亿美元。根据 NIST 的 PQC 标准化工作预计完成的时间点来估计,预计 2024 年后,行业将加速发展,到 2030 年,全球 PQC 产业规模将达到 86 亿美元。
量子计算原理:量子比特实现量子优越性
量子比特利用量子叠加态原理实现处理信息量的指数级增长。经典计算机中最基本的单位被称为经典比特,经典比特拥有两种互斥状态 “0”,“1”,在任意时刻只能处于其中任一状态。与之对应的量子计算机中基本单位被称为量子比特(quantum bit),它可以处于由两个基态 | 0>,|1 > 线性组合的任意叠加态。量子计算利用量子叠加与纠缠性质,其优势体现在量子并行性与本身的可逆过程中。 量子并行性提供了量子计算巨大的计算潜力。当 N 个比特参与运算时,经典计算机参与运算的信息为 2^N 个信息中的一个,量子计算时由于量子叠加性原理,其参与运算的态可以为 2^N 个。
即经典计算处理信息的能力随着 N 的增加是线性增长的,量子计算随着 N 的增加处理能力是指数增长的。
量子计算可逆过程代表量子计算过程随着比特数目和门数目的增加不会产生像经典计算发热的问题。逻辑不可逆的过程对应着物理态自由度减少的过程,必然导致能量耗散。经典计算的很多门操作是逻辑不可逆过程,比如与非门,异或门等。在计算过程中必然带来计算信息自由度的减小,也就带来发热问题。随着计算力的增加,散热问题也是现在经典计算机不得不面对的问题。因为量子计算的门操作都是量子力学中的厄密操作其都是可逆的,所以理论上计算的过程不会产生发热问题。
图 35. 经典比特和量子比特的区别
单个量子比特可以直观的由布洛赫球面上的一个向量来表征。布洛赫球模型最初是由德国理论物理学家费里・布洛赫(Felix Bloch)在 1929 年提出来的。布洛赫球是一种用于描述量子比特(quantum bit,或简称 qubit)状态的图形化工具。在布洛赫球上,两个计算基态分别位于球面的北极点和南极点,而一个单量子比特的状态可以用一个点表示,这个点的位置和方向对应着量子比特的状态。
图 36. 用布洛赫球表示的量子比特
量子逻辑门通过操控量子比特的状态,实现通用逻辑门运算。
经典计算中有许多逻辑门:例如与门、或门、非门、与非门、或非门等等。每一种逻辑门完成一项简单的逻辑运算,但是它们的各种组合,便能够完成各种复杂的计算。量子计算中也有各种 “量子逻辑门”,与经典逻辑门相对应。量子逻辑门的作用是将 Qubit 从一个状态变成另一个状态。可以用 2 维矩阵代数的语言来描述叠加态(Qubit)的变化。量子比特是布洛赫球面上一个矢量,Qubit 状态的演化,就是布洛赫球面上矢量的旋转。旋转是由用幺正(酉)矩阵表示的 “量子逻辑门” 引起的。矩阵(量子门)作用在矢量上,将 Qubit 的状态变成新的状态。许多量子门连在一起,量子计算便如此一步一步进行下去。所有 Qubit 的最后状态,便是计算得到的最后结果。
图 37. 几种量子逻辑门的矩阵和布洛赫球表示
例如,最简单的量子门是量子非门(上图最左边的 X 门),类似于经典非门,实现 0、1 互换,量子非门实现 | 0⟩→|1⟩或 | 1⟩→|0⟩,另一个重要的量子门是 H 门(Hadamard 门),它的作用是使基态变成叠加态:|0⟩→α|0⟩+β|1⟩,这样才有可能进行量子计算。除此之外,还有双比特的逻辑门如受控非门(CNOT 门)、三比特的逻辑门如托佛利门(CCNOT 门)等等。
量子比特和量子逻辑门组成量子逻辑电路。量子电路是用于量子计算的模型,是执行量子位状态的传送之路,但量子电路图只是貌似经典的电路图,实际上完全不同于传统电路,例如:实线并不一定是物理电缆。量子电路的目的只是定义事件的时间顺序:水平轴是时间,左边开始右边结束。量子门的时间顺序会对量子位的最终状态产生重大影响。类似经典电路,计算是一系列的量子门,但测量是经典电路没有的量子操作。多个量子电路结合,就构成了量子计算机,可以实现通用计算。
接下来我们以 Deutsch-Jozsa 算法为例,来看一下量子计算在特定算法场景下的优越性。
Deutsch 算法主要想解决以下的数学问题:x 是由 0 或 1 组成的任意 n 位二进制数(例如 n=3 的 011,n=7 的 1010011 等),f (x) 是一个常值函数(f (x)=0 或者 f (x)=1)或者是一个平衡函数(50% 情况 f (x)=0,50% 情况 f (x)=1),如何进行最少次数的计算,来确定 f (x) 是常值函数还是平衡函数。经典计算机情况下,n 位二进制最多表示 2^n 个数字,因为需要尝试 (2^n)/2+1 次计算,才能在比 50% 多一次的情况下,判断函数 f (x) 是常值函数还是平衡函数。而量子计算机下,只需要做一次尝试,就可以做出准确判断,为此我们需要构建以下的量子逻辑门电路:
图 39.Deutsch-Jozsa 算法的量子电路
因此,我们只需要测量低位量子态是否为全 0 的 | 00…0>,若是则为常值函数,若不是则为平衡函数,从而通过 1 次函数运算,实现经典计算机 2^n 运算,实现量子计算机指数级加速。
Shor 算力利用量子纠缠和干涉的原理,实现对密码破解的指数级加速。
另一种具备量子计算优越性的算法,就是 1994 年由 Peter Shor 提出的 Shor 算法。Shor 算法主要用于解决找出一个给定整数 N 的质因数的问题即整数分解问题,通过量子计算机实现 Shor 算法,可以将整数的质因数分解问题计算复杂度,从经典计算机的 () nOn 下降到 () On ,实现指数级加速。 Shor 算法所解决的问题为设一个很大的奇数 N,N 为两个质数 n1 和 n2 的乘积,现在已知 N 求 n1 和 n2。主要计算步骤如下:1)选择任意数字 a;2)计算 a 和 N 的最大公约数 gcd (a, N)。
-
3)若 gcd (a, N) ≠1 程序结束;
-
4)否则,利用量子计算来周期查找函数 f (x)= ax mod N 的周期 r,也就是能够使得 f (x+r) = f (x);5)若 r 是奇数,回到第一步;6.)若 ar/2= -1 (mod N),
回到第一步。7)否则,计算 gcd (ar/2+1,N) 与 gcd (ar/2-1, N) ,他们至少有一个是 N 的因数。 Shor 算法将求解质因数分解问题,转换为求解余数周期的问题,而这一问题又可以通过量子计算机来实现加速。如下是查找函数 f (x)= ax mod N 的周期所构建的量子电路,首先我们构造两个量子寄存器 1 和 2,对寄存器 1 利用 H 门来形成叠加态的量子比特,然后利用量子的并行性,对所有的 f (x) 同时进行求余数的计算,再利用量子的纠缠态,对寄存器 2 进行一次投影测量。此时由于纠缠的特性,周期信息被包含在了寄存器 1 的量子比特中。我们利用量子相干性,对寄存器 1 中的量子比特再做一次量子傅里叶逆变换(QFT),变换后量子比特中包含的周期信息转移到比特前的系数上,从而使得我们需要获取的量子比特值前的系数(即测量概率)会变大,而不需要的量子比特前的值会变小(甚至为 0)。对于变换后的寄存器 1 再做一次测量,将测得的量子比特值通过连分数的计算,就可以得出函数的周期 r。
Shor 算法实现密码破解的指数级加速,为量子计算机打开了应用空间。2019 年 Craig Gidney 等发表论文《How to factor 2048 bit RSA integers in 8 hours using 20 million noisy qubits》,提出用表面码编码形成的容错量子计算,结合 Shor 算法以及近些年再此基础上的优化方法,可以在 20 万个错误率在 0.1% 的量子物理比特上在 8 个小时内破解 2048 位的 RSA 密码。随着评估解决算法的持续进步,也有人提出了可以优化实现的方法可以进一步减小物理量子比特的数量。因此我们认为 Shor 算法的落地已经在未来可见的时间内,为量子计算的商用典型了算法基础。量子比特的物理实现依赖于一个服从量子力学基本原理的二能级系统,技术路径仍未收敛。类似于经典计算机中使用二进制编码处理和保存信息,其中比特是信息的最小单元,
量子计算机中,量子比特替代比特作为存储信息的最小单元。但不同于经典计算机中,物理实现路径已收敛至,通过外端输入的电压信号对晶体管进行开关控制从而实现 0 和 1 的转变,量子计算机目前仍处于早期发展阶段,物理实现方案众多,
包括但不限于离子阱、光量子、核磁共振、超导电路等,但其本质均旨在构建一个服从量子力学基本原理的二能级系统,例如离子的能级、光子的偏振、原子核的自旋、超导电路的电磁场能量等。
图 41. 量子计算机的不同物理实现方案
超导量子计算成为主流物理实现方案,理论基础是宏观量子现象。尽管学界对最终哪一种物
理体系能够率先实现通用量子计算尚未形成统一意见,但是超导量子计算长期被寄予厚望,
因此我们以超导量子计算为例,看量子比特的物理实现。对于 BCS 超导体,当温度低于超导临界温度时,电子之间通过电声子相互作用形成库伯对,此时在外加电场的作用下,尽管存在大量的库珀对电子的运动,但与经典过程不同的是,他们运动的 “步调一致”、相位相干。因此,这种大量库珀对电子的集体运动行为可以用单个波函数来描述,呈现出宏观量子现象,
即该电路可以用量子电动力学来描述。
图 42. 经典电流示意图和超导电流示意图
超导量子比特是一个利用约瑟夫森结非线性电路特性所构成的二能级系统。结合上文,一个处在超导状态下的 LC 振荡电路会表现出谐振子的物理特性,但由于其能级间的间距是无差别的,即系统可能被激发到各个高激发态,因此不能直接用来做量子比特。此时我们引入约瑟夫森结,其类似三明治结构(在两个超导层中间夹一层很薄的绝缘层),具有宏观量子遂穿效应,可以作为非线性器件来使用。通过非线性器件的引入,我们得以构建不同能级间距的能级态,并选择其基态和第一激发态构成二能级系统。因此,超导量子比特本质上是一种,
利用约瑟夫森结在极低温环境下的非线性电路特性,由人工构建二能级系统。
图 43. 振荡电路及能级图
图 44. 约瑟夫森结示意图与 SEM 扫描图
Transmon 型量子比特是目前最流行的超导量子比特。尽管理论上超导电路是无耗散的,但是由于电路尺寸太大,材料特性也不可能完美,导致现有工艺制备的超导量子比特与环境的耦合还是很强烈,退相干时间较短。因此在电荷、通量、相位三种超导量子比特原型的基础上,衍生出许多新的超导量子比特:如 Transmon 型量子比特、Fluxonium、0-π 量子比特、混合量子比特等。这其中,Transmon 型量子比特是目前最流行的超导量子比特,主要系结构简单、
可扩展性好,并通过增大电容的方式降低了对电荷噪音的敏感度,从而提升了相干性,但代价是非线性比较弱。
图 45. 电荷、通量、相位三种超导量子比特
图 46.Transmon 量子比特及其电路示意图
超导量子比特具有设计可控性强、可扩展性好、易耦合和易操控等优势。超导量子比特的优点是在于制备工艺接近传统的半导体工艺,因此带来的好处包括:
1)可以利用成熟的微加工技术完成芯片级的设计,使得超导体系的量子计算拥有接近经典计算机的高集成度潜力;
2)一旦完成芯片线路设计就能快速利用成熟微加工产线加工出相应的芯片,试错时间成本低;
3)与现有的微波电子技术结合紧密,工作频段在标准射频范围内,诸如电容、电感和传输线之类的电子元器件可以用来读出超导量子比特的状态,或者用来控制。
2.2. 量子计算机:
从 NISQ 向 FTQC 迈进,技术路线较为多元 从量子计算机的演进来看,主要分为 5 个阶段。
1)量子优越性展示:由计算领域成熟企业引导,完成初步的概念验证。 IBM 早在 1990 年代就建立了专门的量子计算研究团队;Google 团队首次证明了量子优越性等;
2)进入中等规模含噪声(NISQ)时代:初创企业以及大部分科研机构开始加入硬件研发以及纠错的行列,全面推进各个技术路线发展;
3)专用量子计算机实现多种核心应用示范:各技术路线的专用量子计算机不断涌现,并且中下游的量子软件企业,将在这一阶段迅速增长。将优先在金融、医药、化工、汽车、机器学习等领域替代经典计算机,产生多种核心应用范例;
4)研制出可纠错的通用量子计算机:各技术路线间的优劣势开始逐渐被放大,或将收敛到单一或几条特定路线,纠错成本大幅降低。由下游新应用场景的需求驱动产业链进一步细化,产业链上游话语权增加,产线扩张直至供需平衡;
5)进入全面容错量子计算(FTQC)时代:运算错误率接近或小于经典计算机,量子比特数量将达百万量级。但即使计算机产业进入全面容错的量子计算时代,量子计算机和经典计算机依旧将并存,各自发挥优势,二者并非完全替代关系。 当前我们正处于 NISQ 阶段,而从 NISQ 向 FTQC 的跨越,是量子计算机从技术探索向规模商用迈进的重要过程。我们将这两者分别定义如下: NISQ 时代(Noisy Intermediate-Scale Quantum,中等规模含噪声):一些参与者强调使用更适度、嘈杂、中等规模的量子设备可能会更快实现。这避免了量子纠错所需的巨大开销,而是寻求在少量步骤(浅电路深度)完中成计算,以便每个物理量子比特门引入的错误不会变得难以处理。门模型量子计算机要在实际应用中获得广泛的量子优势,可能需要 99.99%+ 的 2Q 保真度。增强的甚至是针对特定问题的量子比特连接也可能非常重要。将需要与经典处理进行低延迟集成。
FTQC 时代(Fault Tolerant Quantum Computation,大规模纠错容错量子计算机):#
对于某些应用,我们只需要 “几个量子比特”。此类应用的早期示例通常位于量子计算、网络安全和量子通信的交叉点;这种重叠有望最终发展成为量子互联网,并通过传感器发展成为量子物联网。这里的不同权衡最终可能适合不同的量子比特平台。能够在更高、更容易部署的温度下提供一些相干寿命可能是一个有用的优势。
通用量子计算机的实现需要满足 DiVincenzo 的 5+2 技术准则。
2000 年,IBM 研究员 David P. DiVincenzo 提出了构建可行的量子计算机的 5 条技术准则和量子通信的两条准则,只有满足准则的物理体系,才有望构建出可行的量子计算机。这 7 条准则分别为:
-
(1)表征量子比特
-
(2) 量子比特有足够的相干时间
-
(3)量子比特可以初始化
-
(4)可以实现通用的量子门集合
-
(5) 量子比特可以被读出
-
(6)静止量子比特和飞行量子比特相互转换的能力
-
(7)在指定位置之间忠实地传输飞行量子比特的能力。
表 10:DiVincenzo 关于量子计算机五条技术准则的解释
当前量子计算机在物理实现上,分为多种技术路线,其中超导和离子阱路线相对领先。围绕量子计算的一大热点问题是哪种硬件技术将最终胜出,目前主要有五个资格充足且经过充分论证的候选方案正在竞争,分别为超导、离子、光量子、半导体量子点和冷原子 (或称为中性原子)。这些方案都是在 20 世纪 90 年代开创性的物理实验和实现中开发的。目前,以超导电路和离子阱技术搭建的量子计算系统基本满足 DiVincenzo 标准的 5 个条件,而光量子系统在第(3)条的受控非门方面较难实现。从量子计算的物理实现要求和现今技术发展情况来看,超导和离子阱的量子计算实现系统当前比较成熟。此外,国际上正在尝试的量子计算系统的物理实现还有中性原子、硅自旋、拓扑、NV 色心和量子点等约十种方式。
图 48. 量子计算机主要技术路线和参与公司
超导量子计算机方案是目前国际上进展最快的方案。原理上,超导量子计算技术使用电荷量子比特、磁通量子比特和相位量子比特这三种方式来形成量子比特。目前普遍采用的 Transmon 量子比特,是一种基于电荷量子比特的改良的设计,该设计可以减小量子比特对于电荷噪声的敏感度,从而提高退相干时间,使得测量操纵变得更加容易。
图 49. 超导量子计算机示意图
图 50. 超导量子计算技术
超导量子比特是人造原子,在操控、耦合、测量、扩展等方面具有独特的优势。目前超导量子技术路线的难点在于易受环境噪音影响,而导致退相干时间短。但该技术路线的发展并无原则性障碍。当前的发展主要侧重于可控耦合量子比特的数目与可以连续进行的高保真度多量子比特逻辑操作次数的继续提高。长远来看,该条技术路线在未来比较容易实现规模化。
离子阱量子计算机至今已经发展 20 余年 , 与超导量子计算的发展旗鼓相当 。 原理上 , 其利用电荷与电磁场间的交互作用力牵制
带电粒子运动 , 并利用受限离子的基态和激发态组成的两个能级作为量子比特, 利用微波激光照射操纵量子态, 通过连续泵浦光
和态相关荧光实现量子比特的初始化和探测 。
图 51. 离子阱芯片
图 52. 离子阱技术示意图
资料来源:《How small startups are vying with corporate behemoths for quantum supremacy》
离子阱技术的优势在于相干性好,可纠缠量子比特数目多,逻辑门保真度高。离子阱的劣势表现为量子比特操纵速度相对较慢,并且随着量子比特数量的增加,其操纵仍有技术困难。
离子阱技术在应用方面,除量子计算机外,还广泛应用于量子化学、相对论量子力学、量子热力学等领域的量子模拟研究。
光量子是除超导量子和离子阱之外研究进展较快的技术路线。原理上,光量子计算机利用光子的偏振、路径、轨道角动量、时隙等自由度,将其编码量子比特的技术路线实现。根据是否支持逻辑门和量子纠错等操作,光量子可进一步分为逻辑门型和非逻辑门型两类:
(1)逻辑门型光量子计算是未来实现通用量子计算的发展方向
(2)非逻辑门型光量子计算,如玻色采样和相干伊辛系统等,可用于组合优化和图论问题求解等专用计算问题。
53. 光量子光学装置
图 54. 光量子技术
光量子的技术优势主要体现在,光子不易于受到外界环境影响,所以由光子编码成的量子比特抗退相干能力强。同时,由于光子具有多个自由度的特性,可以用更少的光子数实现更多的物理量子比特。由于光子之间相互作用非常微弱,传统的光量子计算机技术只能实现光子的概率性逻辑门 (对应确定性逻辑门),这也是光量子技术路线实现通用量子计算道路上目前最大的阻碍。不过目前已有一些光量子方案实现了确定性和可重构性。
量子点技术利用半导体工艺,更容易实现芯片化,但相干性和比特数仍需提升。半导体量子点可以作为量子比特,也叫自旋量子比特。
量子点是一种纳米大小的半导体粒子,一般为球形或类球形。由于这种纳米半导体粒子拥有限制电子和电子空穴的特性,这一特性类似于自然界中的原子或分子,因而被称为量子点。常见的量子点有硅量子点、锗量子点、硫化镉量子点和砷化铟量子点等。其中,半导体量子点或量子自旋技术路线是利用半导体量子点中的电子制造量子比特,将其电子的自旋方向编码为量子态用来存储量子信息。
半导体量子点计算机结合了当前的半导体工业技术,未来可以快速实现产业化,同时由于半导体量子比特体积较小,较超导技术路线和光量子技术路线而言更容易实现芯片化。但是,当前半导体量子比特的数量较少,且相干性较弱。
中性原子技术 / 冷原子技术,实现长相干时间,但比特之间的相互作用较难。中性原子是指核外电子等于核内质子数的原子,具有全同性且处于低能态的特点。原理上,中性原子量子计算机利用光镊或光晶格囚禁原子,激光激发原子里德堡态进行逻辑门操作或量子模拟演化。该技术在时间和操控精度等特性与离子阱路线相似,而在规模化扩展方面更具优势。当前中心原子技术路线尚不成熟,包括需要特定技术来实现量子比特之间的相互作用,从而制备纠缠态的比特对,以及在操作精度和设备成熟度方面的挑战。
55. 硅半导体技术示意图
图 56. 中性原子技术原理
针对不同的技术路线,可以用量子体积这一指标来衡量不同量子计算机的性能。由于当今量子计算机使用了不同的技术路线和指标,很难对比机器的整体性能。不同技术路线的量子计算机不能只从量子比特的数量来衡量,而忽略了影响计算能力的其他重要因素。为了衡量不同技术路线下的量子计算机性能,需要建立一套指标体系。
2017 年,IBM 的研究人员引入了量子体积 Quantum Volume (QV) 这一与硬件无关的指标进行简单的量子计算机性能衡量。量子计算机的 QV 越大,它可以解决的问题就越复杂。 从量子体积的衡量指标来看,量子比特的数量和可以执行的操作数量称为量子电路的宽度和深度。量子电路越深,计算机可以运行的算法就越复杂。量子电路深度受诸如量子比特数量、量子比特互连方式、门和测量错误、设备串扰、电路编译器效率等因素的影响。相干性是另一个影响量子体积的重要因素。相干时间 T1 表示量子比特自然弛豫的时间,即处于高能状态的量子比特自然会衰减到低能状态,与这种衰减相关的时间称为相干时间 T1。相干时间 T2 表示量子比特受环境影响的时间,即量子比特也有可能与环境相互作用并在弛豫到 | 0 > 状态之前遇到相位错误,与这种衰减相关的时间常数称为相干时间 T2。
此外,保真度对量子体积也有重要影响。量子计算机通过操纵比特的状态来执行计算 -- 将比特从 0 更改为 1,将 1 更改为 0。保真度是衡量尝试翻转导致正确量子比特状态两个量子态 “接近程度” 的度量。由于环境噪声及量子处理器自身品质的影响,实际量子处理器执行结果往往与理想情况下经过量子门操作得到的结果有一定的偏差。这种偏差可以用理想量子态和实际量子态之间的保真度来衡量。保真度数值越大,代表偏差越小,系统的计算结果就越好。计算的准确性取决于以非常高的成功率或 “保真度” 执行这些 “比特翻转” 的能力。霍尼韦尔量子计算系统 99.997% 的单个量子比特操作保真度是目前所有可寻址量子比特技术中报告的最佳性能。
图 57. 影响量子体积的因素
当前量子计算机参与者主体较为多元,主要参与者可分为四大类:第一类是国际科技巨头,例如 IBM、谷歌、霍尼韦尔等;第二类是量子计算初创公司,例如 Rigetti、IonQ 等;第三类是国家科研院所,例如美国费米国家实验室 (Fermilab)、美国阿贡国家实验室 (Argonne National Laboratory)、中科院量子信息与量子科技创新研究院;第四类是高水平研究型大学,
例如剑桥大学、中国科学技术大学、哈佛大学等。其中我们看到,超导和离子阱技术参与的企业和科研机构最多,也反映了这两种技术路线的成熟度较高。
2.3. 量子计算机结构:量子芯片、稀释制冷机和测控系统是核心 我们以超导量子计算机为例,来分析量子计算机的主要结构。超导量子计算机由量子芯片、
稀释制冷机、测控系统三大核心部件构成。具体来看,
1)稀释制冷机外形呈桶状,用于产生极低温、低噪声的环境,是超导量子计算机正常运行的必要基础;
2)量子芯片是量子比特和外围电路的物理载体,其沿用了现有的半导体生产工艺,主要由超导量子计算机厂商自研;
3)室温测控系统用于量子比特状态的控制和读取,其由 AWG、微波源等电子测量仪器构成,产业成熟度相对较高。此外,超导量子计算机还包括了软件系统、低温线缆、低温器件等。价值量方面,根据合肥超量融合计算中心项目招标文件,一台 200 量子比特的超导量子计算机单价约为 4500 万元。
稀释制冷机是生成低温环境的核心设备。超导量子计算机需要运行在超低噪声的环境中,稀释制冷机是实现该环境的核心设备。超导量子计算机是基于超导电路的量子比特体系,对于工作环境的最基本要求就是温度低于其超导临界温度(约 1.18K),同时为了提高相干时间、降低噪声,温度需要降低到 10mK 左右。从原理上来看,稀释制冷机利用了氦 - 3 和氦 - 4 的混合液体在 0.8K 左右发生的相分离现象,随着氦 - 3 从浓缩相向稀释相扩散,这一扩散过程会吸
热,从而达到制冷的目的。
图 59. 稀释制冷机原理示意图
稀释制冷机全球市场约 2 亿美元,行业呈现加速增长趋势。根据 ICV,2019-2015 稀释制冷机的年均增长率达到 8.59% 以上,且增长率逐年上升。2022 年全球稀释制冷机市场规模将为 1.93 亿美元,到 2025 年预计达到 2.66 亿美元,并呈现加速增长的趋势。从单台价格来看,稀释制冷机的单价从百万到千万元不等,其价格与制冷功率相关性较大。根据招标网信息,本源量子于 2024 年中标的一台稀释制冷机 SL400 的单价为 450.7 万元。此外,自 2023 年起,10mK 以下温区的稀释制冷机已对我国禁运,且由于 10mk 以下温区的稀释制冷机占据了大部分市场,我国的稀释制冷机进口规模自 2023 年以来有所下滑。
量子芯片结构从一维向三维演进,集成度持续提升。由于稀释制冷机内部空间极为有限,量子芯片的尺寸一般为 100mm² 量级,而量子芯片中包含了约瑟夫森结(尺寸在 100-1000nm),控制线、谐振器、电容电感、读出线等结构(尺寸在 100-1000μm),且考虑到电磁场的串扰影响,各结构间都要保留足够的间隔,因此早期量子芯片中的比特数大都在 10 以下,例如 IBM 于 2016 年发布的 5 比特处理器 Tenerife。随着比特数量的增长,2 维的空桥方案被广泛采用,即利用架空的超导传输线相互接地,以降低线路间的干扰并节省线路排布空间。当比特数接近 100 后,量子芯片开始向 3 维发展,目前常见的是将量子比特和读出控制分成 2 个单独的平面,并用倒装焊模式进行连接,从而提升集成度。
. 一个具有 5 比特的超导量子芯片
图 65. 空桥结构示意图
TSV 多层堆叠是量子芯片比特数进一步提升的关键技术。当比特数量进一步提升,上下 2 层结构也无法满足排线的空间需求时,此时需要更多的平面进行比特的扩展,TSV(硅通孔) 开始被引入。其将两面的图形结构线路通过 TSV 内的导线进行连通,再利用倒装焊模式与第 2 个芯片进行连接,不仅充分利用了晶圆的正反面空间,同时解决了排线密集占空间的问题。
例如 IBM 433 量子比特处理器 Ospery 便采用了 TSV 和多层布线技术,将量子比特、读出谐振器和测控线分成 3 个部分,再利用倒装焊进行多层互联。
图 66.IBM 433 量子比特处理器 Ospery
图 67.IBM 超导量子计算机技术迭代图
究中心 资料来源:IBM 官网,国投证券研究中心 测控系统用于量子比特的实时控制、测量、反馈,是量子计算机的重要组成部分。由于超导量子比特本质上是一个由超导电路形成的二能级系统,因此我们可以使用微波信号对其进行控制,而测控系统便是生成和读取各类微波信号的设备,是量子计算机的重要组成部分。已有的量子测控系统可分为两代,第一代主要由可直接生成和接收模拟微波信号的设备组成,
即波形发生器、模拟信号源、IQ 混频器、高精度电源等一系列通用电子测量仪器,其易于实现,但因缺乏反馈控制而使可扩展性和编程能力受限。二代测控系统则兼具可灵活编程的反馈控制能力和更好的可扩展性,例如本源量子于 2020 年推出第二代量子测控一体机,支持 216 通道,具备 200 皮秒同步稳定性,能够测控 32 个量子比特。
图 68. 微波信号可以对量子比特进行控制
图 69. 本源量子 32 位测控一体机
测控系统的价值量随着量子比特数的增加而增长。通常而言,一个 qubit 的 XY-control 操控和读取各需要用到 2 通道的 AWG 以及微波源,同时在读取侧还额外需要一台波形采集器用于读取谐振电路中输出的信号。因此测控设备市场规模的提升来自两大驱动力,首先是量子计算机台数的增长,其次是随着量子比特数量的增加,理论上测控设备的测控线路数也会相应增加。根据 ICV,2022 年全球量子计算测控系统市场规模为 1.60 亿美元,预计到 2025 年该市场总规模将达到 5.45 亿美元,2030 年达到 210 亿美元。
图 70. 两比特超导量子计算操控系统电路模型简视图
低温化和芯片化是测控系统未来的发展方向。由于处在室温环境中,现有的量子测控系统存在两大问题,其一是大量的线缆需要从室温连接到 10mK 的量子芯片,会带来热噪声,并影响量子门操作的保真度;其二是随着比特数的增长,控制线的数量会触及到稀释制冷机的功率与体积的天花板。为了解决这些问题,低温化和芯片化成为测控系统未来的发展方向,即把 DAC、RF、信号采集和处理电路均集成在一个芯片上,并将芯片置于低温环境中,从而提升性能。近年来,国际上有多款具备低温超导量子测控特征的测控芯片发布,相关厂商包括了英特尔、谷歌等。
图 74. 量子计算测控系统发展趋势
本源量子作为国内量子计算云平台的重要参与者,不断推动着相关技术的发展与前进。2017 年 10 月,本源量子联合中科院量子信息重点实验室发布基于半导体量子芯片的量子计算云平台,平台同时采用了超导量子芯片,包含一个最大支持 30 位的量子仿真器,实现国内首个图形化量子编程界面。该平台的一大突破是推出了全球首款半导体量子芯片编程语言 “量子音符”,目的在于通过免费的云服务,扩大公众对量子计算的认知,并吸引更多的人使用量子编程语言参与开发应用。2024 年 1 月 6 日,本源 “悟空” 正式上线运行。该量子计算机搭载 72 位自主超导量子芯片 “悟空芯”,有 198 个量子比特,其中包含 72 个工作量子比特和 126 个耦合器量子比特。根据官网,截至 3 月 25 日,已经获得了来自全球 115 个国家和地区超 428 万人次的远程访问,累计完成近 16.7 万个全球量子计算任务。
3. 全球量子通信产业:
美国和欧盟积极布局 美国:世界首个密钥分发网络,率先布局量子保密通信。美国是最先将量子通信列入国家战略的国家。2003 年,DARPA 建立世界上第一个量子密钥分发保密通信网络。2007 年,美国实现了两个独立原子量子纠缠和远距离量子通信。2016 年,美国航空航天局 (NASA) 用城市光纤网络实现量子远距传输。美国国防部高级研究计划局 (DARPA) 量子网络是世界上第一个量子密钥分发 (QKD) 网络,经营在从波士顿到马萨诸塞州剑桥市的 10 个光节点上,于 2003 年 10 月 23 日在 BBN 技术公司的实验室中全面投入使用,并于 2004 年 6 月通过暗光纤部署在剑桥和波士顿的街道下,并连续运行了 3 年。该项目还创建并部署了世界上第一台超导纳米线单光子探测器。
图 103.DAPRA 量子密钥分发网络结构
图 104.DAPRA 量子通信网络建成过程
美国:通信网络 + 通信干线齐头并进,为量子网络发展奠定基础。2012 年,NASA 与澳大利亚 Quintessence Labs 公司合作,提出了建设量子保密通信干线的计划,该线路从洛杉矶的喷气推进实验室延伸到 NASA 的艾姆斯研究中心,涵盖了星地量子通信和无人机及飞行器的量子通信链接。另一方面,2018 年,Quantum Xchange 公司宣布建设了全美首个量子互联网 ——Phio,从华盛顿到波士顿,沿美国东海岸总长 805 公里。2019 年 4 月,Quantum Xchange 与东芝公司合作,将 Phio 网络的容量翻一番,进一步提升了量子密钥分发(QKD)网络的性能和实用性。 美国:开展量子网络链路测试,推动量子通信发展。纽约大学量子信息物理学中心(CQIP) 和量子安全网络技术公司 Qunnect 合作,使用 Qunnect 的量子安全网络技术,通过纽约市的标准电信光纤发送量子信息,成功测试了布鲁克林海军造船厂和纽约大学曼哈顿校区之间 10 英里(16 公里)量子网络链路。在 10 英里的光纤中,Qunnect 和 CQIP 实现了以每秒 15000 对的速度传输高度纠缠的量子比特通过光缆,测试过程中链路正常运行时间达到 99%。此次实验打开了纽约都市区的金融服务、关键基础设施和电信公司试点量子网络技术的大门。 美国:技术研发路线陷争议,未大规模部署,仅开展技术研究。一方面,美国国家安全局 2020 年表示不建议使用 QKD 确保国家安全系统中的数据传输。另一方面,美国能源部、哈德逊研究所认为目前 QKD 仍然是量子通信领域最充分的应用。美国从 2003 年建立第一个 QKD 网络,之后发展进程较为缓慢。2007 年,美国实现了两个独立原子量子纠缠和远距离量子通信。2016 年,美国航空航天局用城市光纤网络实现量子远距传输。2018 年 10 月,美国量子公司 Quantum Xchange 才部署第一个量子密钥分发实用网络,支持纽约到新泽西的量子密钥分发服务。对于美国而言,中国已在 QKD 投入巨额资金,抢占领先地位,要达到中国的规模,必须投入大量的资金。所以发展抗量子密码被美视为比量子密钥分发更具成本效益且易于维护的解决方案。
图 105.NASA 使用的量子通信设备
图 106.Phio 洲际量子通信网络
欧盟:集成多种量子密钥手段,构建量子通信网络。欧洲 SECOQC 量子通信网络由英国、法国、德国、意大利等 12 个欧洲国家的 41 个伙伴小组共同设计研发,2004 年开始建设,2008 年在奥地利首都维也纳成功建成。该系统集成了多种量子密钥手段,包含 6 个节点。其组网方式为在每个节点使用多个不同类型量子密钥分发的收发系统并利用可信中继进行联网。
SECOQC 量子通信实验网络结构中,6 个网络节点之间通过 8 条点对点量子密钥分发系统相互连接。SECOQC 量子通信实验网络的 8 条链路中,有 7 条是光纤信道,最长为 85km,平均链路长度为 20-30km,可确保在 25km 光纤链路上安全密钥率每秒钟超过 1Kb。
图 107.SECOQC 量子通信实验网络结构示意图
图 108.SECOQC 实验网络连接示意图
欧盟:光纤融入量子通信网络,世界首创端到端量子安全通信实验。2014 年,英国在
Birmingham、Glasgow、Oxford and York 四所大学设立量子中心用于量子保密通信的研究。同年,英国电信 (BT) 和东芝两家公司于东芝研究实验室,共同在常规光纤通信网络上整合量子保密技术,首次成功地将量子密码学搭载于 10Gbps 数据传输信号的光纤上传输。2016 年底,他们发现量子密钥分发以及 100Gbps 数据亦可融进同样的光纤。同时,BT 与东芝欧洲研发中心亦在合作打造量子通信网络 (英国量子网络)。作为英国投入 2.7 亿英镑的国家量子技术项目的一部分,该计划在剑桥、布里斯托、伦敦和阿达斯特拉尔科技园之间部署量子保密通信。连接 BT 阿达斯特拉尔科技园和剑桥科技园的线路,2017 年上半年完工。此外,3020 年 11
月,英国电信 (BT) 与剑桥大学附属公司 Nu Quantum、物联网网络安全初创企业 Angoka、量子计算公司 Duality Quantum Photonics 等合作,开始研究在 5G 和联网汽车安全通信开发方面实现飞跃。英国电信指出,此举是一项 “世界首创” 的端到端量子安全通信试验的一部分,该试验获得了由英国研究与创新 (UKRI) 资助机构提供的 770 万英镑资助,为期 36 个月。
图 109. 东芝欧洲公司展出的量子通信设备
微纳卫星 + 小型化地面站,成就星地密钥分发网络开端。对于完整的空地一体广域量子通信网络体系来说,“济南一号” 只是其中低轨卫星网络的开始。因为,想要最终实现实用化、全球化的量子通信网络,满足数目日益增长、现实需求不同的客户,必须科学布局中高轨量子卫星、低轨量子通信卫星星座和大规模的地面光纤量子通信网络,根据实际需要,三个体系相互配合。但同时,“济南一号” 又是重要的一大步,它标志着我国将在世界上首次实现基于微纳卫星和小型化地面站之间的实时星地量子密钥分发。未来,将会迎来更多的低轨量子密钥分发终端,可以为全球大约 100 多个用户提供高频、安全的量子密钥服务。
图 114.“
4. 抗量子密码:密码原理的底层创新,应对量子攻击的新型方案
4.1. 量子计算对加密构成威胁,抗量子密码应运而生 量子计算对现有密码体系构成威胁。随着量子计算技术不断取得突破,算力大幅提升,特别是以 Shor 算法为代表的量子算法提出,有关运算操作在理论上可以实现将质因数分解算法的计算复杂度从指数级向多项式级转变,这意味着量子计算能够使得公钥密钥的破解实现指数级加速,对现有密码体系构成威胁。
抗量子密码(PQC)应运而生,应对量子计算攻击的新型密码算法。PQC 是能够抵抗量子计算对现有密码算法攻击的新一代密码算法,旨在研究密码算法在量子环境下的安全性,并设计在经典和量子环境下均具有安全性的密码系统。对于对称密码算法,尽管量子计算机可能降低现有算法的安全性,但增加参数的长度对维护安全性是有效的。因此,PQC 研究重点是非对称密码算法。PQC 与 QKD(量子密钥分发)有所差异,QKD 设计利用量子物理特性进行密码的分发,而 PQC 则关注在经典计算机上运行新的密码算法,使得这类算法即使用量子计算机也无法破坏。
表 26:量子计算对经典密码体系的影响
根据抗量子密码算法所基于的底层困难问题,主流抗量子密码算法大致分为 5 类:(1)基于格 (Lattice-based) 的抗量子密码算法
(2)基于哈希 (Hash-based) 的抗量子密码算法
(3)基于编码 (Code-based) 的抗量子密码算法
(4)基于多变量 (Multivariate-based) 的抗量子密码算法
(5) 基于同源 (Isogeny-based) 的抗量子密码算法。
基于格:格(Lattice)是一种数学结构,定义为一组线性无关的非 0 向量(称作格基)的整系数线性组合。格密码的主要数学基础是格中的两个困难问题:格的最短矢量问题(SVP) 和格的最近矢量问题(CVP)。格是一个困难的问题,并且难度还能控制,满足了成为密码学算法核心的必要条件。PQC 算法中,对格的研究是最活跃、最灵活的。基于格的算法在安全性、公私钥大小、计算速度上可达到较好的平衡。
- 第一,基于格的算法可以实现加密、数字签名、密钥交换、属性加密、函数加密、全同态加密等各类功能的密码学构造。
- 第二,基于格的算法的安全性依赖于求解格中问题的困难性。这些问题在达到相同的安全强度时,基于格的算法的公私钥大小比上述其他三种方案更小,计算速度更快,且能被用于构造多种密码学原语,更适用于真实世界中的应用。因此,基于格的算法被认为是最有前景的 PQC 算法基于哈希:基于哈希的签名算法从 Lamport 提出的一次性签名方案演变而来,最早由 Ralph Merkle 提出,并使用哈希树构造。基于哈希的密码算法仅限用于数字签名,至今学术界还没有专家提出基于哈希设计并实现的公钥加密或密钥封装的方案。
基于哈希的数字签名方案的安全性依赖于哈希算法的一些安全性质,例如单向性(抗原像攻击)、弱抗碰撞性(抗第二原像攻击)和伪随机性等。如果使用的哈希函数被攻破,完全可以构造新的安全的哈希函数来替代,因此基于哈希的签名是抗量子密码中理论安全性最强的一类。但是主要有以下两点缺点:一是签名体积大;二是对于有状态的基于哈希的签名,其所能支持的签名次数有限,
增加签名数量也将降低计算效率,并进一步增加签名的体积。 - 基于编码:基于编码的算法 1978 年,其理论依据来源于随机线性码的译码是困难问题:经过编码的信息在信道上传输,由于噪声产生错误,在接收端通过译码算法恢复。其核心在于将一定数量的错误码字引入编码中,纠正错误码字或计算校验矩阵的伴随式是困难的。McEliece 提出了首个基于编码的公钥加密方案 McEliece 方案,从而开创了基于编码的密码学这一研究领域。基于编码的密码算法被认为是抗量子密码中相对具有竞争力的密码算法。著名的基于编码的加密算法是 McEliece,McEliece 使用随机二进制的不可约 Goppa 码作为私钥,公钥是对私钥进行变换后的一般线性码。基于编码的密码通常具有较小的密文,但其缺点是公钥大、
密钥生成慢,在实用化方面有待提升。 基于多变量:基于多变量的算法使用有限域上具有多个变量的二次多项式组构造加密、签名、 - 密钥交换等算法。多变量密码的安全性依赖于求解非线性方程组的困难程度,即多变量二次多项式问题。该问题被证明为非确定性多项式时间困难。目前没有已知的经典和量子算法可以快速求解有限域上的多变量方程组。基于多变量的算法适用于一些注重算法效率但不关心 带宽的应用场景。多变量密码算法相比于其他抗量子密码算法具有签名验签速度快、消耗资源少的优势,其缺点是公钥尺寸大,因此适用于无需频繁进行公钥传输的应用场景,例如计算和存储能力受限的物联网设备等。
-
基于同源:同源密码是基于椭圆曲线同源问题的抗量子密码系统,它基于一个新的困难问题,
即寻找任意两条椭圆曲线之间的同源。2011 年基于超奇异同源的 SIDH 算法被提出,该算法是一个 Diffie-Hellman 类型的密钥交换算法,2017 年基于 SIDH 算法的高效实现 SIKE 算法被提出,随后一些新的基于同源的密码系统被提出,比如 CSIDH 和 SQIsign 算法等。基于同源的密码继承了椭圆曲线密码的底层运算,公钥和密文尺寸都非常小,可以在通信量受限的环境下运行,但是其运行效率非常低,其密钥生成、加密和解密速度几乎比基于格大两个数量级,这使其不易实现在一些计算性能不足的设备上。在 NIST 将 SIKE 进入第四轮不久,有专家利用 SIKE 的提示信息可以在数小时内恢复私钥信息,即 SIKE 被攻破,不过 CSIDH 和 SQIsign 算法仍未被攻破。
- 基于哈希:基于哈希的签名算法从 Lamport 提出的一次性签名方案演变而来,最早由 Ralph Merkle 提出,并使用哈希树构造。基于哈希的密码算法仅限用于数字签名,至今学术界还没有专家提出基于哈希设计并实现的公钥加密或密钥封装的方案。基于哈希的数字签名方案的安全性依赖于哈希算法的一些安全性质,例如单向性(抗原像攻击)、弱抗碰撞性(抗第二原像攻击)和伪随机性等。如果使用的哈希函数被攻破,完全可以构造新的安全的哈希函数来替代,因此基于哈希的签名是抗量子密码中理论安全性最强的一类。但是主要有以下两点缺点:一是签名体积大;二是对于有状态的基于哈希的签名,其所能支持的签名次数有限,增加签名数量也将降低计算效率,并进一步增加签名的体积。
- 基于编码:基于编码的算法 1978 年,其理论依据来源于随机线性码的译码是困难问题:经过编码的信息在信道上传输,由于噪声产生错误,在接收端通过译码算法恢复。其核心在于将一定数量的错误码字引入编码中,纠正错误码字或计算校验矩阵的伴随式是困难的。McEliece 提出了首个基于编码的公钥加密方案 McEliece 方案,从而开创了基于编码的密码学这一研究领域。基于编码的密码算法被认为是抗量子密码中相对具有竞争力的密码算法。著名的基于编码的加密算法是 McEliece,McEliece 使用随机二进制的不可约 Goppa 码作为私钥,公钥是对私钥进行变换后的一般线性码。基于编码的密码通常具有较小的密文,但其缺点是公钥大、
密钥生成慢,在实用化方面有待提升。 基于多变量:基于多变量的算法使用有限域上具有多个变量的二次多项式组构造加密、签名、密钥交换等算法。多变量密码的安全性依赖于求解非线性方程组的困难程度,即多变量二次多项式问题。该问题被证明为非确定性多项式时间困难。目前没有已知的经典和量子算法可以快速求解有限域上的多变量方程组。基于多变量的算法适用于一些注重算法效率但不关心 带宽的应用场景。多变量密码算法相比于其他抗量子密码算法具有签名验签速度快、消耗资源少的优势,其缺点是公钥尺寸大,因此适用于无需频繁进行公钥传输的应用场景,例如计算和存储能力受限的物联网设备等。 - 基于同源:同源密码是基于椭圆曲线同源问题的抗量子密码系统,它基于一个新的困难问题,
即寻找任意两条椭圆曲线之间的同源。2011 年基于超奇异同源的 SIDH 算法被提出,该算法是一个 Diffie-Hellman 类型的密钥交换算法,2017 年基于 SIDH 算法的高效实现 SIKE 算法被提出,随后一些新的基于同源的密码系统被提出,比如 CSIDH 和 SQIsign 算法等。基于同源的密码继承了椭圆曲线密码的底层运算,公钥和密文尺寸都非常小,可以在通信量受限的环境下运行,但是其运行效率非常低,其密钥生成、加密和解密速度几乎比基于格大两个数量级,这使其不易实现在一些计算性能不足的设备上。在 NIST 将 SIKE 进入第四轮不久,有专家利用 SIKE 的提示信息可以在数小时内恢复私钥信息,即 SIKE 被攻破,不过 CSIDH 和 SQIsign 算法仍未被攻破。
4.2. 全球积极布局抗量子密码,标准即将发布 随着量子计算机的发展,多个国家的密码管理部门对能抵抗量子计算的 PQC 研究越发重视。
目前,标准化组织、各国密码或安全管理部门、产业界正推进 PQC 密码的标准化。美国、欧洲、中国等都在积极的投入 PQC 的标准化研究中,影响力最大的是美国 NIST 面向全球的技术方案征集。
目前,抗量子密码领域中,全球最具实力的市场参与者主要分布在北美和欧洲,例如,美国的公司有 Google、IBM、Microsoft、PQSecure、Cisco、Envieta,加拿大的公司有 ISARA、Quantropi 等,欧洲的公司有 PQShield(英国)、Infineon(德国)、Thales(法国)、CrypotoNext(法国)、
Gemalto(荷兰,2019 年被 Thales 收购)等。这些公司是提供芯片设计、数字信息安全和量子安全综合解决方案这三大类服务的科技企业。此外,还有一些顶尖大学和研究院所参与 PQC 研究,例如,慕尼黑工业大学(德国)、佛罗里达大西洋大学(美国)、清华大学(中国)。
美国:针对后量子密码和迁移战略方面,发布和更新了诸多政策。2018 年 9 月,美国国家科学与技术委员会 NSTC 发布《量子信息科学国家战略总览》。
2022 年 1 月,美国总统签署第 8 号国家安全备忘录 NSM-8,首次将后量子密码纳入国家安全备忘录。2022 年 5 月,美国签署总统政令,要求确保美国在量子计算领域的领先地位,并推进后量子算法迁移,减少量子计算带来的安全风险。2022 年 9 月,美国 NSA 发布了含后量子密码算法推荐的 CNSA 2.0 套件,
给出政府信息系统 6 种场景在 2033 年前完成后量子迁移的时间表。
美国:NIST 牵头制定抗量子密码算法标准。NIST(美国国家标准与技术研究院)发起的后量子密码标准化项目是当前影响力最大、参与范围最广的标准化项目。其目标是遴选出通用的抗量子算法攻击的公钥加密、签名和密钥封装 / 建立算法,以替代美国现有的 FIPS 186 和 SP 800-56A/B/C 标准中的 RSA 和椭圆曲线离散对数类公钥密码算法。早在 2012 年,NIST 便开始了对后量子密码的研究,建立相关团队,跟进业界进展,联络工业和国际标准化组织,
以筹备该标准化项目。
2016 年,NIST 通过 PQCrypto、亚洲抗量子密码论坛等会议平台进行宣传,以呼吁全球密码学家积极参与;并于 2016 年 12 月发布了正式的算法征集公告 NIST IR 8105。截止到 2017 年 11 月底,共征集到来自全球 25 个国家的 82 个提案,其中 69 个算法满足 NIST 的 “完整且合适” 接受准则,进入第一轮评估。这包含了 3 个来自中国的算法,和 22 个来自欧盟的算法。2019 年初,NIST 发布第一轮评估报告 NIST IR 8240,并宣布有 26 个算法进入第二轮评估。2022 年 7 月,NIST 发布第三轮评估报告 NIST IR 8413,宣布了第一批标准算法。此外,
基于编码的 Classic McEliece、BIKE 和 HQC 以及基于超奇异椭圆曲线同源的 SIKE 进入第四轮评估。NIST 于 2023 年 8 月 24 日发布第一批抗量子密码算法标准草案,包括 Crystals-Kyber(FIPS.203)、Crystals-Dilithium(FIPS.204)和 SPHINCS+(FIPS.205),第四种 Falcon 的标准化草案将会在 2024 年发布。
表 29:NIST 抗量子密码标准化项目进程
4.3. 抗量子密码
迁移进程逐渐开启,产业蓄势待发 抗量子密码迁移是确保现有加密系统在面临量子计算威胁时保持安全的重要举措。抗量子密码迁移不仅仅是替换密码算法,它还包括将密码协议、密码方案、密码组件、密码基础设施等更新为量子安全的密码技术,甚至还包括密码系统的灵活更新机制的能力构建及密码应用信息系统的迭代更新等,是将现有密码安全体系分阶段平稳过渡到抗量子密码安全标准体系所需的一系列过程、程序和技术。考虑到抗量子密码的复杂性以及稳定性,目前多数倾向于采用 “两把锁、双保险” 的混合模式进行过渡,而不是直接替换的模式。
QKD 和 PQC 融合应用有望成为产业趋势。QKD 和 PQC 是目前学术界公认的应对量子计算威胁的两个技术路径和方向。国际较为普遍的观点是 QKD 具有长效安全性,但缺少认证手段、应用成本相对较高;
PQC 具有功能和应用体系与传统密码兼容的优势,但缺少安全性证明。将两个抗量子计算威胁的技术融合应用,可能是更为有效的方法。 QKD 大型组网使用需要光纤资源,受地理环境影响较大,应用成本相对较高,采用基于 QKD+PQC 融合组网的方式能有效降低成本。通过量子安全密钥管理设备将加密密钥传输从数据通道分离出来,并进入一个单独的密钥管理子系统,该子系统可以按需配置。
- 一个典型的融合网络配置由一系列的节点组成,其中一些节点与加密数据链路的加密设备通信,
- 一些节点作为可信中继节点。存在成对 QKD 连接的量子安全密钥管理设备通过基于 QKD 完成密钥交换,不存在成对 QKD 连接的节点基于格的 PQC 密钥交换协议完成密钥交换。因此,QKD+PQC 融合组网的方案有望成为未来的产业趋势。
图 120.QKD+PQC 融合组网方式
美国国家安全局(NSA)明确迁移路线图,产业蓄势待发。目前,最为明确的康量子密码迁移时间表为美国 NSA 发布的《商业国家安全算法套件 2.0》。(注:CNSA 1.0 是当前标准,而 CNSA 2.0 是未来的标准。NSA 建议现在采用 CNSA 2.0 软件和固件签名算法。)具体而言,
对于软件和固件签名的场景,CNSA 2.0 推荐使用 NIST SP 800-208 所给出的基于 hash 的签名算法 LMS 和 XMSS。与基于格的后量子签名标准算法 Dilithium 和 Falcon 相比,这两个基于 hash 的签名算法的特点是私钥有状态,需要小心维护和更新。另外,单个私钥所支持的签名数量有限,而且签名和验签的速度慢。这使得它们可能不如无状态签名通用。关于对称算法,
CNSA 2.0 推荐使用 AES 256,SHA384 或 SHA512。对于通用场景下的公钥算法,CNSA 2.0 推荐用 Kyber 和 Dilithium 来代替 RSA、DH、ECDH 和 ECDSA,并且建议使用最高等级的 NIST Level 5 参数。CNSA 2.0 针对的是美国国家安全系统,对于民用系统,特别是中、低安全的民用系统,可以根据安全需求和性能平衡选择更合适的参数。 对于不同场景下的抗量子迁移时间线,CNSA 2.0 给出的要求如下:美国政府将在 2033 年之前完成其信息系统中的抗量子迁移。其中,对于软件 / 固件签名场景的迁移,需立即启动,
在 2030 年前完成;传统网络设备的迁移在 2025 年左右启动,也需在 2030 年前完成。 我们认为,美国 NSA 明确了抗量子密码的迁移路线图,结合 NSIT 即将发布的第一版抗量子密码算法标准,标志着产业即将进入商业化落地的阶段。而抗量子密码的发展在全球范围内已经形成共识,中国也有望积极布局,从而带来对密码产业新的发展和投资机会。
图 121.CNSA2.0 迁移路线图
5.7. Regetti Computing
Rigetti 是一家全栈量子计算公司,构建了超导量子计算系统并通过云提供访问。Rigetti 量子云服务平台为全球企业、政府和研究客户提供服务,Regetti 专有的量子经典基础设施为实用量子计算提供了与公共和私有云的高性能集成。Rigetti 推出的 Aspen-M 是世界上第一个商用多芯片量子处理器,在规模、速度和保真度方面进行了改进,提高了量子程序结果的可靠性。
Rigetti 的长期目标是展示实现量子优越性,即利用量子计算机来更好、更快、更便宜地解决目前经典计算机难以解决的现实问题。为此,Rigetti 正在追求量子硬件在规模和性能上的持续、快速改进,并与不同行业和应用领域的合作伙伴合作,从开发最适合一些 “狭义” 量子优越性的实例的硬件开始,最终将变得更加通用。
图 130.Regetti:Aspen-M 商用多芯片量子处理器
5.8. D-Wave Quantum
D-Wave 是量子计算系统、软件和服务开发和交付领域的领导者,是世界上第一家量子计算机商业供应商,也是一家同时开发退火量子计算机和门模型量子计算机的公司。D-Wave 多年来开发和增强的重要技术之一是求解器,求解器技术允许将问题转为二次模型并以高水平输入,同时求解器还可以被编译为在量子退火机上运行的硬件配置。同时,D-Wave 还积极改进其 Ocean 软件,为客户提供量子与经典混合环境中的软件开发工具,结合 Leap Quantum 云服务为客户提供量子计算机和混合求解器的实时、安全的云访问。
图 131.D-Wave:下一代混合求解器的高水平性能
硬件技术方面,D-Wave 持续推进量子退火和基于门的硬件研发工作。D-Wave 一直致力于开发 Advantage 系列产品,并持续构建规模不断增加的量子技术原型机。
图 132.D-Wave:Advantage 系列退火机开发进度
5.11. 光迅科技 光迅科技与科大国盾量子技术股份有限公司成立合资公司山东国讯量子芯科技有限公司,公司持有山东国迅量子 45.00% 股权,国迅公司的量子芯片主要应用在 QKD 通信与量子测量等领域,产品研发主要瞄准下一代量子信息系统设备所需的集成化、高性能光电子芯片与器件。
从产业链来看,光迅科技自 2016 年开始在量子通信领域进行前瞻布局,掌握信号处理芯片和雪崩光电二极管等领域领先的研发和制造实力,并通过收购上下游产业链企业,逐步实现了 “芯片研发 - 器件制造 - 高端封装” 一体化生产和全产业链垂直布局。 2023 年,光迅科技承接的工信部《信息光电子创新中心能力建设项目》通过验收,项目开展了一系列关键光子集成芯片和器件产品的攻关。完成国内首款商用 100Gb/s 硅光芯片及 400Gb/s 的正式投产及规模应用,多款商用芯片取得产业化突破,在光传感、光量子、光测量等领域研制出一批特种光电芯片和器件产品,填补国内空白。在支撑我国通信系统核心器件自主可控方面发挥了重要作用。 图 135. 光迅科技光通信产品
5.12. 亨通光电
在通信业务方面,亨通光电围绕 “技术领先、成本领先、质量领先、服务领先”,打造引领行业发展的全球信息与能源互联解决方案服务商。拥有从新一代绿色光棒 - 光纤 - 光缆 - 光网络 - 数据中心全价值光通信产业链,及光纤传感、5G 等新一代网络关键技术,形成 “产品 + 方案 + 工程” 的服务模式,全面布局工业互联网等基于新一代通信技术及 “万物互联” 的垂直应用场景,跻身全球光纤通信行业前 3 强。亨通光电围绕 “下一代通信技术”,在量子保密通信、硅光技术等领域投入研发,荣获国际电联 ITU2019 年信息社会世界峰会中国区最高奖。
2020 年,公司承接的 “长三角量子通信环网”、“京津冀量子通信环网” 的建设,已逐步投入运营。同时公司积极推动量子通信产业化应用,成功交付的苏州量子保密政务网是量子保密通信技术在江苏省政务领域的第一次试点应用。
金卡智能
金卡智能投资国科量子,并持有账面价值 5000 万元的国科量子股权。国科量子通信网络有限公司(简称 “国科量子” 或 “量子网络”)由中国科学院控股有限公司联合中国科学技术大学等发起成立,是国际电信联盟部门成员、国家高新技术企业。公司致力于研发、建设和运营基于量子通信技术的星地一体、云网融合、应用牵引、自主可控的设施与业务,努力在以量子信息服务数据安全、助力实体经济发展方面发挥先导性、战略性、基础性作用。国科量子是国内量子保密通信骨干网的唯一运营主体,以国家广域量子保密通信骨干网络为基础,
在 “东数西算” 工程的八大枢纽节点建设融合量子通信技术的云平台,为服务数据安全、加强数据治理提供主动管控的技术手段和量子安全增强的数字基础设施底座。
图 140. 国科量子云网一体量子设施
量子计算虽然还没普及,但用于量子计算的高级语言已经有一些了。这次借 codeforces q# contest 的机会简单尝试一下,非教程,教程链接如下,想详细了解还得自己去看(部分为英文)
https://docs.microsoft.com/en-us/quantum/ q# 文档,有量子计算概念,
q# 语法
https://github.com/microsoft/QuantumKatas 量子计算入门知识 github 仓库
bloch sphere 可视化工具。
量子科技 第一讲:一句话告诉你量子是什么?
量子科技 第二讲:喵星人揭开量子态的秘密?
量子科技 第三讲:电路板、硬盘都是量子科技?
第四讲:穿越时空、低维材料 量子革命即将到来?