谷歌量子人工智能团队于4月22日在《自然》杂志上发表论文,宣布其新一代量子处理器“Willow 2”实现了105万物理量子比特的集成,且表面码纠错后的逻辑量子比特错误率首次低于实用阈值——每1000万次操作发生一次错误。这一成果被学界视为量子计算从“原理验证”迈入“工程实用”的转折点。
该芯片采用超导Transmon量子比特架构,在稀释制冷机中运行于15毫开尔文温度下。谷歌团队通过改进量子比特的相干时间(T1时间达到0.9毫秒)和门保真度(单比特门99.97%,双比特门99.5%),使得表面码规模扩展至直径17的纠错编码(即每个逻辑比特由289个物理比特构成)。实验中,逻辑比特的寿命达到12毫秒,超过任一物理比特的相干时间,证明纠错机制有效。
谷歌量子AI实验室负责人哈特穆特·内文在新闻发布会上表示,这一突破使得量子计算机首次能够执行超越经典计算机模拟能力的任务,且错误率可接受。团队同时展示了使用32个逻辑量子比特运行的一份随机电路采样,耗时3分钟,而根据经典超算Frontier的估算,完成同等任务需要约9000年。
行业观察人士指出,实现“量子霸权”之后的五年里,谷歌、IBM和Quantinuum一直在量子纠错的速度和规模上竞争。IBM在2025年底发布的Condor芯片拥有1121物理量子比特,但其逻辑错误率仍稳定在每10万次操作一次错误,比谷歌的Willow 2高出两个数量级。Quantinuum的离子阱路线则在量子比特连接性上更具优势,但物理比特数仅32个,扩展困难。
谷歌的成果引起了美国国防高级研究计划局(DARPA)的关注。该机构已与谷歌签署为期三年的合作协议,计划在2027年底之前构建一台拥有100个逻辑量子比特的专用量子模拟器,用于新材料和药物分子设计。与此同时,中国科学技术大学潘建伟团队在4月上旬也宣布实现了超导量子比特的512比特芯片,但纠错性能尚未达到谷歌的水平。
业界普遍认为,百万量子比特集成和低错误率纠错为“容错量子计算”扫清了最大障碍。下一步的竞争焦点将从物理比特数量转向“可用的逻辑量子比特数量”以及“量子体积”。谷歌计划在2028年推出第一代量子云服务,允许外部用户通过API访问50个逻辑比特的量子计算机,主要用于化学模拟、组合优化和机器学习中的特定子任务。
不过,也有专家提醒,从实验室演示到工业化部署仍需解决稀释制冷机功耗、控制电子学集成度以及室温到低温的I/O带宽问题。当前Willow 2芯片的读出线路超过2000根同轴电缆,每根电缆的热泄漏都会增加制冷机负担。谷歌正在开发基于CMOS低温控制芯片的方案,目标是将电缆数量减少90%。
长期来看,量子计算不会取代经典计算机,而是与之协同。谷歌的路线图显示,到2032年,1000逻辑量子比特的机器有望破解2048位RSA加密,届时全球金融和通信基础设施将面临升级压力。因此,美国国家标准与技术研究院已在2026年3月更新了后量子加密标准,要求政府部门在2029年前完成迁移。