
量子计算,这一基于量子力学原理的颠覆性技术,正以前所未有的算力潜力,叩击着传统计算的天花板。与经典计算机的比特非0即1不同,量子比特(qubit)的“叠加”与“纠缠”特性,使其能够同时探索海量可能性,为解决材料模拟、密码学、复杂优化等经典计算机难以企及的难题提供了全新路径。随着全球量子硬件的快速迭代,量子计算正从实验室的精密装置,迈向解决实际问题的“含噪声中等规模量子”(NISQ)时代。与此同时,人工智能对算力的需求也呈指数级增长。当这两个各自引领前沿的领域相遇,一个激动人心的命题应运而生:量子计算能否为人工智能注入“量子加速”,催生出全新的“量子人工智能”范式,从而在药物研发、金融建模和气候预测等领域引发颠覆性变革?
在2025世界人工智能大会(WAIC)期间,一场聚焦“量子计算能否赋能人工智能”的高端思辨会应运而生。来自清华大学、复旦大学、中国科学技术大学、香港大学等顶尖学府的学者,以及产业界的领军人物齐聚一堂,共同探讨这一交叉领域的核心议题。与会专家围绕量子计算如何优化机器学习算法、量子机器学习模型的构建路径,以及当前硬件限制下的实用化前景等关键问题,展开了多轮深度思辨与观点交锋,为“量子+AI”这一前沿赛道的未来发展提供了宝贵的洞见。

量子计算赋能人工智能共识与挑战:量子计算有潜力,但尚处早期
与会专家普遍认为,量子计算作为一种全新计算范式,在某些特定问题上展现出超越经典计算的理论优势。朱晓波教授指出,目前人工智能的发展动力主要源于算力提升,若量子计算真正实现,其巨大的并行计算能力将有望进一步释放人工智能的潜能。
不过,专家们也强调,量子计算距离实际应用仍较遥远。赵琦教授指出,尽管已有多种理论算法(如HHL算法、偏微分方程求解等)展现出量子潜力,但纠错、编解码等问题仍未解决,真正的技术落地尚需时间积淀。
三阶段路径:从演示实验到实用突破
论坛中,对量子硬件的演进路线形成了较清晰的阶段性共识:
第一阶段(100个物理比特,1%错误率):主要用于示范性实验。邓东灵教授提到,目前量子计算机已能在图像识别、医学图像分析等方面进行演示,当前量子计算机已达到可行性演示水平。
第二阶段(1000个物理比特,10⁻⁶逻辑错误率):进入“实用初现”阶段,可能在解线性方程、量子模拟等具体问题中展现出量子优势。赵文定博士表示,金融、组合数学优化、对抗网络等领域可能率先受益。
第三阶段(百万比特,10⁻¹²错误率):被广泛视为量子计算实现“通用性”的门槛。一旦突破,将有望运行广泛理论算法,并在诸如密码学破解、分类问题、量子多体计算等广泛应用中实现指数级加速。
量子赋能AI的三大方向
针对“量子如何赋能AI”,与会专家提炼出三个主要方向:
1. 算力加速:在解决线性方程、优化问题等AI核心算法上具备潜在优势;
2. 安全性增强:借助量子加密、不可克隆性,可提高AI模型在安全和隐私方面的保障;
3. 能耗优化:量子计算的低能耗属性或能缓解大模型时代AI带来的资源消耗问题。
泡沫与误解:应防止概念先行
在讨论“量子计算是否存在泡沫”时,朱晓波教授直言,当前过度宣传将影响行业生态。他指出,展示量子优越性的设备所解决的多为“玩具模型”,并未涉及真实世界问题,若继续炒作,量子计算未来也将经历螺旋式前进的周期。
赵琦教授、李晓鹏教授等则呼吁,公众、产业界、投资界各方需要保持耐心,科研界需营造良好氛围,及时纠正夸张言论,各界共同努力,相信量子计算终会改变世界。他们指出,真正的量子应用需跨学科融合与长周期投入,而非仅靠宣传推动。
本次论坛提供了一个审慎的视角,既展现了量子计算在赋能人工智能方面的潜能,也坦陈了其在算法、硬件与应用落地方面的现实挑战。可以预见,在接下来的十到十五年,量子计算将继续沿着路线图艰难前行,而真正的革命,或许尚在远方,但终将到来。





