谷歌量子人工智能实验室负责人 Hartmut Neven
这是人类科学和科技发展史上的一次里程碑:近日,Google谷歌宣称他们已经实现“量子霸权”,Google谷歌首次在实验中证明量子计算机相较于传统架构计算机的绝对性优势:在目前世界第一超算 Summit 需要运算 1 万年的实验中,谷歌的所推出的量子计算机只用了 3 分 20 秒。
就在最近提交的一份研究论文中,研究人员提出了这个主张,这也是至今为止,量子计算机最接近理论构想,全面超越传统架构超级计算机,并成功走向实用化最为明显的一次。相信在不大久远的未来,科学家或许可以使用这种全新工具解决目前无法解决的各类问题。
“量子霸权”是指量子计算所拥有的超越所有传统计算机的计算能力。谷歌科研人员声称他们已经成功实现。谷歌“量子霸权”的成功,意味着目前最新的量子计算机能力已经达到了人类现阶段最为强大的超算也无法企及的程度——它在 3 分 20 秒内完成特定任务的运算,而美国能源部橡树岭国家实验室目前排名全球第一的超级计算机“Summit”执行同样任务需要大约一万年时间。
“相对已知的所有经典算法而言,这样惊人的运算速度证明了计算任务上量子霸权的实现,也预示着人类期待已久的计算范式的到来。”谷歌研究人员在论文中写到。
Google谷歌的“Foxtail”量子处理器
英国《金融时报》最先报道了这条信息,谷歌所研究的论文也于本周提交至 nasa.gov,但随后被删除。谷歌发言人拒绝证实该论文及其结果的真实性,而 NASA 没有立即回应置评请求。
然而这一消息立即引来了全球许多媒体的报道,据美国《财富》杂志援引谷歌消息人士称,论文被撤回的原因是研究还没有经过同行评审彻底讨论之前被 NASA 提前发表了。通常,评审过程需要数周或者数月时间。
如果论文通过审议并顺利发表,它将预示着量子科学进入了一个全新阶段,因为其主要主张打消了一些不可预见的自然法则,可能会阻止量子计算机顺利运行的疑虑。
量子计算的发展:摩尔定律的指数级
Google谷歌的研究人员在论文中提到:“在现实世界系统中,我们可以实现量子加速,它并不受任何未知物理定律限制。”
除此之外,在研究中,科学家还预测量子计算机的算力将会以“双指数速率增长”,这也就意味着它的增长速度将大大超越摩尔定律,后者是指数形式的,认为传统计算机的芯片算力每 18 个月性能翻倍。
双指数增长远比指数增长更加快速——数量级不是按 2 的幂增长,而是按 2 的幂的幂增长,也就是:
这种增长方式有些难以理解,以至于在现实中很难找到这样的案例。量子计算的发展速度可能是第一个。
2019年 6 月,《Quanta Magazine》曾经报道Google谷歌在量子计算方面的近期研究展望。2018 年 12 月,Google AI 谷歌人工智能的科学家想要对谷歌最好的量子处理器上进行的计算进行复现,只需使用普通笔记本电脑即可。到了今年 1 月,他们在改进版的量子芯片上进行相同的测试就不得不使用功能强大的台式计算机来模拟结果。然而到了 2 月,大楼中不再有任何一个经典计算机可以对量子计算机的研究进行模拟了。研究人员必须在Google谷歌庞大的服务器网络上请求算力才能完成模拟。
这种超越传统计算机算力爆炸的定律被称为Neven定律,谷歌量子人工智能实验室(Quantum Artificial Intelligence lab)主任 Hartmut Neven 在今年 5 月的谷歌量子春季研讨会上首次提出了这一概念,他也表示量子霸权会在 2019 年内实现。
Google谷歌公司量子人工智能实验室负责人Hartmut Neven 认为,目前量子计算机的能力正在以前所未有的速度增长。
Hartmut Neven认为,量子计算机以双指数增长超越计算机的过程是两个指数因子相互组合的结果。第一,量子计算机比传统计算机具有先天的指数优势。如果一个量子电路有 4 个量子比特,那么一个 16 比特的经典电路才能与其计算能力等效。第二个指数因子源于量子处理器的快速演进。
这是第一个只能在量子计算机上进行的计算实验
为了证明量子计算机所独有超凡的能力,Google谷歌的研究人员设计了一个实验,即通过一个涉及量子现象的特殊场景对随机产生的数字进行采样。该任务的目的就是证明随机数生成器确实是随机的。
早在去年,Google谷歌就曾推出一个 72 量子比特的超导量子计算机——Bristlecone。为了此次实验成功进行,Google谷歌改造了该计算机。此次实验用到的量子计算机名为“Sycamore”,包含 53 个量子比特。
Google谷歌研究人员声称,他们已经十分确定自己的量子计算机在该任务中击败了传统的计算机,包括计算一些独有的电路输出。“目前为止,最先进的传统计算机对量子电路中的一个实例采样100万次需要耗费1万年,但谷歌的量子计算机只需要花费200秒”。
Google谷歌研究人员还提到,“据我们所知,这是到目前为止世界上第一个只能在量子计算机上进行的计算实验。”
对于大多数普通人而言,人们已经习惯基于硅处理器、使用晶体管进行计算的二进制计算机,其“1”和“0”两种状态完全可以预测。然而,量子计算机的出现已经完全改变了这场游戏的规则。
量子比特(qubit)是构建量子计算机的主要模块。任何量子性质,例如电子能级、自旋或光子的量子态等都可以用来表征量子比特,只要系统可以将其隔离并控制它们。一个量子比特只有两个状态,而 n 个量子比特最多可以表示 2 的 n 次方个状态。
在量子计算领域,人类结合了过去半个世纪以来最大的两项技术变革:信息技术和量子力学。如果人类使用量子力学的规则替换二进制逻辑来计算,很多至今难以攻克的计算任务将全部得到解决。
追求通用量子计算机的一项重要目标是确定当前传统计算机无法承载的最小复杂度的计算任务。该交叉点也被称为“量子霸权”边界,是在通向更强大和有用的计算技术的关键一步。
量子计算很好,但别急着吹
关于量子,最著名的就是“薛定谔的猫”,就像那只可怜的猫处在“死和生的叠加态”一样,量子计算机的“0 和 1”也可以处于叠加态,中国科学院郭光灿院士曾这样解释量子计算机的计算能力。他说,量子比特可以制备两个逻辑态 0 和 1 的相干叠加态,换句话讲,它可以同时存储 0 和 1。在理想状态下,50 个量子比特一次可以进行 2 的 50 次方次运算。
摩尔定律知道了计算机的发展。每隔 18 个月,集成电路上可容纳的元器件数目约增加一倍,计算机的计算性能也提升一倍。但传统计算机的发展已经进入瓶颈,在纳尼的尺度上,摩尔定律放缓。
量子计算的出现,为算力的继续进化提供了可能。但长路漫漫,量子计算仍在发展阶段。
2017 年 1 0月,IBM在常规的超级计算机上成功模拟出了 56 个量子比特的量子计算机,2018 年 1 月,英特尔公司宣布成功研制了 49 量子比特的测试芯片,英特尔表示,量子计算距离解决工程规模的问题可能还要5到7年。而从商业角度看,量子计算可能需要 100 万甚至更多的量子比特才能有实用价值。
“量子霸权”的定义,就是这是一个不管有没有实际意义的认定任务,落地到具体的应用上的意义不大。
一些研究人员也警告不要过度夸大量子霸权,认为这并不意味着量子机器会迅速超越传统计算机并给计算带来一场革命。
IBM 研究主管 Dario Gil 建议不要使用量子霸权作为衡量该领域进展的指标,他向《财富》杂志解释:“几乎所有的人都会误解这个实验和‘霸权’一词。”他还补充,量子计算机不会取代传统计算,二者是协作模式。
英特尔实验室量子硬件总监吉姆·克拉克(Jim Clarke)则表示 Google 的实验是一个里程碑,但量子计算机要在商业上落地,还需继续研发:“虽然这项马拉松仍遥遥领先,但我们坚信这项技术的潜力。”