潘禺:谷歌量子计算芯片给了国内产业界紧迫感

潘禺:谷歌量子计算芯片给了国内产业界紧迫感
2024年12月27日 10:57 观察者网
  • 【文/观察者网专栏作者 潘禺】

    12月10日,谷歌重磅推出量子计算芯片“Willow”,在公关宣传攻势下,马斯克送上了“Wow”,奥特曼也发来了贺电。

    Willow是一款拥有105个物理量子比特的量子芯片,亮点在于其惊人的计算速度和错误校正能力。据报道,Willow能在不到5分钟的时间内完成一个标准计算任务,而这个任务如果交给全球最快的超级计算机,可能需要超过10-25年,这个数字甚至超过了宇宙的年龄。

    Willow的另一个成就是其指数级减少错误率的能力。随着量子比特数量的增加,错误率通常会指数增长,但Willow通过先进的量子纠错技术,实现了错误率的指数级降低。每当晶格从3x3增加到5x5,再到7x7时,编码错误率就会以2.14的倍率降低。这种对逻辑错误的潜在抑制为运行有纠错的大规模量子算法奠定了基础。

    Google Quantum AI团队的工作环境

    权威专家的反

    量子计算的教主和旗手,美国计算机科学家Scott Joel Aaronson在他的博客也做了一些点评,尽管整体上比较积极乐观,但话里话外还是有一些玄机。

    比如,Aaronson要读者明确,进步大体上符合多数人的预期:

    对于过去五年一直在关注实验量子计算的人来说(比如说,从2019年谷歌的原始量子霸权里程碑开始),这里没有什么特别的震惊。自2019年以来,谷歌在其芯片上的量子比特数量大约翻了一番,更重要的是,将量子比特的相干时间提高了5倍。与此同时,他们的2量子比特门保真度现在大约是99.7%(对于受控-Z门)或99.85%(对于“iswap”门),相比之下2019年是~99.5%。

    他谈到最重要的是量子容错跨过了门槛,但离“真正的”容错量子比特还有距离:

    从科学上讲,头条结果是,随着他们增加表面码的大小,从3×3到5×5到7×7,谷歌发现他们的编码逻辑量子比特存活时间变长而不是变短。所以,这是一个非常重要的门槛,现在已经被跨越了。正如Dave Bacon对我说的,“现在形成了漩涡”——或者,换个比喻,30年后,我们终于开始触及量子容错的龙尾,这条龙(一旦完全唤醒)将允许逻辑量子比特被保存和操作几乎任意长的时间,允许可扩展的量子计算。

    话虽如此,Sergio Boixo告诉我,谷歌只有在能够以~10^-6的错误进行容错的两量子比特门(因此,在遭受一个错误之前,大约可以进行一百万次容错操作)时,才会认为自己创造了一个“真正的”容错量子比特。我们还离这个里程碑有一段距离:毕竟,在这个实验中,谷歌只创建了一个编码量子比特,甚至没有尝试在其上进行编码操作,更不用说在多个编码量子比特上了。

    Aaronson也谈到了谷歌这次秒杀超算10^25年的“量子霸权实验”:

    谷歌还宣布了在其105量子比特芯片上进行新的量子霸权实验,基于40层门的随机电路采样。值得注意的是,他们说,如果你使用目前已知的最佳模拟算法(基于Johnnie Gray的优化张量网络收缩),以及一台百亿亿次超级计算机,他们的新实验如果不考虑内存问题,需要大约3亿年才能在经典计算机上模拟,或者如果考虑内存问题,需要大约10^25年(注意,自大爆炸以来只过去了大约10^10年)。

    他指出这里“10^25年”结果的最大问题,也就是谷歌量子芯片的计算结果没有直接的验证。他担心谷歌没有给予足够的关注:

    由于同样的原因(据大家所知),经典计算机模拟这一量子计算将花费约10^25年,因此经典计算机直接验证量子计算结果也需要约10^25年!(例如,通过计算输出的“线性交叉熵”得分)。因此,谷歌的新量子霸权实验的所有验证都是间接的,基于较小电路的外推,而这些电路是经典计算机可以实际检查结果的。需要明确的是,我个人没有理由怀疑这些外推结果。但是,对于那些奇怪为什么我多年来一直痴迷于设计高效验证的近期量子霸权实验的原因:这就是原因!我们现在深陷于我之前警告过的不可验证的领域。

    以色列数学家和计算机科学家,量子计算怀疑论者Gil Kalai则在博客上写道:

    我们还没有研究Google Quantum AI的这些特定声明,但我的一般结论适用于它们:应谨慎对待 Google Quantum AI 的声明(包括已发布的声明),尤其是那些具有特殊性质的声明。这些说法可能源于重大的方法论错误,因此,可能更多地反映了研究人员的期望,而不是客观的科学现实。

    Gil Kalai还在这篇博文中谈到了量子计算炒作和比特币的问题:

    当2019年谷歌的量子霸权主张发布(或者更确切地说是泄露)时,有很多说法认为这意味着量子计算机就在附近,因此比特币所需的密码学将是可破解的,比特币将失去其价值。

    我通常不介意“炒作”,因为它反映了科学家对他们工作的热情和公众对科学努力的兴奋。然而,就谷歌而言,需要谨慎行事。例如,在2019年宣布“霸权”之后,比特币的价值在短短几天内(2019年10月24日左右,经过一段时间的稳定)从大约9,500美元跌至约8,500美元,给投资者带来了超过100亿美元的损失。比特币今天的价值约为100,000美元。此外,谷歌的断言可能对其它量子计算工作提出了不切实际的挑战,并鼓励了不受欢迎的科学方法的文化。

    跨越量子纠错的门槛

    正如Aaronson所说,这次值得称道的,不是无法直接验证的“量子霸权”实验,而是量子容错跨过了门槛。

    对于实用的量子计算机的主要困难,和对其中炒作的重新审视,心智观察所此前在《美国开始重新审视量子计算机,这对中国很重要》一文中已经做了详细介绍。

    这次Google Quantum AI团队在《自然》杂志上发表的论文,其重要成果是跨过了量子纠错的阈值,这又是怎么回事呢?

    构建量子计算机的研究人员面临的中心挑战,是如何用不完美的部件构建出完美的机器。他们的基本构建块,也就是量子比特,对外界干扰极其敏感。今天的原型量子计算机过于容易出错,无法做任何有用的事情。

    上世纪90年代,研究人员为克服这些错误奠定了理论基础,称为量子纠错。关键思想是诱使一组物理量子比特协同工作,作为一个单一的高质量“逻辑量子比特”。然后计算机将使用许多这样的逻辑量子比特进行计算。他们通过将许多有缺陷的组件转化为较少的可靠组件来制造那台完美的机器。

    这种计算的炼金术也有局限,如果物理量子比特太容易失败,纠错反而会适得其反。也就是增加更多的物理量子比特会使逻辑量子比特变得更糟,而不是更好。但如果错误率低于特定阈值,平衡就会倾斜:你增加的物理量子比特越多,每个逻辑量子比特就变得越有弹性。

    这次谷歌团队终于跨越了这个阈值。他们将一组物理量子比特转化为一个逻辑量子比特,随着他们向该组添加更多的物理量子比特,逻辑量子比特的错误率急剧下降。

    考虑一台经典计算机,信息表示为一串比特,0或1。任何随机的故障,如果翻转了比特的值,都会导致错误。为了防范错误,可以将信息分散到多个比特上,每个0重写为000,每个1重写为111。如果一组中的三个比特不是全部具有相同的值,你就会知道发生了错误,多数投票将修复错误的比特。但如果三元组中的两个比特同时出错,多数投票将返回错误的答案。

    如果增加每个组中的比特数量,比如五比特,虽然这种更大的代码可以处理更多的错误,你也引入了更多可能出错的方式。只有当每个单独比特的错误率低于特定阈值时,净效应才是有益的,比如五比特版本可以容忍每个组中的两个错误。

    在量子世界中,情况更加棘手。量子计算中的每一步都是另一个错误源,纠错过程本身也是如此。更重要的是,没有办法在不不可逆地干扰它的情况下测量量子比特的状态。所以,起初许多研究人员认为量子纠错是不可能的。

  • 新浪科技公众号
    新浪科技公众号

    “掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

    创事记

    科学探索

    科学大家

    苹果汇

    众测

    专题

    官方微博

    新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

    公众号

    新浪科技

    新浪科技为你带来最新鲜的科技资讯

    苹果汇

    苹果汇为你带来最新鲜的苹果产品新闻

    新浪众测

    新酷产品第一时间免费试玩

    新浪探索

    提供最新的科学家新闻,精彩的震撼图片