美国加州山景城谷歌研究公司开发的谷歌量子AI,其最新一代量子芯片能实现将错误抑制在一个关键阈值以下的量子纠错功能,这被认为是实现未来量子计算实际应用的必要条件。该芯片的性能扩展后或能推动大规模容错量子计算的运算要求。相关研究12月10日发表于《自然》。
量子计算有潜力在特定任务上加速计算速度并超越经典计算机的能力。不过,量子计算机很容易出错,所以当前的原型机无法运行足够长的时间以实现实际输出。量子计算研究人员为此设计的解决策略依赖量子纠错,即将信息分布到许多量子比特(量子信息的单位,类似于经典计算机的比特)上,能在不破坏计算的情况下识别和补偿错误。量子纠错需要的量子比特开销可能会引入比它能纠正的更多的错误。因此,实现“低于阈值”的运算一直存在挑战——未纠错率要低于一个关键值,这样才能按预期纠错并指数级地抑制错误。
谷歌研究公司的Hartmut Neven和合作者报道了名为“柳”(Willow)的最新一代超导量子处理芯片架构,该芯片能实现低于表面码关键阈值的量子纠错——表面码是一种特定的量子纠错技术。他们的系统能在数小时内运行最多100万个周期,同时实时解码错误并维持表现。研究者在一个72量子比特的处理器和一个105量子比特的处理器上运行了表面码。每次码距从3增加到5再到7,逻辑错误率减半。这种对逻辑错误的潜在抑制为运行有纠错的大规模量子算法奠定了基础。
相关论文信息:
https://doi.org/10.1038/s41586-024-08449-y
发表评论