NVIDIA 助力谷歌量子 AI 通过量子器件物理学模拟加快处理器设计
NVIDIA CUDA-Q 平台使谷歌量子 AI 研究人员能够为其量子计算机创建大规模的数字模型,以解决设计中面临的各种挑战
SC24 — NVIDIA 于今日宣布正在与谷歌量子 AI 合作,使用 NVIDIA CUDA-Q™ 平台进行模拟,加快下一代量子计算器件的设计工作。
谷歌量子 AI 正在使用量子-经典混合计算平台和 NVIDIA Eos 超级计算机,来模拟其量子处理器的物理特性。这将有助于克服量子计算硬件当前的一些局限,即量子计算硬件只能运行一定数量的量子运算,然后由于存在研究人员称之为“噪声”的现象就必须终止计算。
谷歌量子 AI 的研究科学家 Guifre Vidal 表示:“要想开发出商用的量子计算机,就必须能够在控制噪声的情况下扩展量子硬件规模。借助 NVIDIA 加速计算,我们正在探索越来越大的量子芯片设计中噪声的影响。”
理解量子硬件设计中的噪声需要进行复杂的动态模拟,以便充分了解量子处理器内的量子比特是如何与周围环境相互作用的。
过去,这些模拟的计算成本高得令人望而却步。借助 CUDA-Q 平台,谷歌可以在 NVIDIA Eos 超级计算机上使用 1024 个 NVIDIA Hopper Tensor Core GPU,以极低的成本进行世界上最大、最快的量子器件动态模拟。
NVIDIA 量子和高性能计算总监 Tim Costa 表示:“强大的 AI 超级计算有助于量子计算取得成功。谷歌对 CUDA-Q 平台的使用展现了GPU 加速的模拟在推进量子计算方面发挥了核心作用,它将帮助解决现实世界中的许多问题。”
借助 CUDA-Q 和 Hopper GPU,谷歌可以对包含 40 个量子比特的器件进行逼真的全面模拟,这是同类模拟中规模最大的。通过 CUDA-Q 提供的模拟技术,原本需要一周时间完成的噪声模拟现在只需要几分钟就能完成。
驱动这些加速动态模拟的软件将公开发布在 CUDA-Q 平台上,使量子硬件工程师能够快速地扩展他们的系统设计。