NVIDIA创下的量子计算模拟记录
量子计算NVIDIA本周通过在DGXSuperPOD上运行的cuQuantum创造了量子计算模拟的世界纪录。在NVIDIA的Selene超级计算机上运行的新SDK能够模拟比之前在量子计算关键测试中记录的多8倍的量子比特。从今天开始,cuQuantum的第一个库cuStateVec处于公开测试阶段,可供下载。它使用状态向量来加速数十个量子位的模拟。StandStanwyck访问了NVIDIA官方博客,详细解释了量子计算和NVIDIA创下的新记录
“量子计算将推动气候研究、药物发现、金融等领域的新一波进步。通过在今天的经典系统上模拟未来的量子计算机,研究人员可以更快地开发和测试量子算法,并以其他方式无法实现的规模。为实现这一未来,NVIDIA使用cuQuantum创建了有史以来最大的量子算法模拟,用于解决MaxCut问题,cuQuantum是我们用于在GPU上加速量子电路模拟的SDK。在数学世界中,MaxCut经常被引用为一个已知计算机无法有效解决的优化问题的例子。MaxCut算法用于设计大型计算机网络,找到具有数十亿个硅通路的芯片的最佳布局并探索统计物理领域。
MaxCut是量子社区中的一个关键问题,因为它是展示使用量子算法优势的主要候选者之一。我们使用运行在NVIDIA内部超级计算机Selene上的cuQuantum中的cuTensorNet库来模拟量子算法来解决MaxCut问题。使用896个GPU来模拟1,688个量子位,我们能够解决一个包含多达3,375个顶点的图。这比之前最大的量子模拟多8倍。我们的解决方案也非常准确,达到了最著名答案的96%。”