基于经典计算的模拟器对于开发量子程序的人来说非常有用,它可以演示量子计算机是如何处理程序的。

虽然这种方法一定程度上受限于经典计算机可以模拟的量子比特数,但其优点在于可以在内部系统上进行经典计算模拟,无需向云量子计算机提交任务。

且模拟可以在无错误的环境下进行,这样就可以初步开发出程序来检查基本逻辑,不需要程序员在分析运行结果时,处理那些会造成不确定性的嘈杂量子比特。

图1|全球量子计算格局(来源:英伟达)

尽管使用一台具备完全纠错功能的量子计算机也可以完成同样的事情,但该设备将需要数千个量子比特,短时间内无法提供。

从近期来看,为了提高这些模拟的性能,GPU (图形处理器)其他特殊处理器能够比通用处理器更有效地执行模拟。

这是因为量子运算可以用矩阵数学张量网络来描述,而GPU的架构可以更好地优化处理这种类型的运算。

基于此,英伟达发布了一款名为“cuQuantum”的软件开发工具包 (SDK) ,在英伟达最新的GPU上提供模拟功能[1][2]。

图2|英伟达cuQuantum(来源:英伟达)

该款SDK的API允许用户在Qiskit、Cirq、ProjectQ、Q#等常用框架中创建量子程序,然后在提供英伟达最新一代GPU的平台上进行模拟,目前该款SDK支持两种不同的模拟方法

状态矢量模拟提供了高保真度的结果,但是需要一个随量子比特数量一起增长的内存空间,且该内存空间需要限制可模拟的量子比特总数。

模拟张量网络会占用内存,但对模拟多量子比特数的程序保真度的要求不会过高。英伟达将继续开发此SDK,以在未来发布更多的模拟功能。

该方法的性能较为可观。英伟达与加州理工学院合作,用其内部超级计算机“Selene”,以与谷歌“量子霸权”相类似的深度为20的线路,模拟谷歌53量子比特的Sycamore处理器,整个模拟过程耗时9.3分钟

对比之下,谷歌的“Sycamore”仅用了3分多钟,而在橡树岭的超级计算机Summit上需耗时1万年。然而,公平起见,谷歌的完整实验运行了100万次,而英伟达的“Selene”只运行了一次

这样看来,相较于超级计算机Summit仍有很大进步,而且在实际GPU模拟中,由于没有嘈杂量子比特的干扰,所需的运行次数可能会更少。

加州理工学院的研究科学家Johnnie Gray和布伦化学教授Garnet Chan表示,通过使用Cotengra/Quimb软件包,英伟达新的软件开发工具包cuQuantum和超级计算机Selene,研究人员可以在10分钟内生成深度为20的Sycamore量子线路样本。

这为量子线路的模拟性能设定了基准,并将帮助研究人员提升验证量子线路行为的能力,从而推动量子计算领域的发展。

 

 

参考链接:

[1]https://blogs.nvidia.com/blog/2021/04/12/what-is-quantum-computing/

[2]https://developer.nvidia.com/cuquantum-sdk

 

声明:此文出于传递高质量信息之目的,若来源标注错误或侵权,请作者持权属证明与我们联系,我们将及时更正、删除,所有图片的版权归属所引用组织机构,此处仅引用,原创文章转载需授权。

|编  辑:王嘉雯      |审  校:丁 艳

发表评论

后才能评论