其实题主问了一个非常好的问题。为什么要用量子硬件模拟题主眼里奇怪的模型?就不能直接用量子硬件干点「公认的」不奇怪的/有用的事情吗?
其实,这里面最tricky的点,在于几乎所有公认的有意义的问题,都有「可验证」 这一属性。举个例子,题主肯定不会觉得用量子计算机做质因子分解是个奇怪的事情,因为质因子分解的答案是人类可以轻松验证的。质因子分解的结果,只要乘回去看看是不是原来的数就行了,说不定直接用卡西欧计算器就能验证。题主也不会觉得用量子计算机搞计算化学是个奇怪的事情。因为计算化学的结果可以用来解释/预测化学现象,毫无疑问是有用的。而计算化学的结果跟质因子分解一样,也是可以被人类通过做实验直接验证的。计算结果对不对,直接做做化学实验就是了。
题主可能还没有意识到「可验证」 这一属性对量子计算的重要性。对于其结果可被有效验证的问题,我们可以直接比较量子计算机和经典计算机之间的差距,通过比较结果的优劣和运行耗时的方法来评价计算过程中到底量子计算起没起到正面作用。反正,如果一个问题的结果没法被有效验证,我们对计算结果的正确性就很难有直接保障。尤其在量子计算中,每个量子门都有错误,没有量子纠错,对结果还没有验证方法的话,其输出结果的正确性就只能用「你不知道,我不知道,如来佛也不知道」来形容。
题主可能对量子优势的达成有所耳闻。现在学界也确实普遍承认我们通过搞玻色采样和随机线路采样达到了量子优势。但是我猜题主这样纠结于一个模型奇不奇怪的人,一定会觉得这两个模型奇怪。玻色采样压根就不是通用计算模型,而且基本上没有什么用玻色采样解决实际问题的报道。随机线路采样也挺怪,闲着没事搞随机线路有什么用。题主可能不知道的是,上面这两个问题,随着问题规模的增长,其结果的验证都会变得不可负担。玻色采样的不可验证最出名,Scott Aaronson曾透露九章团队为了验证九章的结果花费了价值40万美元的核时 [See Ref 1]。而计算验证随机线路采样所需要的交叉熵,也需要使用经典模拟。这使得无论是悬铃木还是祖冲之,都只能先把线路裁剪一番再计算交叉熵,然后通过claim裁剪之后的线路跟完整线路的交叉熵差不多的方法,来说明完整线路的交叉熵是足够大的。这些模拟就跟拜神一样,大家有很多证据证明它们可能是靠谱的,而且大家也没有很好的理由说明它们不靠谱,但是要实实在在地说它们一定就是靠谱的,经典计算机需要花费指数多的时间以至于坚实的验证是完全不可能的。
这时候题主可能就要问了。“我们为什么不用让量子计算机解决一些经典可验证的问题啊,这样我们不就可以相信科学,不再拜神了吗?”。事实上,这正是当前量子计算的一个重大问题。这里的主要问题在于我们现在所知的所有严谨的有量子加速的,解决可以被验证的问题的量子算法,都没法被搬上现在的量子硬件。Scott曾在其talk中给出了目前我们所知的指数级加速的量子算法分类。排除那些启发性的没有坚实的理论依据的算法,我们目前还没能找到一个既能在近期量子设备(即NISQ设备)上运行,又能被经典计算机有效验证的量子算法。
图作者:Scott Aaronson
现在让我们回到题主的问题。“为什么要量子模拟一些奇怪的模型?”。要回答这个问题,我建议题主从论文作者的角度来考虑一下。如果模拟的问题不奇怪会怎样?万一这种模型的输出能被有效验证,是不是人人就都能知道这个模拟的好坏了。是不是堆砌低质qubit的事情就暴露了(我的特长是qubit多,虽然我两比特门保真度只有80%,但你就说我qubit多不多吧)。是不是理论的fancy程度就达不到nature的标准了(毕竟没法证明自己的模拟有量子加速,只能靠选个fancy的模拟对象来吓唬人了)。考虑完这些问题后,想必题主心里对这个问题应该已经有了基本的答案。虽然我个人承认有些量子模拟的工作还是相当优秀的,但是由于阅读论文的时间是有限的,我个人基本是都是抱着有罪推定的心态去审阅这些工作的。
最后,如果题主还对量子计算感兴趣的话,我的建议是关注量子纠错而不是量子模拟。
ps:上文提到的量子模拟,主要是讲的大规模的,能提供新奇实验结果的量子模拟。仅仅是把xxx量子系统map到几个qubit上然后说自己验证了xxx理论的,基本是用来给实验组喂饭的灌水文章,我从来不看其中的理论部分。
参考
- https://scottaaronson.blog/?p=5122