S. Kochen; E. P. Specker (1967). "The problem of hidden variables in quantum mechanics". Journal of Mathematics and Mechanics. 17 (1): 59–87. doi:10.1512/iumj.1968.17.17004
概括来说,实验内容是让 AI 去理解量子叠加态。目标系统是由 N 个量子比特构建的 GHZ 态,以此代表处于叠加态的猫。
对所有量子比特分别进行测量,就得到一组经典数据,这组数据可以看做薛定谔的猫在经典世界内的“投影”。机器学习引擎将这些投影数据作为训练样本,最终还原出 AI 心目中猫态的样子。如果 AI 所理解的猫态足够正确,它就能对一些投影数据中的空白,或尚未发生的测量结果,给出正确的预测。实验人员也正是通过这种方式,来考察机器学习引擎是否真的学会了量子力学。
图 9
在训练算法时,实验人员为AI的“马虎”程度设计了一个参数,这个参数越大,意味着 AI 学得越马虎大意,越小则学得越仔细认真。可以想见,不同的参数值肯定会训练出表现不同的 AI 。
最有意思的是那些值居中的 AI 普通生,居然从数据样本中学到了一个经典盲盒态,而对相干性则一窍不通。可这些数据样本明明是来自于叠加态的投影,其中都携带着相干性痕迹,为什么会被 AI 忽略了呢?
实验人员又尝试改变系统规模 N ,让 AI 去学习不同规模的叠加态系统。结果发现,系统规模越小,AI 越容易理解系统的量子特性,而当系统规模增大时,对 AI“学习能力”的要求也越来越高。从趋势上能够明显看出,当系统规模到达某个上限时,即使 AI 拥有再强的“学习能力”,也只能从数据样本中学到一个经典态,永远都无法领悟到叠加态。