这次的暑期班让我感觉获益良多,四天的报告让我学会了很多,在此做个小小的归纳总结。
第一天的主要内容是量子计算的相关数学基础,这天的讲座让我了解了很多相关的知识,也让我对以前所看的文章中的一些概念有了更加清楚的认识,比如算子,迹距离等等。我以前对于算子中经常出现的向量外积形式存在一定的疑惑,虽然可以慢慢地用数学推导的方式证明其效果,但我一直不明白为什么会用这种形式,而这次的报告给了我答案, Hilbert 空间 H 上的任一个线性算子都可以写成外积的形式 ,这让我一下子对以前的知识有了新的认识。
同时,第一天的报告中也涉及了一些我之前没有了解过的数学知识,比如第五章的 von Neumann 熵与信息,这部分的知识在复合量子系统上有比较好的应用,但我还不能很好的理解这一部分,其涉及了许多关于迹距离的内容,我需要先把前面的知识吃透。
总结来说,第一天报告的数学知识是我目前所欠缺的,比较系统性的数学知识,接下来的一段时间,我需要重点钻研这些内容,掌握这些数学知识。
第二天的内容是量子纠错与量子电路,这天报告的前面部分内容比较好理解,对以前一些论文中出现X,Y,Z有了更加直接认识,但我对这个Y算子依旧存在疑问,这个复数i的意义我至今不是很能理解。使用泡利算子所完成的bit flip code或者phase filp code,其具有单位量子比特的纠错能力,但我有个小小的疑问,这些纠错编码似乎没有特别用到什么量子的性质,那么如果使用传统的纠错编码方法会如何呢?又或者说是什么限制了传统编码方式在量子比特上的使用?而后面提出的shor编码看起来似乎是在phase flip code上的发展,似乎是具有更好的抗噪声能力,但我暂时不能很理解其好处。
再往后的内容我就开始听的有点云里雾里了,我上一页PPT还没消化完就开始将下一页了,只是大致对General theory for qec和stabilizer codes留下了个大致的印象,需要后续再花点时间去看看。
第三天的内容则是比较熟悉的量子算法部分了,相较于前两天的云里雾里,这天感觉到了家一样的感觉。
前面对几个经典算法做了说明,我也算做了个简单的回顾。之后重点讲解了shor算法,并通过举例子有了一个更加直观的认识,加深了印象。可惜在量子傅里叶变换的部分,我依旧没能很好的理解。
之后则是重点讲解了搜索算法,提到了在随机搜索算法上,量子算法具有二次加速的效果。感觉与之前看到的一些关于量子神经网络的论文的结论吻合,虽然那篇文章本身也没太解释具体强化学习的过程,但给出了二次加速的结论,应该是和这个振幅放大的二次加速有关。
之后又有一些问题,相异元素,子团查找等,基本思想都是把群体做划分,划分成两个群体再使用grover算法,说明这种算法的思想可以应用在很多问题上。
最后给我留下深刻印象的是量子复杂性下界的多项式方法,但我对具体的证明不是很了解,也许之后应该看看论文原文来了解一下。
第四天则是一些前沿内容的报告,有很多都给我留下了深刻印象。
比如量子云,有两位的报告涉及了这部分的内容,其中华为的翁文康老师的演示确实让人眼前一亮,我也注册了账号,虽然暂时可能还不具备编写代码的能力,但我认为实操会更好的帮助掌握知识,这个平台也许会给我的学习带来不少帮助。
又比如量子神经网络,这部分的内容我其实还是比较感兴趣的,但遗憾的是似乎只是对经典的机器学习的一个拓展,没有针对量子在其中的作用进行发掘,虽然似乎大家都默认量子应用在人工智能上会有加速效果,但我还是对其的具体实现一头雾水。同时有提到一个噪音问题,似乎噪音对量子机器学习的影响远超传统机器学习,我认为这个大概与前面的量子纠错报告中提到的内容有关,也许需要量子纠错有更进一步的发展,才能提升量子机器学习抗噪声的表现。
又比如光量子,我对不同量子的计算效果比较感兴趣,而光量子相较于其他量子的异同,优劣都是个很有意思的话题。