以我有限的知识谈限制量子计算应用的脖颈
量子计算现在被吹得很响,也确实从大概三十年前纯粹的理论设想到了多位数装置的实现。鄙人在三十多年前对此有所涉及,还写过一篇颇有影响力的文章。现在多年不搞这个了,只能从公共信息看到的做一些思考,如果说得不对或者不完全,请各位指出。
以大家现在已经都熟悉的芯片为基础的计算机为例,它的理论速度限制是芯片上半导体的门电路状态变换的时间。每执行一个指令,需要先把多位数的一列门电路输入原始状态,然后再通过逻辑门电路实行运算,然后还有把门电路更新以后的状态输出,再读入下一指令。那么指令哪里来,是从内存里读出来的,同样的结果也要通过电子线路存回内存。
现在的固体电路,电路传导的速度可以达到光速的2/3,也就是10的负10次方秒走两厘米。现在的集成电路芯片是毫米级别的,也就是说这个线路因为尺度和信号传输速度决定的,每完成读,运算,和写,需要至少10的负11次方秒。当然现在的集成电路处理器的速度不仅仅决定于电信号的传播时间,还有门电路的变换时间。所以我们熟悉的处理器速度以GHZ,也就是10的9次方,远远低于我上面写的电信号传导速度。
那么量子计算机会有什么不同么?大家看几年前IBM公开的100QBIT的处理器的图片。那些一个一个的管道,每一个就是一个QBIT的单位。这个系统的操作是通过里面超低温的原子或者分子的量子态的变化实现的。这个量子态的变化可以很快,根据电子跃迁的时间决定,可以是10的负15次方秒。当然现在可以做的QBIT又多了很多。
但是这么个处理器,仍然需要跟外界相连,来读入原始状态和输出终止状态,完成一次计算。这个无论是用电还是光的过程,都还是需要由电子控制系统来执行的。一个没有输入和输出的处理器是毫无用处的。
这样一个量子装置,尺度大概是米的量级,每次读入和写出的时间,不会小于10的负9次秒,也就是说并不会比现在的集成电路处理器快。这是由物理尺度所决定的不可逾越的障碍。
补充一下。家坛有网友指出,
发挥量子计算机优势而不受我上面写的限制的办法是把所有指令都在一开始写进去,就不存在每个指令要读和写了。
但是这就要求有足够的QBIT来一下子写进所有资料,而且这些QBIT必须保持量子相关性。这个对于某些重大意义的运算不计成本也许是可以做到的,但是做为通用计算,大家想一下你们每天写个程序要多少行,需要多大的装置才行呢。
方法的不同带来的速度增加,一个不恰当的比喻,好比原来做乘法,实际是用逐步加法来实现的,步骤巨多所以慢。如果直接根据九九表做乘法,速度九快多了。
目前半导体硅数字芯片的速度,其实取决于对电容充放电的速度决定的。单元晶体管越小(俗话里的几纳米),电容就越小,充放电越快,开关速度越快,运行速度就越快。
单元晶体管尺寸不变的情况下,加大充放电电流,也会增加充放电的速度。缺点是耗电,而且产生大量的热,设计不当就会烧芯片。GPU为嘛是能耗大户,AI为嘛是耗电老虎,不过如此。
超导量子比特很难做到上百个,因为这些量子比特都需要二维三维的超导共振单元,特别是三维超导共振单元是利用很大的射频超导腔,现在基本想不出来如何做到几百上千甚至上万个射频超导腔的连接,以及如何读出写入
对量子计算没说出个所以然
以我有限的知识谈限制量子计算应用的脖颈
量子计算现在被吹得很响,也确实从大概三十年前纯粹的理论设想到了多位数装置的实现。鄙人在三十多年前对此有所涉及,还写过一篇颇有影响力的文章。现在多年不搞这个了,只能从公共信息看到的做一些思考,如果说得不对或者不完全,请各位指出。
以大家现在已经都熟悉的芯片为基础的计算机为例,它的理论速度限制是芯片上半导体的门电路状态变换的时间。每执行一个指令,需要先把多位数的一列门电路输入原始状态,然后再通过逻辑门电路实行运算,然后还有把门电路更新以后的状态输出,再读入下一指令。那么指令哪里来,是从内存里读出来的,同样的结果也要通过电子线路存回内存。
现在的固体电路,电路传导的速度可以达到光速的2/3,也就是10的负10次方秒走两厘米。现在的集成电路芯片是毫米级别的,也就是说这个线路因为尺度和信号传输速度决定的,每完成读,运算,和写,需要至少10的负11次方秒。当然现在的集成电路处理器的速度不仅仅决定于电信号的传播时间,还有门电路的变换时间。所以我们熟悉的处理器速度以GHZ,也就是10的9次方,远远低于我上面写的电信号传导速度。
那么量子计算机会有什么不同么?大家看几年前IBM公开的100QBIT的处理器的图片。那些一个一个的管道,每一个就是一个QBIT的单位。这个系统的操作是通过里面超低温的原子或者分子的量子态的变化实现的。这个量子态的变化可以很快,根据电子跃迁的时间决定,可以是10的负15次方秒。当然现在可以做的QBIT又多了很多。
但是这么个处理器,仍然需要跟外界相连,来读入原始状态和输出终止状态,完成一次计算。这个无论是用电还是光的过程,都还是需要由电子控制系统来执行的。一个没有输入和输出的处理器是毫无用处的。
这样一个量子装置,尺度大概是米的量级,每次读入和写出的时间,不会小于10的负9次秒,也就是说并不会比现在的集成电路处理器快。这是由物理尺度所决定的不可逾越的障碍。
补充一下。家坛有网友指出,
发挥量子计算机优势而不受我上面写的限制的办法是把所有指令都在一开始写进去,就不存在每个指令要读和写了。
但是这就要求有足够的QBIT来一下子写进所有资料,而且这些QBIT必须保持量子相关性。这个对于某些重大意义的运算不计成本也许是可以做到的,但是做为通用计算,大家想一下你们每天写个程序要多少行,需要多大的装置才行呢。
方法的不同带来的速度增加,一个不恰当的比喻,好比原来做乘法,实际是用逐步加法来实现的,步骤巨多所以慢。如果直接根据九九表做乘法,速度九快多了。
目前半导体硅数字芯片的速度,其实取决于对电容充放电的速度决定的。单元晶体管越小(俗话里的几纳米),电容就越小,充放电越快,开关速度越快,运行速度就越快。
单元晶体管尺寸不变的情况下,加大充放电电流,也会增加充放电的速度。缺点是耗电,而且产生大量的热,设计不当就会烧芯片。GPU为嘛是能耗大户,AI为嘛是耗电老虎,不过如此。
超导量子比特很难做到上百个,因为这些量子比特都需要二维三维的超导共振单元,特别是三维超导共振单元是利用很大的射频超导腔,现在基本想不出来如何做到几百上千甚至上万个射频超导腔的连接,以及如何读出写入
对量子计算没说出个所以然