量子,作为十大装逼话题之一,吹牛时捎上几句,效果棒棒的!不但咱民科喜欢吹,各国官科也好这口:俄罗斯量子中心测试了全球首个“量子区块链”系统;中科大量子信息重点实验室首次实现在固态系统中对三维量子纠缠态的量子存储,俗称“量子U盘”;美国罗切斯特大学研发出一种抗干扰的“量子雷达”;德国弗劳恩霍夫开发了微磁场下的“量子传感器”;荷兰将建全球首个“量子互联网”;谷歌发布全球首个72量子比特通用“量子计算机”……懵了没?
鉴于全球的过热吹捧,咱泼点冷水,先重新认识一下量子力学这位幕后英雄。
百年量子
19世纪末物理学差不多就被技术榨干了,所幸20世纪初诞生了相对论和量子力学。相对论直到今天几乎还是一块未开垦的处女地,人类这一百年的技术进步主要靠消化量子力学,只是消化方式比较单一:量子力学>新材料>应用技术。
量子力学以“新材料”方式推动技术发展,比如半导体材料导致计算机诞生。现在的材料学、化学、固体物理、核物理的理论基础都是量子力学,可见其贡献之大。
除此之外,量子理论很少(是很少)有直接应用,不然我们的生活就变得和修仙界差不多了,瞬移术、穿墙术、分身术满天飞。
如果说,人类挖掘自然规律是一场战争的话,理论物理便是正面战场。自20世纪中叶以来,人类奋战半个世纪,竟无寸功!引用剑桥大学物理学家Neil Turok的话:“自1970年代后,所有的理论工作都还没有产生一个成功的预言。”换句话说,理论物理已经原地踏步快半个世纪了!前阵子的上帝粒子和引力波验证的是上个世纪的理论。
于是,留给工程师的只有两条路,其一,正面硬杠相对论;其二,开辟量子力学的第二战场,即通过“非材料”的方式开发量子力学,也就是现在媒体们叫的“量子技术”。
显然后者更靠谱些,毕竟量子力学多少还是有些成熟的直接应用,比如原子钟、扫描隧道显微镜等。顺便开个玩笑,如果原子钟是今天发明的,按照现在的氛围,名字一定叫“量子钟”。
量子计算机、量子通信等技术的涌现,正是在量子力学领域开辟的第二战场,但这并不代表人类在与自然争斗的战场上高歌猛进,相反,它可能是人类对现存理论物理的最后一点应用开发了。
运算原理
回顾前文:传统计算机的1和0是用电流(或电压)实现的,有电流代表1,没电流代表0。所谓运算,本质上是把一大串1和0,变成另一大串1和0,而这个转变过程是由一堆PN结组成的电路完成的,也就是处理器。
我们平时说的32位处理器或64位处理器,指的是一次能处理的最大位数。比如32位处理器一次可以把一串32个1、0组成的指令变成另一串1、0,假如你有一串320个1、0组成的指令,那就得排着队,一组一组进入处理器,一共得处理10次。所以这效率嘛,就有点勉强。当然,这是肤浅的理解,将就一下!
有个事情别搞混了,计算机一般用“浮点运算”表示性能,和上面说的运算含义不同,就像百米冲刺是看谁先到终点,而不是看谁步数迈得多。
虽然处理器动不动每秒多少多少亿次,但实际上干不了多少活,因为一个很简单的操作,就要处理成堆成堆的1、0。举个粒子:
猜猜这是啥?这是放大了约50倍的手机屏幕(亲手拍的,保管错不了),缩小一些:
看看,手机上的白色,就是三种颜色挨得近了而已!再缩小,就成了绚丽多彩的画面:
现在我们轻轻划一下屏幕,想象一下这些三色发光点得忙成啥样?
这个蹩脚的例子,隐约说明了处理器的窘境,它就像一台超大功率抽水机,但面对汪洋大海一般的数据,显然有些力不从心。
其一,能不能别用1和0这种笨办法表示数据?从而把汪洋大海变成湖泊溪流,减少数据总量。这个……留给未来的数学天才吧!
其二,能不能别用电流电压来实现1和0?这还真有,比如机械硬盘的1、0是用磁针方向实现的,不过调整磁针方向远不如控制电流电压方便,所以,从硬盘拷电影的时候,处理器还有空闲干其他活。
必须得找到更好的物理现象来实现1和0,使得处理器性能轻松飙升,一口气把汪洋大海抽干了。
量子计算原理
开山鼻祖得认识一下,量子力学的大神级人物,费曼。他老人家说,既然世界是量子的,那研究世界最终还得靠量子的方法,于是提出了量子计算机的概念!
量子通信是量子纠缠的直接应用,这茬前文已经说过了,而量子计算机则是量子叠加态的直接应用。何谓“叠加态”?
你以为我又要说“薛定谔的猫”了吧?偏不!咱换个比喻,叠加态这玩意儿和眼神有点像,一个眼神可以既包含爱,又包含恨;再细分一些,可以包含65%的爱和35%的恨;更重要的是,爱和恨互不干扰,也就是说,看到爱的人看不到恨,看到恨的人看不到爱。
比如,本僧一个眼神瞄过来,有人感受到爱,有人感受到恨,于是这俩人又分别一个眼神瞟给下一个,最后得到不同的计算结果。
若是换成传统计算机,本僧得先和一人说我爱你,再和另一人说我恨你,得发两次信息,于是效率就低了。
回到正经的说法,传统计算机只能把数据一组一组塞到处理器里,而量子计算机可以把多组数据叠在一起,一次性塞进去。这是量子计算机最主要的优越性:并行计算。
为了表明本僧略懂量子力学,容我显摆个公式,能看懂的盆友,若有机会来老和山,本僧亲自为你化缘。
总的来说,用叠加态描述信息,1个量子态可以同时包含2个信息,2个量子态就是4个,3个量子态就是8个,以指数增长。这是非常惊人的,传统的32位处理器一次只能塞32个信息,而10个量子态一次就可以塞1024个信息,如果增加到50个,性能就达到了当前最快的超级计算机,而100个量子态就达到了全世界计算能力总和的100万倍。
回过头说,为什么粒子有叠加态这么奇葩的属性?答案只有两个字:呵呵。
技术实现
原理有了,用什么技术去实现呢?这种叠加态信息怎么做运算呢?运算后又怎么输出呢?如果没有量子力学的功底,很难理解这个技术过程,大伙看个味道就散了,不要深究!
光量子计算机
首先是单光子源,这家伙每次只产生一个光子,一个光子被特定晶体劈成两半就可以成为相互纠缠的2个光子,多劈几次就可以产生5个纠缠光子(可翻看前文《再话量子世界》),然后分成5路进入光学量子网络,接着在这个16×16 矩阵中,对光量子进行操作,最后用单光子探测器,探测量子计算结果。
不过还是得强调一下,虽然咱光量子计算走在了世界前列,但现在说成量子计算机为时过早,甚至连CPU都算不上,只能说把量子计算这条路趟开了。
这感觉,是不是有点当年30吨重的第一台计算机的味道了?有没有可能把这堆东西也压缩到指甲盖那么大呢?
超导量子计算机
用光子做载体优点很明显,缺点也很明显,光子这玩意儿转瞬即逝,没法做更细腻的操作,普遍认为可延展性不强,能做到10个量子态就算大仙了。
超导量子系统相比于其他量子系统,有无可比拟的可操作性和可延展性,被认为更有可能实现大规模集成的量子芯片,这货可以轻松做到几百个量子比特。同样的,优点明显,缺点也明显。
超导量子计算的核心单元是一种“超导体一绝缘体一超导体”三层结构的约瑟夫森结,电子有一定概率穿透中间的绝缘层,跳到另一层超导体上,但是这种电子的自由度很高,不那么听话,所以错误率贼高。
还记得2017年5月3日刷屏的新闻吧?《首台超越早期经典计算机的光量子计算机在中国诞生》,那次其实一口气发布了2台量子计算机,除了光量子计算机,还有一台10量子比特的超导量子计算机(卖相不太好看,见下图)。
把那天的事情再捋一捋:光量子计算机用5个纠缠光子,运算速度超过了人类第一台计算机;超导量子计算机实现了10量子比特纠缠,打破之前谷歌的9量子比特纪录。这是两件事,也是两拨人做的。
离子阱量子计算机
相比不听话的电子,离子的个头就大多了,控制起来相对容易,量子逻辑门也更容易实现,所以离子阱量子计算机是最早的量子计算机方案。
把原子外面的电子打飞就得到了离子,用低温把离子关起来,用它的两个能级代表1和0,测量能级有很成熟的技术,观察光谱就行,而且只要激光一照离子就能当逻辑门使用,实现1和0的转化,完成逻辑运算。
但是呢,几个离子还关的住,数量一多也就放羊了,而且激光操作的效率实在有些感人,问题也是一堆。这套路主要是奥地利因斯布鲁克大学和美国科罗拉多大学在玩。
因斯布鲁克大学的离子阱
其他
微观领域的量子效应一抓一大把,所以实现途径还有:液相或固态核磁共振、中性原子、光学(波导)、腔量子电动力学、半导体量子点,等等,玩家多集中在欧美中。
争议
虽然媒体上一片祥和,但业内的争议从没停过,悲观者认为现在是群魔乱舞、哗众取宠,而乐观者认为翻天覆地只在旦夕间,马上可以携手走入新时代。那么,争论的焦点是啥呢?
李逵和李鬼
下面这个知识点,你要整明白了,说你是外行都没人信。
传统计算机靠逻辑门完成运算,同样的,量子计算机的运算也需要逻辑门。复杂点说,就是通过幺正变换来实现量子比特从一个状态变换到另一个状态。更复杂点说,量子逻辑门,就是量子力学中的幺正算符,幺正算符作用到量子态上,使量子态按照要求进行演化。
这么玄幻的东西,长啥样?非常抱歉,大伙都在懵逼中……简单点说,现在所谓的量子计算机,几乎都是没有逻辑编码的。更简单点说,量子计算机暂时还没办法把1变成0、把0变成1。更不客气的说,现在的量子计算机不具备真正意义上的运算能力。
2013年美帝两位计算机科学家S. Aaronson 和A. Arkhipov提出了“波色取样”,通过对经过线性器件处理的玻色子概率分布进行抽样,可以很快求出矩阵常值。啥意思呢?
借个图说明一下,无数的量子比特经过特定的矩阵之后,分布是有一定规律的(如上图),把这些数据统计出来就可以算出矩阵常值。
反正这是一个纯数学问题,说多了我也晕。咱只要知道,这对人工智能极有用处,比如图像搜索、机器学习等。
从学术上说,这并不是一台真正的计算机,于是,科学家们取了个新名字“专用量子计算机”,俗称量子模拟机。
与之对应的就是“通用量子计算机”,这货有量子逻辑门,能把1变0,是真正意义上的量子计算机。
可惜的是,前者商业化速度快赶上摩尔定律了,后者却仍在龟速挪动中。
漫天飞舞的量子计算机
既然阉割版的量子计算机在人工智能方面展现出了诱人前景,那商业巨头们还不得像鲨鱼闻到血腥味。于是,资本一到,量子满天飞。
最早登场的是加拿大D波公司,2011年洛克希德马丁以1000万美元买了D波公司的第一台128量子比特的商业化专用量子计算机D-Wave One,2013年5月Google又以1500万美元买了第二代512量子比特的D-Wave Two,现在D波公司已经推出了2000量子比特的计算机。你没看错,是2000个量子比特,不过,实测情况很尴尬……这擦边球水平快赶上中国乒乓球队了。
2015年谷歌联合其他单位实现了9量子比特;2017年5月咱发布了10量子比特的超导量子计算机;同月,IBM推出了16量子比特;10月,英特尔出了17量子比特;11月IBM直接飙到了50量子比特;2018年1月英特尔跟上了49量子比特……这节奏太紧张,看看图放松一下:
依次是英特尔的“7-Qubit、17-Qubit、49-Qubit”量子芯片原型。
这罐子里的就是IBM的量子计算机,因为是超导材料,需要极低温环境。IBM的量子计算机可供大众网络访问,不过大伙不用去凑热闹了,使用体验和传统计算机毫无差别。打开罐子是这个样子:
有没有觉得,超导量子计算机的造型比光量子计算机科幻很多?这是最新的升级版:
这种地盘,谷歌必然不会缺席,2018年3月号称要推出72位的通用量子计算机,看仔细,是“通用”量子计算机!谷歌欲一举定乾坤,实现“量子霸权”(这是个术语,意思是你们可以歇菜了,我的计算机足够全世界一起用),后来谷歌可能觉得牛皮吹破了,又出来不痛不痒谦虚了一番。
谷歌取名字还是很有一手的,用地球上最古老的树木Bristlecone狐尾松,来命名他们的72量子比特量子计算机。
还有更玄乎的,2015年加州大学圣芭芭拉分校首次发现,人脑认知可能是一种量子效应,于是要把大脑量子计算机化。呃,原来咱们人人都顶着一台量子计算机啊!
总的来说,专用量子计算机(不是通用量子计算机)在美帝融资算是顺利的,谷歌、IBM、英特尔领跑,后面还有亚马逊、高盛、黑莓、微软、惠普,甚至还有CIA的资金。
国内就冷清多了,除了国家投钱,貌似只有“阿里巴巴量子计算联合实验室”,2018年2月上线了11量子比特超导量子计算服务的云平台。
|