前两天,谷歌正式公布了自己正在测试新一代量子计算处理器 —— Bristlecone ↓ ↓
这个芯片破天荒的有 72 量子比特,让科研界一片惊呼。。。
考虑到不少差友们对量子计算方面并不太理解,差评君来给大家说一下~
一般来讲,传统计算机靠的是数字 0 和 1 的二进制进行存储和运算。
学过电路的人肯定很熟悉
而量子计算机不一样。
量子计算机里面用量子比特( 也叫量子位 )来储存 0 或者 1,但和传统计算机的区别是,量子比特里面储存的 0 和 1 可以同时存在。
薛定谔的猫在观测之前既是活的也是死的
举个栗子, 0 就像硬币的正面, 1 就像硬币的反面,传统计算机里面,每次抛硬币只能得到正面或者反面,因此也只能是 0 或者 1。
而在量子计算机里面,硬币是立起来旋转的,它既有正面也有反面,同时存在 0 和 1 ~
如果你有两个硬币,在传统计算机这边,在同一时刻,你只能得到正正、正反、反正、反反这四种状态中的一种。而在量子领域里面,你可以同时得到正正、正反、反正、反反这四种状态!
再举个栗子。
传统计算机要获得下图中走迷宫的正确路径,只能一次走一条道,然后一条条试,直到试出来正确的道。
而量子计算机的走迷宫效率类似下面这个图,它能在一次尝试所有可能的解法 ↓↓
这简直就是开挂!
想想,人工智能、机器学习发展的瓶颈是什么,为什么目前的人工智能看起来更像人工智障?
现在的机器学习,往往试图通过样本学习得出问题的最优解,往往这需要庞大的算力支撑,当算力不够,它在短时间得出的解决方法经常不是最优的。
据说如果能同时控制 50 个量子比特做运算,那么它的算力就将远远超过现在世界上最快的超级计算机,什么机器学习之类都是小意思~
50 个量子比特在同时发生 2^50 次运算
不过量子计算的发展,也不是没弊端。
譬如,如今所有的密码都可以用量子计算机瞬间暴力破解,传统加密方式在量子计算机面前根本没有意义,个人的、银行的、机关的,就连区块链的秘钥被试出来也就是分分钟的事。。。
(现有的加密算法 图片源自博客 Jason Time )
那这次谷歌带来 72 量子比特的计算芯片,难道我们的密码已经不安全了?
Emmm。。。谷歌的芯片是 72 量子比特处理器确实不假,但是目前这种芯片只能做几种特定的运算,拿它做成的计算机,既不能用来放电影,也不能编辑文档,离商用有很大的距离,所以说暂时对我们的生活还没有太大的影响。
不过万事开头难,想想当初人类第一台计算机也啥都干不了,只能解个线性方程组,哪知道现在计算机都快被人玩儿成精了。。。
世界第一台电脑
这么先进的玩意儿,谷歌之前就有很多人在搞了。
譬如,IBM 在今年的 CES 上也展示了 50 量子比特的量子计算机原理样机。
诶,有没有发现 IBM 的量子计算机贼鸡儿大,而且结构非常复杂?
因为使用超导技术的量子计算芯片运行的条件十分苛刻,要隔音、隔热、隔电磁、运行温度接近绝对零度( ≈ -273° ),整个图片几乎都是外边那些隔离装备,芯片只占最中间一点点。。。
其实这个图片上还没有连接冷却系统,正常一整套装备要占 10 平方米!
最早的量子计算机 DWave 的整套
同样是在 CES 展上,英特尔也推出了 49 量子比特 Tangle Lake 量子计算测试芯片。
CES 英特尔展示的 49 量子比特芯片
据英特尔的说法,这个小小的芯片,计算能力相当于 5000 个八代 i7 ~
国外群雄争霸,大家肯定也想知道一下国内的研究进展吧。
量子计算机的量子比特控制,分为好几个派系,最主流派系应该就是超导体系,英特尔、IBM、谷歌用的都是这种,这个方向我国去年实现了 10 超导量子比特的纠缠。
我国实现 10 超导量子比特的纠缠态
大家看到我国只有 10 量子比特纠缠,可能会觉得比谷歌 72 位量子芯片差远了?。。。
其实并不是,量子比特非常难操纵,条件又苛刻,谷歌的这个 72 量子比特的芯片用的是 9 量子比特纠缠技术,我国的 10 量子比特纠缠依然算顶尖的研究了~
另一种是光子体系,用激光控制粒子纠缠,这个领域,中科大的潘建伟团队也是最顶尖的,去年已经构建出世界首台 10 比特光量子计算机。
光量子计算机的示意图
还有一些其他体系,超冷原子体系、离子阱体系之类的,研究的人倒不算多。
虽然现在量子技术飞速发展,但离实用还差的远。。
记着,那些打着 “ 量子 ” 的名号治病转运发财之类的,全 tm 是骗人的!
原文发布时间为:2018-03-08
本文作者:差评
本文来源:好奇心日报,如需转载请联系原作者。