阿里巴巴研制出全球最强量子电路模拟器“太章”!已成功模拟谷歌随机量子电路

计算
阿里巴巴研制出全球最强量子电路模拟器“太章”!已成功模拟谷歌随机量子电路
麻省理工科技评论 2018-05-09

2018-05-09

5月8日,阿里巴巴量子实验室施尧耘团队宣布于近日成功研制当前世界最强的量子电路模拟器,名为“太章”。
量子物理
5月8日,阿里巴巴量子实验室施尧耘团队宣布于近日成功研制当前世界最强的量子电路模拟器,名为“太章”。

5月8日,阿里巴巴量子实验室施尧耘团队宣布于近日成功研制当前世界最强的量子电路模拟器,名为“太章”。太章取自:《淮南子·墬形训》:“禹乃使太章步自东极至于西极,二亿三万三千五百里七十五步。”“太章”模拟器目的是用一种经典,我们能理解的方式来理解量子的运行,就跟太章徒步测量东极至西极的距离那样。

基于阿里巴巴集团计算平台在线集群的超强算力,“太章”在世界上率先成功模拟了81(9x9)比特40层的作为基准的谷歌随机量子电路,之前达到这个层数的模拟器只能处理49比特。

本次研究成果arXiv论文链接:

https://arxiv.org/abs/1805.01450

同时,本次模拟任务只动用了阿里巴巴计算平台在线集群14%的计算资源。“太章”的创新算法通信开销极小,得以充分发挥平台在线集群的优势,在过去超级计算机上做不了的模拟任务,比如64(8x8)比特40层的模拟,“太章”只需2分钟即可完成。

v2-e3b51dac194f86a99b91777b65b49831_hd.jpg

图丨阿里巴巴“太章”模拟器与目前主要模拟器模拟谷歌随机电路的结果比较

量子计算可能颠覆当前的计算技术,是科学界和工业界研究的前沿热点。但量子计算的实现十分困难。目前,已经实现的高精度量子处理器也只有20几个量子比特。故而规模稍大的量子算法尚无运行的载体。

模拟器的作用在于“承上启下”,往下可以帮助理解、设计硬件,向上可以承载算法和应用的探索和验证。“太章”首次使得测试和验证被称为“中等规模”50-200比特的的量子算法成为可能, 从而为辅助设计中等规模量子算法、量子软件乃至量子芯片提供了一个有力的工具。在通常的量子电路模拟方案中,需要存储量子状态的全部振幅,在此海量数据上同时模拟量子运算。这个方法要求不断地在众多的计算节点间交换数据,造成巨大的通讯开销。因此,过去这样的模拟任务往往都在超级计算机上进行。

实验室团队基于施尧耘教授及其合作者Igor Markov在2005年提出的另一种模拟方案,发明了一个简单而有效的方法分解整个模拟任务,然后十分均衡地把这些子任务分配到不同计算节点上。“太章”的通信开销极小,这个优点使之十分适合分布式的计算平台。

v2-debf3a373ad6339241b98770f393f77b_hd.jpg

图丨“太章”模拟的随机量子电路规模(黑线)与谷歌量子硬件可以实现的规模(红线) 比较(基于谷歌在[Characterizing quantum supremacy in near-term devices]中对7x7的估计)*

作为基准的随机量子电路是谷歌提出为实现“量子霸权”的算法。“量子霸权”指的是量子处理器的规模和精度到达无法被经典计算模拟的程度。谷歌今年3月份提出了未来工作的目标: 72比特高精度的量子处理器。“太章”的结果表明这一计划中的处理器如果只运行该基准算法仍不足于达到量子霸权。

本次研究成果也提交到预印本网站arXiv,文章并列第一作者为量子实验室量子科学家陈建鑫博士与实习生张放,作者还有实习生黄甲辰和Michael Newman博士。阿里巴巴量子实验室由美国密西根大学终身教授、世界著名量子科学家施尧耘担任首席量子技术科学家、量子实验室主任。两次理论计算机最高奖哥德尔奖得主、匈牙利裔美国计算机科学家马里奥·塞格德(Mario Szegedy)于今年年初也加入该实验室。值得关注的是,施尧耘和马里奥·塞格德都已经加入了阿里巴巴打造前沿技术的新机构——达摩院。

*谷歌[Characterizing quantum supremacy in near-term devices]:

https://www.nature.com/articles/s41567-018-0124-x

2017 年 10 月 11 日上午,在 2017 杭州·云栖大会上,阿里巴巴集团 CTO 张建峰正式宣布成立执行“NASA 计划”的实体组织、阿里巴巴全球研究院——“达摩院”,预计 3 年的时间内投入 1000 亿人民币,进行基础科学和颠覆式技术创新研究。时至今日,达摩院已经有了初步的一些动作。例如,今年 4 月 20 日,阿里巴巴就宣布全资收购中国大陆唯一的自主嵌入式 CPU IP Core 公司——中天微系统,同时就有新闻传出达摩院正研发一款神经网络芯片——Ali-NPU,预计性能是主流 AI 芯片的 10 倍,将运用于图像视频分析、机器学习等 AI 推理计算。

不到一个月,达摩院就再下一城,5 月 3 日,阿里巴巴就宣布完成了对先声互联的收购,先声互联创始人、中科院声学所前研究员付强博士入职达摩院,负责语音交互前端处理技术和方案的研发。达摩院将实行院长负责制,由阿里巴巴集团 CTO 张建锋担任首任院长,其秉持着“以科技,创新世界”的使命,与阿里巴巴现有研发体系保持相对独立,潜心研究面向未来的核心科技。

据悉,阿里巴巴达摩院由全球建设的自主研究中心、与高校和研究机构建立的联合实验室、全球开放研究项目——阿里巴巴创新研究计划(AIR 计划)三大部分组成,囊括量子计算、机器学习、基础算法、网络安全、视觉计算、自然语言处理、人机自然交互、芯片技术、传感器技术、嵌入式系统等,涵盖机器智能、智联网、金融科技等多个领域。

自主研究中心:阿里巴巴达摩院将构建亚洲达摩院、美洲达摩院及欧洲达摩院三大全球分部,并在北京、杭州、新加坡、以色列、圣马特奥、贝尔维尤、莫斯科等地设立不同研究方向的实验室,初期计划引入 100 名顶尖科学家。

产学研合作共同体:目前已建立了浙江大学—阿里巴巴前沿技术联合研究中心、UC Berkeley RISE 实验室、清华大学—蚂蚁金服金融科技联合实验室和中国科学院—阿里巴巴量子计算实验室。

全球开放研究项目:现主要为阿里巴巴创新研究计划(AIR 计划),据了解,该计划覆盖了包括自然语言处理、机器学习、计算技术、数据中心等 14 个前沿技术领域的、29 个来自业务一线的技术研究课题。旨在解决社会经济发展中的“新技术”难题。

而其中最重要的,就是延续阿里云在2015年宣布联合中科院成立一个全新的实验室,共同开展在量子信息科学领域的前瞻性研究,研制量子计算机。当天,“中国科学院-阿里巴巴量子计算实验室”正式在上海成立。

量子实验室由美国密西根大学终身教授、世界著名量子科学家施尧耘担任首席量子技术科学家、量子实验室主任。两次理论计算机最高奖哥德尔奖得主、匈牙利裔美国计算机科学家马里奥·塞格德(Mario Szegedy)于今年年初也加入该实验室。实验室正处于人才引进的高速增长时期。

两年的时间过去,量子实验室在2017年推出全球首部光量子计算平台,与主流的Gate Model,或者是理论上最为成熟的Annealing等超导量子计算走上完全不同的量子计算道路。光学的逻辑门操作主要通过偏振片实现,而超导方案则是通过射频信号来实现,其次,光学量子计算主要以光子的偏振自由度、角动量等作为量子比特的变化量测对象,而超导量子计算基于约瑟夫森结,可以是flux或者charge作为量子比特。

不过光量子技术在量子比特的增加难度上要远高于传统超导量子计算,2017年提出的架构为10量子比特的架构,相较超导量子计算方案最高已经达到72量子比特仍有相当大的进步空间。而为了为往后研发量子计算铺平道路,阿里巴巴这次提出了针对量子计算平台专用的量子电路模拟器。


为何要模拟量子电路?

量子计算可能颠覆当前的计算技术,是科学界和工业界研究的前沿热点。但量子计算的实现十分困难。目前,已经实现的高精度量子处理器也只有20几个量子比特。故而规模稍大的量子算法尚无运行的载体。模拟器的作用在于“承上启下”,往下可以帮助理解、设计硬件,向上可以承载算法和应用的探索和验证。“太章”首次使得测试和验证被称为“中等规模”50-200比特的的量子算法成为可能, 从而为辅助设计中等规模量子算法、量子软件乃至量子芯片提供了一个有力的工具。

在通常的量子电路模拟方案中,需要存储量子状态的全部振幅,在此海量数据上同时模拟量子运算。这个方法要求不断地在众多的计算节点间交换数据,造成巨大的通讯开销。因此,过去这样的模拟任务往往都在超级计算机上进行。

实验室团队基于施尧耘教授及其合作者Igor Markov在2005年提出的另一种模拟方案,发明了一个简单而有效的方法分解整个模拟任务,然后十分均衡地把这些子任务分配到不同计算节点上。“太章”的通信开销极小,这个优点使之十分适合分布式的计算平台。在量子计算目前的模型中,有一类是量子电路模型,实现形式是将信息存储在量子比特中,通过类似经典逻辑门的量子门来实现计算。达摩院量子实验室团队量子科学家陈建鑫与实习生张放实现了一种基于分布式的通用量子电路模拟方案,并基于研究的模拟器对谷歌第一版的随机量子电路进行了测试。利用阿里计算平台的在线集群的少量计算资源(14%左右)实验室团队成功使用“太章”模拟器模拟了9x9 x40也就是81比特40层随机电路,还分别成功模拟了100比特35层(10x10x35), 121比特31层(11x11x31)与144比特27层(12x12x27)的随机量子电路,可以说是量子计算产业中最重要的成就之一,不下于量子计算架构本身。


量子技术的重要性

量子计算代表的是算力的猛爆性成长,中科院曾经对量子计算进行了简单的解释:传统计算使用二进制的运算规则,通过0和1记录信息状态,每一个计算步骤能做到的只有2的一次方,2次运算。而量子计算器则是由量子状态来描述信息,比如,2个量子态(亦可称作2个比特)的量子计算器,每一步骤可做到2的2次方,也就是4次运算。3个比特的量子计算器,每一步可以对信息做到2的3次方,8次计算。这就是量子叠加,能同时处于两种状态的量子能并行处理两个问题,相当于左手和右手同时都能写作业,而每增加一个量子,这样的能力还要继续翻倍。

我们可以用一个理想实验来比拟:也就是通过装在盒子里面的猫来表达量子状态,盒子里面同时装着猫和毒气设备,若毒气释放出来,猫就会死,然而根据量子力学原理,在打开盒子前,这只猫会同时存在死和活的叠加状态,但只要打开盒子,猫的状态就会塌陷成一种,也就是非死即活,这也造成了量子的不稳定性。

以上就是著名的”薛丁格的猫”实验,当然,DT君鼓励各位吸猫,但不鼓励各位进行这种危险的实验。而前面提到的量子状态叠加,其实就是量子纠缠的表现,当两个粒子距离够近,它们就会纠缠在一起,而纠缠过后的两个粒子即便分开,还是会持续互相影响,而且不论距离多远。也因为这个特性,量子纠缠除了被应用来作为计算,也被使用来发展新的通讯技术。

由于量子计算所能带来的算力成长远超过目前半导体IC所能达到的程度,加上目前半导体工艺已经迈入瓶颈,未来工艺的发展只能是大者恒大,台积电做为全球半导体工艺霸主,可说已经是无法改变的事实,而中国若走上既有的半导体发展路线,即便投入再多资本,仍绝不可能实现弯道超车这个目标,也因此,量子计算的发展也成为国家极为重视的项目。而阿里巴巴除了是依循国家政策推动量子计算发展,同时也是要确保其云计算生态未来能够通过量子计算的庞大算力取得更大的市场优势。


量子技术的发展

现在在全球范围的量子计算发展中,进展最快的有3类量子计算机:光量子计算机、超冷原子量子计算机、超导量子计算机。

超导量子计算可以说是最普遍的量子技术,IBM、英特尔和Google正在发展的Gate Model量子计算架构皆属于超导量子计算,知名的Annealing量子退火技术技术是由D-Wave独家开发,同样属于超导量子计算,但比较偏向专用算法,而非通用。而继IBM于2017年底发表50量子比特的量子计算机之后,英特尔也在2018年CES上发表49量子比特的架构,Google甚至在今年三月对外展示72量子比特的方案。随着可同时运作的量子比特数不断增加,代表可实用化的量子计算已经越来越接近现实世界,甚至可能影响整个数字世界。

一般而言,如果要建造一个2000Qubit的量子计算器,就必须在芯片上集成200万个以上的Qubit单元,而IBM所使用的Gate-Model架构,就必须使用高达数百万个Qubit以上,因此在芯片成本或者是芯片的设计复杂度上,Gate-Model远复杂于非通用的标准Annealing架构。值得注意的是,微软主导的TopoLogical量子计算架构使用了Majorana particle(马约拉纳粒子),微软研究人员称之为天使粒子,来作为量子计算的核心,理论上,要建造一个1Qubit的TopoLogical量子计算器,只需要一个Majorana particle,而不需要额外的纠错设计,就理论上而言,会是个极具竞争力的量子计算架构。然而Majorana particle目前只存在于理论上,微软还在寻求技术上的突破,但根据其最新的报告,这种新粒子似乎已经有了眉目,如果真的获得突破,有可能一举扭转微软在量子计算的落后地位。

D-Wave的Annealing技术虽然有其应用限制,但是理论最成熟,实作也最快,复杂度也相对可接受,借此能够领先业界十年,推出世界上首部商用的量子计算器。但随着物理模拟、新药合成、空间探索,甚至区块炼的量子化等多元计算场景不断被提出,推动量子计算架构的大公司期望能够让量子计算深入所有的应用领域,通用化就成为重点。也因此,谁能够先推出算力够大,且更易于生产的量子计算平台,谁就有可能掌握量子霸权。虽然超导量子计算由国际大厂领头,但光量子计算就可说是中国量子计算发展的重要里程碑,由中国科学技术大学潘建伟院士、陆朝阳教授领导的团队打造出全球首个光量子计算平台。而这也是阿里巴巴的共同发展成果。


Google的72量子比特计算架构仍不足以成就霸权

作为基准的随机量子电路是谷歌提出为实现“量子霸权”的算法。“量子霸权”指的是量子处理器的规模和精度到达无法被经典计算模拟的程度。谷歌今年3月份提出了未来工作的目标: 72比特高精度的量子处理器。“太章”的结果表明这一计划中的处理器如果只运行该基准算法仍不足于达到量子霸权。本次研究成果也提交到预印本网站arXiv,文章并列第一作者为量子实验室量子科学家陈建鑫博士与实习生张放,作者还有实习生黄甲辰和Michael Newman博士。

麻省理工科技评论

From Tech to Deeptech