神经网络预测的基本原理(当神经网络遇上量子计算)

晓查 发自 凹非寺 量子位 报道 | 公众号 QbitAI

谷歌人工智能量子(Google AI Quantum)团队最近发表了两篇论文,介绍了他们在理解量子计算机学习任务方面取得的新进展。

量子计算,它能给AI技术的发展带来什么帮助吗?

的确可以!

谷歌已经证明了量子计算也能解决传统机器学习中的图像分类问题,而且随着技术发展,量子计算机将在在学习能力上超越经典的神经网络。

另外量子计算还能解决经典网络中一些棘手问题,比如预防出现模型训练中的梯度消失问题。

神经网络预测的基本原理(当神经网络遇上量子计算)(1)

量子神经网络

在第一篇论文中,谷歌构建一个神经网络的量子模型,研究如何在量子处理器上执行神经网络的分类任务。

谷歌把这个模型叫做量子神经网络(QNN),希望它能用在近期出现的量子处理器上。

虽然目前的工作主要是理论上的,但QNN的结构有助于在不久的将来对量子计算机进行实现和测试。

QNN可以通过标记数据的监督学习进行调整,谷歌已经在理论上证明了可以在MNIST数据集上训练它进行图像分类。

谷歌预计,随着量子计算机硬件规模的发展,未来QNN的能力将足够与经典神经网络匹敌,从而实现“量子霸权”。

神经网络预测的基本原理(当神经网络遇上量子计算)(2)

在第二篇论文中,谷歌专注于量子神经网络和经典神经网络训练中的关键难题,即梯度消失或爆炸(vanishing or exploding gradients)的问题。

在传统的神经网络中,神经元权重良好的、无偏见的初始猜测通常与随机性无关,但是在某些情况下也存在一些困难。

量子计算恰恰能解决这方面的问题。

谷歌的论文表明,量子几何(quantum geometry)的独特特征能够阻止某些不良的初始化情况产生,帮助我们进入到到函数的稳定区,防止选取到那些会导致梯度消失的初始化策略。

这项工作对未来初始化和训练量子神经网络的策略具有指导意义。谷歌希望从这些量子几何状态中能获得启发,实现训练网络的新算法。

神经网络预测的基本原理(当神经网络遇上量子计算)(3)

实现量子霸权

谷歌今年在量子计算领域动作频繁。

3月份,谷歌开发出了Bristlecone量子处理器,它拥有72个量子比特,是迄今为止最大的量子芯片。超过了IBM的50量子比特和英特尔的49量子比特。

神经网络预测的基本原理(当神经网络遇上量子计算)(4)

谷歌希望用Bristlecone实现所谓量子霸权,即量子计算机在某些数学计算中的性能完全超过传统超级计算机。

NASA量子人工智能实验室(QuAIL)和谷歌一起,共同研究如何将“各种各样的优化和采样问题”映射到量子计算机上,希望在一年内实现该目标。

谷歌还计划在5年内实现量子计算技术的商业化。但这并不是说谷歌要推出面向市场的量子计算机。

由于超导量子计算机需要保持在接近绝对零度附近,因此不能把它从实验室里搬出来。预计谷歌届时会允许用户通过云API连接到量子计算机上。

论文地址

Classification with Quantum Neural Networks on Near Term Processors:

https://arxiv.org/abs/1802.06002

Barren Plateaus in Quantum Neural Network Training Landscapes:

https://www.nature.com/articles/s41467-018-07090-4

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页