量子机器学习


整理的量子机器学习算法,学习材料和库

Main Architecture




简介

为啥搞量子机器学习

'量子计算'和'机器学习'成为了业界的一种流行语,当你把两者结合在一起时,它就成了一个超级流行词。
今天,初级量子处理器完全能够匹配机器学习的需求,这种计算机通过对大量数据的操作,解析出传统计算机无法识别的细微模式,并且不会因数据的不完整或不确定性而受到影响。目前,机器学习和量子计算相结合的研究主要集中在使用初期的量子计算机来加速机器学习算法,或是使用传统的机器学习系统,来增加量子计算机的能量、持久性和效率。其最终计划是:使用基于小型化量子计算机的机器学习技术,更好的改进、理解和表达大型量子信息数据或复杂量子计算结果。
为什么这个领域每天都在蓬勃发展?从商业的角度来看,8-10年前,在机器学习的起始时间里,最大的障碍是将数学合并到计算领域。然后,像谷歌、IBM、微软这样的顶级公司决定成立一个团队,由数学家、博士和计算机科学家组成,在这个领域提出各种各样的想法。这个团队的成功创造了一些美妙的产品,他们开始使用这个产品提供云服务。现在我们处于这个阶段
那么下一步呢?当数学达到时空穿梭的水平,但是计算仍然在经典力学下运行。这些公司明白,计算领域必须从经典到量子,他们开始在大量子计算领域工作,市场把这个领域称为量子信息科学。从谷歌和IBM开始,量子计算处理器(D-Wave)开始了。量子计算机科学和量子信息科学领域将在未来10年内发生重大变化。(googleibm)
参考



基础知识

什么是量子力学

当时在一项关于电子脱离原子的经典力学研究中,发现了原子内部振动的量子力学

什么是量子计算

一种同时使用多比特并行执行多个进程的方法

量子计算 vs 经典计算



量子计算

原子结构

电子沿椭圆轨道绕核子运动

atom

光波

光通常被称为波,以光子的形式传播,与固体粒子中的原子相似

Photon wave

电子涨落自旋

当激光与固体粒子碰撞时,电子会在原子的任意层之间自旋

Spin

量子态

在自旋电子上放一个点,如果点在顶部,则状态为1,处于底部状态0

States

叠加(SuperPosition)

在电子自旋过程中,点可能位于上下位置的中间,因此需要对点的位置进行有效的确定。更好的选择是用概率和其他电子一起分析它,这被称为叠加

SuperPosition

机器学习的叠加(量子游走

由于计算的复杂性,量子计算只考虑有限电子之间的叠加,以便合并多个集合的量子游走

SuperPosition specific for machine learning

经典比特

如果电子从一个原子移动到另一个原子,从基态到激发态,则使用比特值1,否则使用比特值0

Classical Bits

量子比特(量子位元)

一组电子的态的叠加值是量子比特

Qubit

量子计算中的逻辑门

和NOT, OR, AND一样,逻辑门可以用量子门来实现,如:NOT, Hadamard门, SWAP, 相移 等

Basic Gates in Quantum Computing

量子二极管

量子二极管使用与普通二极管不同的想法,一束激光光子触发电子自旋,量子磁通将捕获信息

Diodes in Quantum Computing1
Diodes in Quantum Computing2
Diodes in Quantum Computing3

量子晶体管

晶体管默认有源极、漏极和栅极,这里的源是光子波,漏极是通量,栅极是经典的量子比特。

Quantum Transistors1
Quantum Transistors2

量子处理器

一种纳米集成电路,执行量子门操作,通过冷却单元来减少大量的热量

Quantum Processor1
Quantum Processor2
Quantum Processor3

量子寄存器 QRAM

结合正常RAM,其超快和非常小的尺寸,地址位置可以使用量子位叠加值进行访问,对于非常大的内存集,使用相干叠加(地址的地址)

QRAM1
QRAM2



量子计算 - 机器学习

复数

通常波在N维结构中,求多项式方程n阶曲线,更好的选择是复数

Complex Numbers1
Complex Numbers2
Complex Numbers3

张量

向量在二维向量空间中有一个方向,如果在n维向量空间中,向量方向可以用张量指定,找到N向量电子自旋空间的叠加的最佳解是将向量表示为张量,并做张量演算。

Tensors1
Tensors2
Tensors3
Tensors4

张量网络

像连接多个向量一样,多个张量构成一个网络,解决这样一个网络可以降低处理量子位的复杂度

Tensors Network1
Tensors Network2
Tensors Network3



量子机器学习算法

量子 KNN 算法

质心(欧几里得距离)可以通过使用量子位的两个状态之间的交换门测试来检测,因为KNN是正则性损失,可以用平均值来计数

量子 K-Means

两种方法, 1. 用FFT和iFFT建立oracle并计算叠加 2. Adiobtic Hamiltonian 生成并求解哈密顿量来确定聚类

量子模糊 C-Means

与kmeans fcm类似,也使用oracle方言,但是这里的oracle优化之后是一个量子旋转门

量子支持向量机SVM

与上面有点不同的是,这里内核整个训练都在Oracle中,oracle会进行分类,因为SVM是线性的,所以需要基于回归的最优误差(最小二乘对偶公式的最优)来提高性能

量子遗传算法

这是最适合量子场的算法之一,在这里染色体作为量子位向量,交叉部分由一个评估携带,突变部分由量子门的旋转携带

Flow Chart

量子HMM

由于HMM已经是基于状态的,这里的量子态对于马尔可夫链来说是正常的,状态间的转换是基于概率分布的量子运算

Flow Chart

基于贝叶斯方法的量子态分类

量子贝叶斯网络使用量子态具有相同的状态概念,但这里的状态分类使训练数据可重用是基于状态密度(干扰)的

Bayesian Network Sample1
Bayesian Network Sample2
Bayesian Network Sample3

量子蚁群优化

一个处理多维方程的好算法,ACO适合销售人员问题,QACO适合于三个或更多个维度的销售人员,这里的量子旋转电路做peromene更新和基于量子位在复杂空间中进行群体通信

Ant Colony Optimization 1

量子细胞自动机

这是一种非常复杂的算法,特别适用于多项式方程和设计一个问题的乐观门,这里使用量子态形成晶格,时间计算是基于两个量子位之间的状态的变化,最适合用于纳米电子

Quantum Cellular Automata



量子神经网络

QNN 1

这是最难的话题之一,简单理解就是,正常神经网络正在做并行处理,量子神经网络并行处理并行过程,理论上各种激活函数的组合都可能出现在量子神经网络中,正常神经网络中多于一个激活函数就会减少性能和增加复杂性

量子感知器

感知器(层)是神经网络中的基本单元,感知器的量子版本必须同时满足线性和非线性问题,量子概念是线性(叠加演算)和非线性(状态逼近使用概率)的组合,为了制造感知器 在量子世界中,需要非线性到一定极限的转换(激活函数),这是携带了相位估计算法

Quantum Perceptron 1
Quantum Perceptron 2
Quantum Perceptron 3
Quantum Perceptron 4
Quantum Perceptron 5



量子统计数据分析

quantumstatistics1
quantumstatistics2
quantumstatistics3
quantumstatistics4
quantumstatistics5
quantumstatistics6

一个正在研究的概念,可以用多种方式来看待,如果你想在当前的经典理论中把一个问题的n导数应用到它的序列化问题上,那么最好的方法就是它,而如果你做了差异化的并行化,那么你必须通过概率来估计 所有流量的值,量子概率有助于实现这一目标,因为损失计算非常少。 另一种相对蓬勃的方式是量子贝叶斯主义,它是解决大部分统计中的不确定性问题的解决方案,以在高度先进的物理研究中结合时间和空间



量子编程语言、工具和软件

全部

所有编程语言,软件和工具按字母顺序排列



热点话题

深度量子学习

为啥要搞深度学习?
实际上机器学习(矢量数学) ,深度学习(矢量空间(图形)数学)和大数据是大公司为了在市场上形成趋势而创造的术语,但是在科学和研究中没有这样的词,现在如果你问一个在这些大公司工作的初学者,什么是深度学习,你会得到一些回复:“对使用卷积神经网络的无监督数据进行随机梯度的线性回归”,他们清楚地知道这些术语,并知道如何使用它进行编程一堆“相关数据”,如果你问他们关于FCM,SVM和HMM等算法,他们会简单地说这些算法是古代算法,深度学习可以全部替代。但实际上他们并不知道AI从诞生到现在,算法和数学的有效性,有多少关于矢量,空间,张量等的数学定理来解决这个“隐藏复杂性技术”,他们没有玩过像医学图像,天文图像,地质图像等真实的非相关数据,找到一个关系和特征是非常复杂的,并且在n个图像上循环做模式匹配是一项巨大的工作,如今,所谓的“深度学习”(即多重隐藏的人工神经网络)并不适用
为啥要搞量子深度学习或深度量子学习?
在人工神经网络研究中,人们意识到在极端极端情况下,只有某些数学运算可能与人工神经网络有关,而且这个ANN的目标是实现许多数学运算的并行执行。在人工智能中,世界智能代表数学,如果一个问题是可以解决的,那么如何有效地解决问题就是基于数学逻辑在问题上的应用,更多的逻辑将赋予更多的性能(更智能),这个目标打开了量子人工神经网络的大门,在深度学习背后思想应用到量子力学环境,可以将复杂的数学方程应用到n个非关系型数据中,找到更多的特征,从而提高性能



量子机器学习 vs 深度学习

最近很多来自产品公司的员工,比如谷歌,微软等等,更多使用“深度学习”这个词
他们对所有问题的一个答案就是深度学习=并行“for”循环,不过,它是重复执行多个任务并降低计算成本的有效方式,但它在数学和计算机科学之间引入了一个大的上限
所有基于串行处理的经典算法都依赖于第一个循环的反馈,在多个集群中应用串行经典算法不会得到好的结果;但一些轻量级的并行经典算法(深度学习)可以在多个集群中执行,可是不适合复杂的问题,那么有什么解决方案?
量子机器学习,背后的优势在于深度学习只是简单地在数据上进行批量处理,而量子机器学习则根据算法进行批量处理
产品公司意识到了这一点,他们开始迁移到量子机器学习,并执行经典的量子概念算法,给出了比经典计算机上的深层学习算法更好的结果,他们的目标是合并两者,得到更好的结果
参考



综合量子研究论文



最新的量子论坛、网页和时事更新