人工智能训练师基础(上册)
上QQ阅读APP看书,第一时间看更新

1.2 人工智能的技术路线

1.2.1 机器学习

在当前的人工智能领域,机器学习,或者更准确地说,“大数据+深度学习”的技术路线已经成为研究的主流。这种主流甚至表现在,只要想对人工智能进行稍微深入一点的了解,就一定会看到“机器学习”这个名词。那么,什么是机器学习?

顾名思义,机器学习试图让机器拥有人类的学习能力。机器学习作为一个术语,最早是由人工智能领域的先驱亚瑟·塞缪尔(Arthur Samuel)在1959年提出的,并表示“它使计算机能够在没有明确编程的情况下进行学习”。而这种学习的目的在于改善系统的性能和效果。

这个解释可能有些抽象,让我们来举个通俗的例子。想象你站在一个篮球场上,现在你需要完成罚球线上的定点投篮。第一次投篮,你用的力气太小,篮球甚至没有接触到篮筐。于是在第二次,你使用了更大的力气,结果这次篮球砸在篮板上弹了出去。到了第三次,你终于找到了最合适的力道,投篮命中。在这个过程中,每一次失败的投篮都是一次经验的累积,通过对这些经验的利用,你才能在最后一次投篮成功。

机器学习的过程也是类似的。计算机使用学习算法(learning algorithm)从数据中累积经验,生成模型(model)——这个过程称为“学习”(learning)或者“训练”(training),训练中使用的数据称为“训练数据”(training data)。之后面对新的情况时,模型就可以帮助计算机做出判断和行动。

具体来说,在确定好任务目标之后,机器学习的过程主要包括以下几步:收集数据——数据预处理——特征提取与处理——选择合适的学习算法进行训练,生成模型——评估模型效果——调整训练过程中的参数、变量,优化模型效果——开始使用。当然,不同的机器学习方式在具体执行过程中采用的方法是有所差别的。根据学习的过程中是否有人类监督,机器学习可以分为监督学习(supervised learning)、无监督学习(un-supervised learning)、半监督学习(semi-supervised learning)和强化学习(reinforcement learning)。

监督学习使用人类事先打好标签的数据集训练模型,然后根据新输入的数据,来判断它的类别,或者预测它的值,也就是所谓的分类和回归。例如,判断你今晚看到的月亮是阴是晴是圆是缺就是分类,而预测未来的月相就是回归。监督学习是机器学习中最常用的类型,其经典算法模型有K-近邻(KNN)、线性回归、朴素贝叶斯、逻辑回归、决策树(decision tree)、支持向量机(support vector machine,SVM)、支持向量回归(SVR)、隐马尔可夫模型(HMM)、条件随机场(CRF)等。

而在无监督学习中,机器学习算法需要在未标注的数据中寻找模式,因为有的时候人工标注的成本很高,或者人类也缺少相关经验无法进行标注。无监督学习不像监督学习拥有明确的任务目标,学习效果也无法量化评估,但可以帮助我们发现一些没有注意到的规律或者趋势。无监督学习最常见的算法是聚类和降维。聚类就是对数据进行特征提取并分类,常用的算法有K均值聚类(K-means)、层次聚类、谱聚类、EM(最大期望)算法、高斯混合模型(GMM)等。降维有点类似压缩,它是使用更少的但更有效的特征来表示数据,常用的算法有主成分分析(PCA)、奇异值分解(SVD)、因子分析(FA)、t分布随机近邻嵌入(t-SNE)等。无监督学习在异常检测、网购推荐中都有所应用。

半监督学习则是综合了监督学习和无监督学习的一种方法,它使用少量的有标签数据和大量的无标签数据进行训练,可以解决监督学习对数据标注的依赖问题,也可以解决无监督学习准确率较低、应用范围有限的问题。半监督学习对无标签数据的使用依赖于半监督假设,当假设正确时,半监督学习才能实现较好的学习性能。半监督学习的三大基本假设包括:①平滑假设(smoothness assumption):彼此更接近的点更有可能具有相同的类别标签。②聚类假设(cluster assumption):数据可以分为离散的集群,同一集群中的点更有可能具有相同的类别标签。③流形假设(manifold assumption):将高维数据嵌入低维流形中,当两点位于低维流形中的一个小局部领域内时,它们具有相同的类别标签。因为是对监督学习和无监督学习的综合,所以分类、回归、聚类、降维这四种方法半监督学习都有,具体如图1-4所示。

图1-4 半监督学习方法

至于强化学习,它与上述机器学习方式的不同之处在于,它采用的是一种奖励的思路:强化学习算法并不需要依靠事先准备好的数据(无论是否有标签)来学习,而是从自身行为获得的奖励多少来累积经验,以最大回报为目标驱动结果的改进。强化学习有五个关键的要素:代理(agent)、环境(environments)、状态(states)、动作(actions)和奖励(rewards)。处在某个环境中的代理在执行了某个动作后,使环境转换到了一个新的状态。环境根据这个新的状态给出奖励信号(正奖励或负奖励),代理根据接收到的奖励反馈和新的环境状态再去执行新的动作。整个过程会不断循环,直到代理获得最大的奖励。这种描述听起来很像游戏,事实上强化学习在游戏中的应用也是最多的。强化学习常用的算法有蒙特卡洛方法(Monte-Carlo learning)、时序差分学习(temporal-difference learning)、SARSA算法、Q-learning算法等。

近年来很火的深度学习其实也是机器学习的一种,但它并不适用于上述的分类标准,因为它是利用人工神经网络来模仿人类大脑的方法。深度学习的起源可以追溯到20世纪40年代,但直到2006年相关研究才取得较大突破,进入快速发展的时期。深度学习的核心过程其实非常简单,一共就三步:选择神经网络架构——确定学习目标——开始学习。目前比较常用的神经网络架构包括深度神经网络(deep neural networks,DNN)、时间延迟神经网络(time delay neural network,TDNN)、深度置信网络(deep belief networks,DBN)、卷积神经网络(convolutional neural networks,CNN)、卷积深度置信网络(convolutional deep belief networks,CDBN)、生成对抗网络(generative adversarial networks,GAN)、循环神经网络(recurrent neural network,RNN)等。这些神经网络架构有非常多的隐藏层(可以多达150个),而传统的神经网络一般只包含2~3个,这也是“深度”这个叫法的由来。和传统机器学习相比,深度学习也非常依赖数据,而且需要的数据量更大,两者在数据准备和预处理方面都是很相似的。它们的差别主要体现在数据特征的提取上,传统机器学习主要依赖人工,而深度学习则是靠算法自动提取的。这也是深度学习会被人诟病可解释性较差的原因。深度学习目前已经应用到了图像分类、语音识别、自然语言处理、自动驾驶汽车等各个细分领域的研究当中,当然,在大众认知中最有名的还是打败了围棋世界冠军的人工智能AlphaGo。

1.2.2 类脑智能计算

虽然机器学习及深度学习已经成为当下人工智能领域主流的技术路线,但是其底层仍未摆脱传统的“冯·诺依曼”计算机体系架构,计算能力依然受限。如果这个载体彻底更换,可能为强人工智能的实现带来新的机会。因此部分研究者提出了类脑智能的想法,希望以生物脑作为参照,利用脑科学的研究成果,构造逼近生物神经网络的电子神经系统,推动人工智能的新发展。

目前深度学习所使用的人工神经网络从其出发点来看,可以算作类脑的尝试,但它实质上只是参考了大脑神经细胞间部分拓扑结构而搭建的数学模型,并非来自生物神经系统的数理解析结果,因此不能算作真正的类脑。从脑科学的发展来看,人类对大脑的认知还十分有限,类脑智能的研究自然也只是处于萌芽阶段,目前的研究方向集中在类脑模型与类脑信息处理、类脑芯片与计算平台等方面。不过,各大国都意识到了脑科学研究的重要性,欧盟、美国、日本、中国等都推出了国家级的脑计划,成立了一批相关的研究机构。未来的类脑智能能否有所突破,还需要脑科学、神经科学、认知科学、计算机科学、人工智能等各领域研究者的共同努力。

1.2.3 量子智能计算

除了类脑智能,还有研究者提出将量子力学与人工智能结合起来,把量子计算作为人工智能发展的另外一条可能的技术路线。

20世纪80年代,诺贝尔物理学奖获得者理查德·费曼(Richard Feynman)有感于经典计算机的局限,提出了量子计算的概念。1994年,贝尔实验室的物理学家皮特·秀尔(Peter Shor)对量子比特的研究,证明了量子计算机在计算速度上的优势,研究者们开始构建具有更多量子比特的量子计算机。2011年,加拿大计算机公司D-Wave制造出了拥有128个量子比特的首台商用量子计算机,量子计算机的研究开始飞速发展。这也从硬件层面促进了量子人工智能的发展。而从国家政策层面来看,欧盟出台的《量子宣言》,以及美国的《量子计算发展白皮书》也都说明了政府层面对这项技术的看好。

目前的量子人工智能主要依靠脑量子场论、神经系统的量子态论、微管引力理论作为理论基础,其研究主要还是集中在对已有机器学习、深度学习的优化上,并没有出现算法上的突破。同类脑智能一样,量子智能的发展还需要更多研究人员的投入。