联系我们

张钹院士发表《迈向第三代人工智能》(全文)

2020-11-04

人工智能(ArtificialIntelligence,简称AI)在60多年的发展历史中,一直存在两个相互竞争的范式,即符号主义与连接主义(或称亚符号主义)。符号主义(即第一代人工智能)到上个世纪八十年代之前一直主导着AI的发展,而连接主义(即第二代人工智能)从上个世纪九十年代逐步发展,到本世纪初进入高潮,大有替代符号主义之势。但是今天看来,这两种范式只是从不同的侧面模拟人类的心智(或大脑),具有各自的片面性,不可能触及人类真正的智能。

清华大学人工智能研究院院长、中国科学院院士张钹教授在「纪念《中国科学》创刊70周年专刊」上发表署名文章,首次全面阐述第三代人工智能的理念,提出第三代人工智能的发展路径是融合第一代的知识驱动和第二代的数据驱动的人工智能,同时利用知识、数据、算法和算力等4个要素,建立新的可解释和鲁棒的AI理论与方法,发展安全、可信、可靠和可扩展的AI技术,这是发展AI的必经之路。

2018年成立以来,清华大学人工智能研究院本着「一个核心、两个融合」的发展战略,大力推动人工智能的基础理论和基本方法的源头性和颠覆性创新,在人工智能基础理论、关键技术和产学研合作等诸方面取得了创新成果。人工智能的序幕刚刚拉开,正剧正在上演。基础研究是科技创新的源头,尤其在当前复杂多变的国际环境下,更需要提升我国的原始创新能力,久久为功,努力实现人工智能领域更多「从01」的突破。

以下全文刊载张钹院士的文章《迈向第三代人工智能》。


第一代人工智能

人类的智能行为是怎么产生的,纽威尔(A.Newell)、西蒙(H.A.Simon)等[14]提出以下模拟人类大脑的符号模型,即物理符号系统假设。这种系统包括:1)一组任意的符号集,一组操作符号的规则集;

2)这些操作是纯语法(syntax)的,即只涉及符号的形式不涉及语义,操作的内容包括符号的组合和重组;

3)这些语法具有系统性的语义解释,即它所指向的对象和所描述的事态。

1955年麦卡锡(J.McCarthy)和明斯基(M.L.Minsky)等学者[5],在达特茅斯人工智能夏季研究项目(theDartmouthSummerResearchProjectonArtificialIntelligence)的建议中,明确提出符号AIartificialintelligence)的基本思路:「人类思维的很大一部分是按照推理和猜想规则对words)进行操作所组成的」。根据这一思路,他们提出了基于知识与经验的推理模型,因此我们又把符号AI称为知识驱动方法。

符号AI的开创者最初把注意力放在研究推理(搜索)的通用方法上,如「手段目的分析」(meanendanalysis)、「分而治之」(divideandconquer)、「试错」(trialanderror)法等,试图通过通用的方法解决范围广泛的现实问题。由于通用方法是一种弱方法,实际上只能解决「玩具世界」中的简单问题,如机器人摆放积木,下简单的井字棋(tic-tac-toe)等,与解决复杂现实问题相差很远。寻求通用AI的努力遭到了失败,符号AI20世纪70年代初跌入低谷。

幸运的是,斯坦福大学教授费根堡姆(E.A.Feigenbaum)等及时改变了思路,认为知识,特别是特定领域的知识才是人类智能的基础,提出知识工程(knowledgeengineering)与专家系统(expertsystems)等一系列强AI方法,给符号AI带来了希望。他们开发了专家系统DENDRAL(有机化学结构分析系统,19651975[6],随后其他学者相继开发了MYCIN(血液传染病诊断和抗菌素处方,19711977[7]XCON(计算机硬件组合系统)等。不过早期的专家系统规模都较小,难以实用。

直到19975IBM的深蓝(deepblue)国际象棋程序打败世界冠军卡斯帕诺夫(Kasparov),符号AI才真正解决大规模复杂系统的开发问题。费根堡姆和雷蒂(R.Raddy)作为设计与构造大型人工智能系统的先驱,共同获得1994ACM图灵奖。

符号AI同样可以应用于机器学习,把「机器学习」看成是基于知识的(归纳)推理。下面以归纳逻辑编程(inductivelogicprogrammingILP[8]为例说明符号AI的学习机制。在ILP中正负样本(具体示例)、背景知识和学习结果(假设)都以一阶逻辑子句(程序)形式表示。学习过程是在假设空间中寻找一个假设,这个假设应尽可能多地包含正例,尽量不包含负例,而且要与背景知识一致。一般情况下假设空间很大,学习十分困难,不过有了背景知识之后,就可以极大地限制假设空间,使学习变成可行。显然,背景知识越多,学习速度越快,效果也越好。

为解决不确定问题,近年来,发展了概率归纳逻辑编程方法(probabilisticinductivelogicprogrammingPILP[9]。基于知识的学习,由于有背景知识,可以实现小样本学习,而且也很容易推广到不同的领域,学习的鲁棒性也很强。以迁移学习(transferlearning[10]为例,可以将学习得到的模型从一种场景更新或者迁移到另一场景,实现跨领域和跨任务的推广。

具体做法如下,首先,从学习训练的环境(包括训练数据与方法)出发,发现哪些(即具有某种通用性)知识可以跨域或者跨任务进行迁移,哪些只是针对单个域或单个任务的特定知识,并利用通用知识帮助提升目标域或目标任务的性能。这些通用知识主要通过以下4种渠道迁移到目标域中去,即源域中可利用的实例,源域和目标域中可共享的特征,源域模型可利用的部分,源域中实体之间的特定规则。可见,知识在迁移学习中起关键的作用,因此,符号AI易于跨领域和跨任务推广。

在创建符号AI中做出重大贡献的学者中,除费根堡姆和雷蒂(1994)之外,还有明斯基(1969),麦卡锡(1971),纽威尔和西蒙(1975)共6位先后获得图灵奖(括号中的数字表示获奖的年份)。总之,第一代AI的成功来自于以下3个基本要素。以深蓝程序为例,第1是知识与经验,「深蓝」从象棋大师已经下过的70万盘棋局和大量56个棋子的残局中,总结出下棋的规则。另外,在象棋大师与深蓝对弈的过程中,通过调试「评价函数」中的6000个参数,把大师的经验引进程序。第2是算法,深蓝采用α−β剪枝算法,有效提高搜索效率。第3是算力(计算能力),为了达到实时的要求,深蓝使用IBMRS/6000SP2,11.38GFLOPS(浮点运算/秒),每秒可检查2亿步,或3分钟运行5千万盘棋局(positions)。

符号AI有坚实的认知心理学基础,把符号系统作为人类高级心智活动的模型,其优势是,由于符号具有可组合性(compositionality),可从简单的原子符号组合成复杂的符号串。每个符号都对应着一定的语义,客观上反映了语义对象的可组合性,比如,由简单部件组合成整体等,可组合性是推理的基础,因此符号AI与人类理性智能一样具有可解释性和容易理解。符号AI也存在明显的局限性,目前已有的方法只能解决完全信息和结构化环境下的确定性问题,其中最具代表性的成果是IBM「深蓝」国际象棋程序,它只是在完全信息博弈(决策)中战胜人类,这是博弈中最简单的情况。而人类的认知行为(cognitivebehavior),如决策等都是在信息不完全和非结构化环境下完成的,符号AI距离解决这类问题还很远。

以自然语言形式表示(离散符号)的人类知识,计算机难以处理,必须寻找计算机易于处理的表示形式,这就是知识表示问题。我们已有的知识表示方法,如产生式规则(productionrules),逻辑程序(logicprogram)等,虽然计算机易于处理(如推理等),但都较简单,表现能力有限,难以刻画复杂和不确定的知识,推理也只限于逻辑推理等确定性的推理方法。更加复杂的知识表示与推理形式都在探讨之中,如知识图谱(knowledgegraph[11]、概率推理等[12]。符号AI缺乏数学基础,除数理逻辑之外,其他数学工具很难使用,这也是符号AI难以在计算机上高效执行的重要原因。

基于知识驱动的强AI只能就事论事地解决特定问题,有没有广泛适用的弱方法,即通用AI,目前还是一个值得探讨的问题。此外,从原始数据(包括文本、图像、语音和视频)中获取知识目前主要靠人工,效率很低,需要探索有效的自动获取方法。此外,真正的智能系统需要常识,常识如何获取、表达和推理还是一个有待解决的问题。常识的数量巨大,构造一个实用的常识库,无异于一项AI的「曼哈顿工程」,费时费力。


第二代人工智能

感官信息(视觉、听觉和触觉等)是如何存储在记忆中并影响人类行为的?有两种基本观点,一种观点是,这些信息以某种编码的方式表示在(记忆)神经网络中,符号AI属于这一学派。另一种观点是,感官的刺激并不存储在记忆中,而是在神经网络中建立起「刺激响应」的连接(通道),通过这个「连接」保证智能行为的产生,这是连接主义的主张,连接主义AI就是建立在这个主张之上。

1958年罗森布拉特(Rosenblatt)按照连接主义的思路,建立一个人工神经网络(artificialneuralnetworkANN)的雏形——感知机(perceptron[1314]。感知机的灵感来自于两个方面,一是1943年麦卡洛克(McCulloch)和皮特(Pitts)提出的神经元数学模型——「阈值逻辑」线路,它将神经元的输入转换成离散值,通常称为M-P模型[15]。二是来自于1949年赫布(D.O.Hebb)提出的Hebb学习率,即「同时发放的神经元连接在一起」[16]。感知机如图1所示。

其中b为阈值,w为权值。

AI的创建者从一开始就关注连接主义的思路。1955年麦卡锡等在达特茅斯(DartmouthAI研究建议中写道「如何安排一组(假想的)神经元使之形成概念……已经获得部分的结果,但问题是需要更多的理论工作」[5],并把它列为会议的研讨内容之一。由感知机组成的ANN只有一个隐蔽层,过于简单。明斯基等[17]1969年出版的书《感知机》中指出,感知机只能解决线性可分问题,而且即使增加隐层的数量,由于没有有效的学习算法,感知机也很难实用。明斯基对感知机的批评是致命的,使刚刚起步的连接主义AI跌入低谷达10多年之久。在困难的时期里,在许多学者的共同努力下,30多年来无论在神经网络模型还是学习算法上均取得重大进步,逐步形成了深度学习的成熟理论与技术。

其中重要的进展有,第1,梯度下降法(gradientdescent),这本来是一个古老的算法,法国数学家柯西(Cauchy[18]早在1847年就已经提出;1983年俄国数学家尤里·涅斯捷诺夫(YuriiNesterov[19]做了改进,提出了加强版,使它更加好用。第2,反向传播(backpropagationBP)算法,这是为ANN量身定制的,1970年由芬兰学生SeppoLinnainmaa在他的硕士论文中首先提出;1986年鲁梅哈特(D.E.Rumelhart)和辛顿(G.Hinton)等做了系统的分析与肯定[20]。「梯度下降」和「BP」两个算法为ANN的学习训练注入新的动力,它们和「阈值逻辑」、「Hebb学习率」一起构成ANN4大支柱。

4大支柱之外,还有一系列重要工作,其中包括更好的损失函数,如交叉熵损失函数(cross-entropycostfunction[21];算法的改进,如防止过拟合的正则化方法(regularization[22];新的网络形式,如1980年日本福岛邦彦(Fukushima)的卷积神经网络(convolutionneuralnetworksCNN[2324],递归神经网络(recurrentneuralnetworksRNN[25],长短程记忆神经网络(longshort-termmemoryneuralnetworksLSTM[26],辛顿的深度信念网络(deepbeliefnetsDBN[27]等。这些工作共同开启了以深度学习(deeplearning)为基础的第二代AI的新纪元[28]

第二代AI的学习理论有坚实的数学基础,为了说明这个基础,下面举一个简单的有监督学习的例子,有监督学习可以形式化为以下的函数回归问题:从数据库D中提取样本,对样本所反映的输入–输出关系f:XY做出估计,即从备选函数族(假设空间)F={fθ:X−Y;θ∈A}中选出一个函数f^使它平均逼近于真实f。在深度学习中这个备选函数族由深度神经网络表示:

参数学习中有3项基本假设。(1)独立性假设:损失函数和备选函数族F(或者神经网络结构)的选择与数据无关。(2)大容量假设:样本(x_iy_i)数量巨大(n→∞)。(3)完备性假设:训练样本完备且无噪声。

如果上述假设均能满足,f^将随样本数的增加最后收敛于真实函数f。由此可见,如果拥有一定质量的大数据,由于深度神经网络的通用性(universality),它可以逼近任意的函数,因此利用深度学习找到数据背后的函数具有理论的保证。这个论断在许多实际应用中得到了印证,比如,在标准图像库ImageNet2万类别,14百万张图片)上的机器识别性能,2011年误识率高达50%,到2015年微软公司利用深度学习方法,误识率大幅度地降到3.57%,比人类的误识率5.1%还要低[29]。低噪声背景下的语音识别率,2001年之前基本上停留在80%左右,到了2017年识别率达到95%以上,满足商品化的要求。

20163月谷歌围棋程序AlphaGo打败世界冠军李世石,是第二代AI巅峰之作,因为在2015年之前计算机围棋程序最高只达到业余五段!更加令人惊奇的是,这些超越人类性能成果的取得,并不需要领域知识的帮助,只需输入图像原始像素、语音原始波形和围棋棋盘的布局(图像)!

深度学习的成功来自于以下3个要素:一是数据,以AlphaGo为例,其中AlphaGo-Zero通过强化学习自学了亿级的棋局,而人类在千年的围棋史中,下过的有效棋局只不过3000万盘。二是算法,包括蒙特卡洛树搜索(Monte-Carlotreesearch[30]、深度学习和强化学习(reinforcementlearning[31]等。三是算力,运行AlphaGo的机器是由1920CPU280GPU组成的分布系统。因此第二代AI又称数据驱动方法。

在创建第二代AI中做出重大贡献的学者中,有以下5位获得图灵奖。他们是菲丽恩特(L.G.Valiant2010)、珀尔(J.Pearl2011)、本杰奥(Y.Bengio2018)、辛顿(G.Hinton2018)、杨立昆(Y.LeCun2018)等。

早在2014年,深度学习的诸多缺陷不断地被发现,预示着这条道路遇到了瓶颈。下面仅以基于深度学习的图像识别的一个例子说明这个问题(材料引自本团队的工作)。文献[32]表示利用基于动量的迭代快速梯度符号法(momentumiterativefastgradientsignmethodMI-FGSM)对Inceptionv3深度网络模型实施攻击的结果。无噪声的原始图像——阿尔卑斯山(Alps),模型以94.39%的置信度得到正确的分类。利用MI-FGSM方法经10次迭代之后生成攻击噪声,将此攻击噪声加进原图像后得到攻击样本。由于加入的噪声很小,生成的攻击样本与原始图几乎没有差异,人类无法察觉,但Inceptionv3模型却以99.99%的置信度识别为「狗」。

深度学习为何如此脆弱,这样容易受攻击,被欺骗和不安全,原因只能从机器学习理论本身去寻找。机器学习的成功与否与3项假设密切相关,由于观察与测量数据的不确定性,所获取的数据一定不完备和含有噪声,这种情况下,神经网络结构(备选函数族)的选择极为重要,如果网络过于简单,则存在欠拟合(under-fitting)风险,如果网络结构过于复杂,则出现过拟合(overfitting)现象。虽然通过各种正则化的手段,一定程度上可以降低过拟合的风险,但是如果数据的质量差,则必然会导致推广能力的严重下降。

此外,深度学习的「黑箱」性质是造成深度学习推广能力差的另一个原因,以图像识别为例,通过深度学习只能发现重复出现的局部片段(模式),很难发现具有语义的部件。文献[33]描述了利用深度网络模型VGG-16对「鸟」原始图像进行分类,从该模型pool5147号神经元的响应可以看出,该神经元最强烈的响应是「鸟」头部的某个局部特征,机器正利用这个局部特征作为区分「鸟」的主要依据,显然它不是「鸟」的不变语义特征。因此对于语义完全不同的对抗样本(人物、啤酒瓶和马等),由于具有与「鸟」头部相似的片段,VGG-16模型pool5147号神经元同样产生强烈的响应,于是机器就把这些对抗样本错误地判断为「鸟」。


第三代人工智能

第一代知识驱动的AI,利用知识、算法和算力3个要素构造AI,第二代数据驱动的AI,利用数据、算法与算力3个要素构造AI。由于第一、二代AI只是从一个侧面模拟人类的智能行为,因此存在各自的局限性。为了建立一个全面反映人类智能的AI,需要建立鲁棒与可解释的AI理论与方法,发展安全、可信、可靠与可扩展的AI技术,即第三代AI。其发展的思路是,把第一代的知识驱动和第二代的数据驱动结合起来,通过同时利用知识、数据、算法和算力等4个要素,构造更强大的AI。目前存在双空间模型与单一空间模型两个方案。

3.1双空间模型

双空间模型如图2所示,它是一种类脑模型,符号空间模拟大脑的认知行为,亚符号(向量)空间模拟大脑的感知行为。这两层处理在大脑中是无缝融合的,如果能在计算机上实现这种融合,AI就有可能达到与人类相似的智能,从根本上解决目前AI存在的不可解释和鲁棒性差的问题。为了实现这种目标,需要解决以下3个问题。

3.1.1知识与推理

知识(包括常识)与推理是理性智能的基础,在第一代AI,以物理符号系统模拟人类的理性智能,取得显著的进展,但无论在知识表示还是推理方法上都有大量的问题需要进一步探讨。下面以IBMDeepQA项目[34]为例说明最近的进展,之所以选择这个例子是因为基于DeepQA构成的Watson对话系统,20112月美国电视「危险边缘」智力竞赛节目中,以压倒优势战胜全美冠军K.詹宁斯(KenJennings)B.拉特(BradRutter),表明Watson是一个成功的AI系统。Watson关于知识表示和推理方法的以下经验值得借鉴:1从大量非结构化的文本自动生成结构化知识表示的方法,2基于知识质量的评分表示知识不确定性的方法,3基于多种推理的融合实现不确定性推理的方法。

Watson系统将「问答」(question-answer)看成是基于知识的从「问题」「答案」的推理,为了达到人类的答题水平,计算机需要拥有与人类冠军一样甚至更多的知识。其中包括百科全书、主题词表、词典、专线新闻报道、文学作品等互联网上数量巨大(相当于2亿页的纸质材料)的文本,这些文本是非结构化的,而且质量参差不齐,需要把这些非结构化的文本自动转换为结构化且易于处理的表达形式。Watson系统使用的表达形式为「扩展语料库」(expendedcorpus),它的生成步骤如下。首先给出基线语料库(baselinecorpus)判别种子文件(seeddocuments),根据种子文件从网上收集相关文件从中挖掘「文本核(textnuggets),对文本核做评分按照评分结果集成为最后的「扩展语料库」。

除自动生成的扩展语料库之外,Watson的知识库中还包括已有的语料库,dbPediaWordNetYago等,以及人工编制的部分库。Watson采用多种推理机制(多达百种)「问题」转换为「答案」(见图3)。先对「问题」做分析、分类和分解,根据分解的结果从答案源(语料库)中搜索假设与候选答案,经初步过滤之后,筛选出100个左右候选答案。再从证据源中收集证据,对候选答案进行评分,估过程同时考虑数据源的可靠性,依据评分结果合成出几种候选答案,按照置信度大小进行排序,最后输出排序后的答案。

此外,Watson还通过155场与人类现场对决和8000次的实验,学习对「问题」(自然语言)的理解。

3.1.2感知

符号主义用符号系统作为人类心智的模型,以实现与人类相似的推理能力。但从认知的角度看,二者却有本质上的不同,即存在「符号基础问题」(symbolgroundingproblem)[35]。在物理符号系统中,客观世界的「对象」「关系」等用符号表示,但符号本身并无语义,我们只好人为地给它们规定语义,也就是说是外部强加的「寄生语义」(parasiticsemantics),机器本身并不知道。这与人类大脑中存在的「内在语义(intrinsicsemantics)完全不同,人类大脑中的「内在语义」,特别是「原子概念」「常识」,除极少数先天之外,主要是通过感官(视听等)或者感官与动作的结合自我习得的,即将感官图符式iconic表示或反映语义不变性的分类categorical表示转化为符号表示。这本来是深度学习要完成的任务,但很可惜,目前深度学习的模型并不能完成这项使命。因为深度学习所处理的空间是特征空间,与语义空间差别很大,它只能学到没有明确语义的「局部片段」,这些片段不具备可组合性,因此不能用来作为「物体」「内在语义」表示。换句话讲,目前的深度学习只能做到「感觉」(sensation),达不到感知为达到感知的水平机器必须通过自我学习获取「物体」的语义部件(semanticparts),「狗」的腿、头、尾等,才有可能通过这些部件的组合形成「狗」的不变「内在语义」。解决这个问题的基本思路是利用知识为引导,将感觉的信息从向量特征空间提升到符号语义空间,如图2所示。这方面已经有不少的研究工作[3639],下面以本团队的工作阐述这方面工作的初步进展。

文献[40]描述如何利用一个三元生成对抗网络(triplegenerativeadversarialnetworks,Triple-GAN)提高图像分类性能的方法。三元生成对抗网络由3部分组成:分类器、生成器和鉴别器,分别用于条件化图像生成和半监督学习中的分类。生成器在给定真实标签的情况下生成伪数据,分类器在给定真实数据的情况下生成伪标签,鉴别器的作用是区分数据标签对是否来自真实标记的数据集。如果设计好合适的效用函数,利用三元生成对抗网络,可以通过无监督(或弱监督)学习,让生成器(网络)学到样本中「物体」的表示(即先验知识),同时利用这个先验知识改善分类器的性能。

此项研究表明,通过ANN的无监督学习可以学到「物体」的先验知识,这就是「物体」(符号)的「内在语义」。利用这个具有「内在语义」的先验知识提高分类器的识别率,从根本上解决计算机视觉中存在的「检测」(where)与「识别」(what)之间的矛盾,实现小样本学习,提高鲁棒性和推广能力。

还可以从另外的角度思考,先回到深度学习所使用的人工神经网络(图4),以视觉为例,它与人类的视觉神经网络相比过于简单了,既没有反馈连接,同层之间的横向连接和抑制连接,也没有稀疏放电、记忆和注意等机制。如果我们能够将这些机制引进ANN,将会逐步提高计算机视觉的感知能力。由于我们对大脑视神经网络的工作原理了解得很少,目前只能沿着「脑启发计算」(brianinspiredcomputing)的道路一步一步地往前探索。

目前有一些试探性的工作,有些效果但都不够显著。下面介绍本团队的一项研究。如文献[41]所述,将稀疏放电的原理运用到ANN各层的计算中。网络共6层,包括Gabor滤波和Max池化等,在各层的优化计算中加上「稀疏」正则约束项,稀疏性的要求迫使ANN选择最具代表性的特征。如果用背景简单的「人类」「小汽车」「大象」和「鸟」等图像作为训练样本训练网络,那么神经网络的输出层就会出现代表这些「类别」的神经元,分别对人脸、小汽车、大象和鸟的轮廓做出响应,即提取了「整个物体」的语义信息,形成部分的「内在语义」。

这种方法也只能提取部分的语义信息,还不能做到提取不同层面上的语义信息,如「整体」、「部件」和「子部件」等,达到符号化的水平,因此仍有许多工作有待研究。

3.1.3强化学习

上面说过通过感官信息有可能学到一些基本知识(概念),不过仅仅依靠感官信息还不够,比如「常识概念」,如「吃饭」「睡觉」等仅依靠感官难以获取,只有通过与环境的交互,即亲身经验之后才能获得,这是人类最基本的学习行为,也是通往真正AI的重要道路。强化学习(reinforcementlearning)就是用来模拟人类的这种学习行为,它通过「交互试错」机制,与环境不断进行交互进而学习到有效的策略,很大程度上反映了人脑做出决定的反馈系统运行机理,成为当前人工智能突破的重要方法,在视频游戏[4243]、棋牌游戏[4445]、机器人导航与控制[4647]、人机交互等领域取得了诸多成果,并在一些任务上接近甚至超越了人类的水平[4849]

强化学习通常看成是离散时间的随机控制过程,即智能体与环境的交互过程。智能体从起始状态出发,取得起始观察值,在t时刻,智能体根据其内部的推理机制采取行动之后,获得回报,并转移到下一个状态,得到新的观察。强化学习的目标是,选择策略π(sa)使累计回报预期V^π(s:SR最优。如果我们考虑简单的马尔可夫(Markov)决策过程,即后一个状态仅取决于前一个状态,并且环境完全可观察,即观察值o等于状态值s,即O=S;并假设策略稳定不变。如图5所示。以AlphaZero为例,智能体不依赖人类的标注数据,仅仅通过自我博弈式的环境交互积累数据,实现自身策略的不断改进,最终在围棋任务上达到了超越人类顶级大师的水平,代表强化学习算法的一个巨大进步[45]

强化学习算法在选择行为策略的过程中,需要考虑环境模型的不确定性和目标的长远性。具体的,通过值函数也就是未来累积奖励的期望衡量不同策略的性能,即

其中γ[01]是折扣因子。值函数可以写成贝尔曼方程(Bellmanequation)的形式。该方程表示了相邻状态之间的关系,可以利用其将决策过程划分成多个不同的阶段,其中某一阶段的最优决策问题可以利用贝尔曼方程转化为下一阶段最优决策的子问题。

强化学习的核心目标就是选择最优的策略,使得预期的累计奖励最大,即值函数取得最优值

需要指出的是,尽管强化学习在围棋、视频游戏等任务上获得了极大的成功,但是这些任务从本质上是相对「简单」的,其任务的环境是完全可观察的、反馈是确定的、状态主要是离散的、规则是明确的,同时可以相对比较廉价地得到大量的数据,这些都是目前人工智能算法所擅长的。但是在不确定性、不完全信息、数据或者知识匮乏的场景下,目前强化学习算法的性能往往会出现大幅度的下降,这也是目前强化学习所面临的重要挑战。其中的典型问题如下所述。

1)部分观测马氏决策过程中强化学习:在真实的问题中,系统往往无法感知环境状态的全部信息,因此不仅需要考虑动作的不确定性,同时也需要考虑状态的不确定性。这就导致了部分感知的强化学习往往不满足马尔可夫环境假设。尽管相关的研究者近年来进行了大量的探索,但是部分观测马氏决策(partiallyobservableMarkovdecisionprocessPOMDP)仍然是强化学习中比较有挑战的问题。

2)领域知识在强化学习中的融合机制:如何实现领域知识的融合在强化学习中同样是重要科学问题。对提高收敛速度、降低采样复杂度、改善模型迁移性和算法鲁棒性等具有重要意义。本团队针对这一问题,在领域知识指导的动作空间抽象压缩[50]、结构设计[51]等方面进行了初步探索,但是如何实现领域知识和强化学习框架的高效融合仍然是亟待解决的问题。

3)强化学习和博弈论的结合:博弈论和强化学习的结合是近年来领域内研究的热点问题。二者的结合可以让多智能体之间的竞争和合作关系的建模变得更加直观和清晰,这其中包含了多智能体之间的零和/非零和、完全信息/非完全信息等多种不同的任务类型,尤其是在对抗性的任务中更具有研究和应用价值[43]。本团队前期在这方面也进行了探索性的研究,将智能体对环境的探索建模成智能体和环境之间的博弈过程[52],也是目前第一个在扩展型博弈、参数未知的场景下能够从理论上保证收敛的算法。

除此之外,强化学习所面临的难题还包括仿真环境和真实环境的差异、探索和利用的矛盾、基于模型的强化学习算法等诸多难点的问题,相比于监督学习所获得的成功而言,强化学习的研究还处于相对较为初级的阶段。

3.2单一空间模型

单一空间模型是以深度学习为基础,将所有的处理都放在亚符号(向量)空间,这显然是为了利用计算机的计算能力,提高处理速度。问题在于深度学习与大脑的学习机制不同,在许多方面表现不佳,如可解释性和鲁棒性等。关键是要克服深度学习所带来的缺陷,如图6所示。下面讨论几个关键问题。

3.2.1符号表示的向量化

知识通常以自然语言的离散符号形式表示,为了实现单一空间模型,首先要将符号表示的词、短语、句子和篇章等转换为向量,或者将知识图谱转换为向量表示。关键是「词」的变换,即词嵌入(wordembedding)。目前「词嵌入」已有各种方法,如Word2Vec[53]GloVe[54]等。

下面介绍Word2Vec中采用的Skip-gram[55]策略,用来说明词是如何由符号转换为向量的。

其中w是给定的目标词,c是从其上下文中任选的一个词,pc|w;θ)是给定词w下,词c出现的概率。D是从语料库中提取的所有w−c对,θ是模型参数,式(5)进一步参数化后,得到


其中是词c和词w的向量表示,C是所有可用文本。参数,i=1,2,...d,共|C|×|W|×d个。调整这些参数使式(5)最大化,最后得到所有词wW的向量表示

这些词向量具有以下良好的性质,即「语义相似的词,其词向量也很相似」(见图7)。变换后的词向量之所以具有上述良好的性质,出自嵌入过程的以下假设,两个词在上下文中同现的频率越高,这两个词的语义越可能接近,或者越可能存在语义上的某种关联。嵌入词向量的这些特性,表明它带有语义信息,因此称嵌入空间为准语义空间。式(5)是难计算的,可以采用深度神经网络等做近似计算。利用类似的嵌入法也可以把「短语」「句子」和「篇章」或者知识图谱等转换到具有准语义的向量空间中去[56]

向量形式的知识表示具有上述良好的性质,且可以与数据一样,使用大量的数学工具,包括深度学习方法,因此被大量应用于文本处理,如机器翻译等,取得明显的效果。下面以神经机器翻译(neuralmachinetranslation)为例予以说明[5758]

神经机器翻译的基本思路是,给定源句子(比如中文),寻找目标句(比如英文)。神经翻译的任务是,计算词一级翻译概率的乘积,


其中θ是一组模型参数,是部分翻译结果。词一级的翻译概率可用softmax函数f(·)定义:


其中是目标句中第j个词的向量表示,v_x是源句子的向量表示,是部分翻译句的向量表示,y=y_jj=12...J是要找的目标句。

神经翻译模型的构造:给定训练样本为一组「源句目标句」对,模型训练的目标是最大化log似然:

即选择一组模型参数θ,使目标函数最大化。利用这个模型,通过式(7)计算(翻译)目标句子。这种翻译方法尽管可以得到比传统方法错误率还低的翻译结果,但它具有深度学习方法的共性缺陷,如不可解释、会发生重大错误、鲁棒性差等。为克服这些缺陷,需要加入知识,通过先验知识或后验正则化等方式引入语言知识等。

3.2.2深度学习方法的改进

基于深度学习的AI具有不可解释和鲁棒性差等缺陷,目前有许多改进工作。下面介绍本团队的一些工作。

1)可解释性问题。可解释人工智能算法的研究近年来引起众多研究人员的关注。而人类理解机器决策过程的核心难点是跨越数据特征空间和人类语义空间之间的鸿沟[59]。无论是早期的以手工特征为基础的算法,还是当前以特征学习为代表的深度学习,其核心思想都是将观测样本映射到特征空间中,进而在特征空间进行分析,发现样本在特征空间不同区域内的规律,从而达到算法要实现的任务目标(如分类、回归等)。与之不同的是,人类的分析和决策是利用自身的背景知识,在语义空间当中完成。但是数据特征空间和人类的语义空间在结构和内涵上存在显著的区别,而可解释人工智能的最终就是要在二者之间架起一座桥梁,进而跨越二者之间的鸿沟。

总体而言,相关的研究主要分为(i)模型的后解释技术(post-hocexplanation),也就是给定了人工智能的模型,通过可视化、交互技术等方式,分析给定模型的工作机理,为其决策结果寻找解释途径;ii)可解释模型,即通过发展新的网络架构、损失函数、训练方式等,发展具有内在可解释性的新型人工智能模型。从整体来说,两类方法目前都在发展过程中,在可解释性的研究中具有重要作用。

可视分析是人工智能算法可解释的一种直观的思路。既然深度学习是「黑箱」学习法,内部的工作机理是不透明的,「不可解释」,如果利用可视化,打开「黑箱」,一切不就清楚了吗?为了帮助机器学习专家更加理解卷积神经网络的工作机理,我们开发了CNNVis这一可视分析工具[60]CNNVis旨在帮助专家更好地理解与诊断深度卷积神经网络,作为一种混合可视化方法,综合应用了基于双聚类技术的边绑定方法,以及矩形布局算法、矩阵重排算法和有向无环图布局算法等。作为可视化领域的首批深度学习可视分析工作,该工作在工业界和学术界都引起了广泛关注。在此基础上,为了分析复杂神经网络的训练过程,我们以深度生成模型(对抗生成网络(generativeadversarialnetworksGAN)和变分自编码器(variationalauto-encoderVAE))为例,研究了如何帮助机器学习专家诊断训练过程中出现的常见问题。解释模型的另外一个思路是利用部分统计分析的技巧,针对神经网络决策过程中的参数冗余性,对神经网络内部最后决策起到关键作用的子成分进行分析,得到复杂模型内部对决策起到最关键作用的核心部分。为了更高效发掘子网络,我们借鉴了网络剪枝(networkpruning)思路,提出一种普适的提取子网络的方法,而无需对模型从头进行训练[61]。具体来说,我们对网络中每一层都附加一组控制门(controlgate)变量,在知识蒸馏[62]knowledgedistillation)准则下优化该组变量控制各层输出通道,用以确定关键子网络。具体来说,令py|x;θ)为具有权重参数θ的原始模型对于单个样本X所做出的预测概率。而我们想要提取参数为θ_s的关键子网络,其预测输出应为qy|x;θ_s),应该与原模型输出结果在Kullback-Leibler散度度量下接近。因此总体最小化目标函数为

https://mmbiz.qpic.cn/mmbiz_png/KmXPKA19gWibtLFzPr3FKYwdeW1aM1krVNia559DV4hLLEQ2PWibhTgjKxz82ZMgqslNGibQCvnH8yU2aialjwTlia2A/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&wx_co=1

其中(θ_s)为稀疏正则项,即鼓励模型通过尽量少的激活神经元达到和原网络相似的性能。通过对关键子网络可视化分析,我们观察到对于样本特定子网络,各层控制门值表征形式随着层级增高而展现出类别区分特性。实验结果表明,对于类别特定子网络,其整体表征形式与类别语义之间有着密切联系。

以上方法更多的关注是模型的后解释,也就是给定一个深度学习模型「强行」寻求对其决策过程的解释,而这种解释是否符合神经网络的内在机理仍然是需要讨论的问题。由于深度学习模型的不可解释性是由于机器推理的特征空间和人类可理解的空间存在着本质的区别,因此深度学习要想实现可解释性就需要把机器特征空间和人类的语义空间联系起来。本团队也在此方面进行了探索性研究[63],主要针对如何将人类的先验知识融入到深度学习模型的训练中,使特征具有更加明确的语义内涵,从而能够做到决策的追溯。具体的,在图文的联合分析中,我们利用文本信息中抽取出来的人类可理解的主题信息指导神经网络的训练过程,并对文本和图像/视频数据进行协同训练,引导神经网络训练得到人类可以理解的语义特征。具体的,我们通过在神经网络的目标函数中引入可解释的正则约束:

https://mmbiz.qpic.cn/mmbiz_png/KmXPKA19gWibtLFzPr3FKYwdeW1aM1krVicrL5LHHwr4GEYUej82K97ZqrjVkJfwbQvCPCLNwoViaPXAODp3dSJwQ/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&wx_co=1

其中第1项是相关任务的损失函数,第2项是可解释正则约束。通过这种方法,可以在文本数据引导下,通过不同模态数据之间的信息互补性,利用可解释正则约束,提升深度学习模型的可解释性。

2)鲁棒性问题。由于对抗攻击给深度学习模型带来的潜在的恶意风险,其攻击不但精准且带有很强的传递性,给深度学习模型的实际应用带来了严重的安全隐患,迫切需要增强深度学习模型自身的安全性,发展相应的深度学习防御算法,降低恶意攻击带来的潜在威胁[64]。具体来说,目前的深度学习防御算法主要有两类思路。

1是基于样本/模型输入控制的对抗防御。这类方法的核心是在模型的训练或者使用阶段,通过对训练样本的去噪、增广、对抗检测等方法,降低对抗攻击造成的危害。其中去噪器由于不改变模型自身的结构和性质,具有「即插即用」的性质,引起了广泛的关注。但是由于对抗噪声的特殊属性,其形成的干扰效应往往可以随着神经网络的加深逐步放大,因此在普通的高斯噪声(Gaussiannoise)上具有良好滤除效果的自编码器往往不能很好地滤除对抗噪声。

针对这一问题,本团队提出了基于高层表示引导的去噪器(HGD[65],通过高层特征的约束使得对抗样本与正常样本引起目标模型的上层神经元响应尽可能一致。将传统像素级去噪网络DAEdenoisingautoencoder)与U-net网络结构进行结合,到负噪声输出https://mmbiz.qpic.cn/mmbiz_png/KmXPKA19gWibtLFzPr3FKYwdeW1aM1krVNgqDdf6Z3dhDy7iaZmUnahYVgL12g6BWlj7EiayLctLtdaqDnQqeN2RQ/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&wx_co=1,用对抗样本加上负噪声可以得到去噪图片https://mmbiz.qpic.cn/mmbiz_png/KmXPKA19gWibtLFzPr3FKYwdeW1aM1krVDV9hTLxg5oibPibaibbl54jicvzxhkGmoI1YVM2ww6ibvGuuTGEtF8WwPibw/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&wx_co=1,即https://mmbiz.qpic.cn/mmbiz_png/KmXPKA19gWibtLFzPr3FKYwdeW1aM1krVbAYghHIx8ricdWrFmlEH486BkoNOs7Gyiad3cKfZwQIAq057J3icd28xA/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&wx_co=1。研究表明该方法不仅去掉了一部分对抗扰动,还增加了一部分「反对抗扰动」,取得了非常好的防御效果,获得「NIPS2017对抗性攻防竞赛」中对抗防御任务冠军,以及2018年在拉斯维加斯(LasVegas)举办的CAADCTF对抗样本邀请赛冠军。

2是基于模型增强的对抗防御。这类方法的核心是通过修改网络的结构、模型的激活函数、损失函数等,训练更加鲁棒的深度学习模型,从而提高对对抗攻击的防御能力。其中集成模型(ensemble)是近年来出现的一类典型的防御方法。针对经典集成防御由于各个子模型的相似性导致防御性能下降的问题,本团队提出自适应多样性增强训练方法(adaptivediversitypromotingtrainingADP[66]。相比于经典集成模型,ADP方法在训练函数中额外引入了多样性正则项,鼓励每个子模型在正确类别上决策一致,而在其他类别上预测不一致。由于其他类别包括所有潜在的对抗样本的目标类别,所以这种不一致性可以使得各个子模型难以被同时欺骗,从而增强集成模型的鲁棒性。具体来讲,在ADP方法中,为了保证每个子模型的最大预测都对应于正确的类别,这种多样性定义在每个子模型输出的非最大预测上,当不同子模型的非最大预测向量相互正交时,这种多样性取得最大值。具体的,其训练的目标函数为

其中,;为每个子模型k的交叉熵(cross-entropy)损失函数。ADP_α,β(xy=α·HF+β·logED)是模型集成多样性的度量,鼓励不同的子模型形成尽量差异化的决策边界。实验结果表明,通过鼓励不同子模型的差异化决策性质,有效地提升了模型的对抗鲁棒性。但是,总体而言,目前多数的对抗防御方法是基于经验主义的,研究表明很多防御对抗样本的方法在很短的时间就会被后来的攻击算法攻破。其重要原因之一是深度学习只是在做简单的函数拟合,缺乏像人一样对问题的理解能力[67]。因此通过理解机器学习模型的内部工作机理,发展数据驱动和知识驱动融合的第三代人工智能理论框架,将成为提高人工智能算法鲁棒性的重要途径。

但是,总体而言,目前多数的对抗防御方法是基于经验主义的,研究表明很多防御对抗样本的方法在很短的时间就会被后来的攻击算法攻破。其重要原因之一是深度学习只是在做简单的函数拟合,缺乏像人一样对问题的理解能力[67]。因此通过理解机器学习模型的内部工作机理,发展数据驱动和知识驱动融合的第三代人工智能理论框架,将成为提高人工智能算法鲁棒性的重要途径。

3.2.3贝叶斯深度学习

如图6所示,图像和语音等信息是在特征空间中处理的,这些特征语义信息很少,需要提取含有更多语义的特征,其中的一种解决办法是将知识引入深度学习。下面以贝叶斯深度学习为例,说明这一思路。

我们前面说过深度神经网络没有考虑数据观测的不确定性,这种不确定性的存在,以及对于数据背后物理背景的无知,使我们对深度学习结果的正确性难以判断。同时,在数据量有限但模型逐渐变大(如包括十亿甚至千亿参数)的过程中,模型的不确定性也变得更严重——存在很多模型在训练集上表现都很好,但在测试集上的表现差别很大。贝叶斯学习充分考虑了先验知识以及模型和数据的不确定性,而且还能从不断提供的数据(证据)中,加深对数据的了解,即根据新的证据实现增量式的学习,充分发挥知识在学习中的作用。不仅可以对学习结果的可信度做出判断,也因此提高了学习的效率和准确度。

贝叶斯学习(Bayesianlearning)定义:给定观测数据dD,按贝叶斯规则计算每个假设的概率,

其中D是所有数据[1268]。给定d

是对未知量X的预测,即通过观测数据确定各个假设的概率,再从各个假设确定未知量X的分布。其中的关键是假设先验ph_i)和给定假设h_i下数据d的似然pd|h_i)。贝叶斯预测(式(13))不管样本量大小,均可达到最优,但当假设空间很大时,式(13)的加法计算量太大(在连续情况下为积分),难以实际应用。通常需要采用近似算法,主要有两类近似方法——变分推断和蒙特卡洛采样[69]。另外,还有一些常见的简化有,(1)对X的预测不是利用所有的假设,而只利用其中让ph_i|d)最大化的一个h_i,称为最大化后验(maximumaposterioriMAP)假设。(2)假定ph_i)是均匀分布,问题就简化为,选择一个让pd|h_i)最大化的hi,称为最大化似然(maximumlikelihoodML)假设。(3)如果不是所有数据都可以观测,即存在隐变量,通常采用EMexpectationmaximization)算法[70]。该算法分为两步(式(14)),E:利用观测的数据xθ^i),计算pZ=z|x;θ^i));M:利用计算出来的zx,计算模型参数θ^i+1)。两个步骤交替进行,找到最终的模型参数θ:

贝叶斯准则((12))是一个从先验分布和似然函数推断后验分布的过程,为了更灵活地考虑知识,们团队提出了正则化贝叶斯(regularizedBayesianinference,RegBayes)[71],它基于贝叶斯定理的信息论描述[72],通过引入后验正则化,在变分优化的框架下可以灵活地考虑领域知识(如基于逻辑表达式的知识[73])或者学习任务优化的目标(如最大间隔损失[74]).

更进一步的,贝叶斯深度学习是将贝叶斯学习的基本原理与深度神经网络的表示学习有机融合的一类方法,融合主要体现在两个方面,(1)用贝叶斯方法更好地学习深度神经网络(如贝叶斯神经网络、高斯过程等),包括计算预测的不确定性、避免过拟合等;(2)用深度神经网络作为非线性函数变换定义更加丰富灵活的贝叶斯模型,如图8所示,包括深度生成模型(GAN,VAE,基于可逆变换的流模型等).其中第1种融合早在20世纪90年代就被霍普菲尔德(J.Hopfield)和辛顿指导博士生系统研究过[75,76],当时的算力和数据都很有限,稍微大一点的神经网络都面临着严重的过拟合,因此,那时候就开始研究用贝叶斯方法保护神经网络,并且选择合适的网络结构.随着神经网络的加深,贝叶斯方法又引起了很多研究兴趣,主要进展包括对深度贝叶斯神经网络进行高效的(近似)计算,需要克服的主要困难是深度网络过参数化(over-parametrization)带来的维数灾难.在这方面,我们团队进行了深入研究,先后提出了隐式变分推断(implicitvariationalinference)算法[77,78],在泛函空间进行粒子优化的推断算法(functionalvariationalinference)[79].

对于第2种融合,我们知道一个简单分布的随机变量z经过函数f变化之后,得到的变量x=f(z),具有更复杂的分布,f是一个双射变换时,我们可以得到x分布的解析形式

https://mmbiz.qpic.cn/mmbiz_png/KmXPKA19gWibtLFzPr3FKYwdeW1aM1krVcrse18GjwROdIkA36tQiadqptEXaMJfrIibAIlZQSkhJaHrvDX08gjicg/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&wx_co=1

但是,在处理复杂数据时,f是未知的,因此,我们希望从数据中进行学习.利用深度神经网络的强大拟合能,我们将f定义成一个深度神经网络,通过一定的准则学习最优的f_θ.如图8所示,这种想法被证明是非常有效的,已经发展了包括VAE,GAN以及基于流的模型(flow-basedmodels),即使在完全无监督训练下,这些模型都可以产生高质量的自然图片或人脸等.

具体的,这几种模型的区别在于定义x的变化函数,VAE,

https://mmbiz.qpic.cn/mmbiz_png/KmXPKA19gWibtLFzPr3FKYwdeW1aM1krVLUn1SZiaUiaHicbJejEPibY62QPvDguI9cctOTWOZ4QYly97WDiaPaBWibFA/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&wx_co=1

其中ϵ是一个噪声变量(如白噪声对应的标准高斯分布);GAN和基于流的模型中,没有显式的噪声变量。这种区别带来了参数估计上的不同,VAE和基于流的模型采用最大似然估计,GAN定义了对抗学习的目标——「最大最小博弈」。同样的,这些模型虽然功能强大,但是给推断和学习也带来了很多挑战。例如,GAN网络的训练过程经常是不稳定的,会遇到梯度消失或梯度爆炸等问题,我们团队最新的成果利用控制论对这一问题进行了分析研究,提出了有效的反馈机制,能够让GAN的训练更平稳[80]。此外,基于可逆变换的流模型往往受限于维数的约束,为此,我们提出了自适应数据增广的流模型[81],显著提升这类模型的表达能力。

基于上述介绍,能够看出贝叶斯深度学习提供了一种强大的建模语言,将不确定性建模和推断与深度表示学习有机融合,其关键挑战在于推断和学习算法。幸运的是,近年来,在算法方面取得了很多突破进展(如上所述)。同时,也发展了性能良好的概率编程库,支持贝叶斯深度学习模型的开发和部署。例如,我们团队研制的「珠算」[82]1),是最早的系统支持贝叶斯深度学习的开源库之一。在应用方面,贝叶斯深度学习的方法已经在时间序列预测、半监督学习、无监督学习、小样本学习、持续学习等复杂场景下,取得良好的效果.

3.2.4单一空间中的计算

如图6所示,我们要在单一的向量空间中,对来自文本的嵌入向量和来自视听觉的特征向量进行计算,存在一定的难度.因为文本中以符号表示的词,经嵌入之后变成向量时损失了大量语义,从视听觉中提取的特征,虽然我们尽量获取更多的语义,但一般情况多属底层特征,语义含量很少.

们将以视觉问答[8385]为例介绍这方面的初步尝试.在视觉问答中既有图像又有文本,需要在单一的向量空间中同时处理,涉及单一空间模型的使用。以本团队关于「篇章级图文问答」研究工作为例予以说明[85]。如图9所示,根据给定的图片,回答以下问题,「在大陆地壳下面有多少层(类型)?,除问题以文本形式表示之外,还有一个与图片相关的篇章「板块运动」。

首先通过词嵌入(采用Word2Vec中的Skip-gram策略),「问题」「篇章」中的以离散符号表示的词转换为向量.图片经ResNet网络处理后,res5c层的特征作为输出[55],它是一组高维空间的特征向量。然后将「问题」和「篇章」中的词向量与「图片」输出的特征向量做融合,以预测「答案」。为了更好地融合,通过注意机制,先找出「问题」「篇章」中的「关键词」,这些关键词能够更好地反映「问题」的主题(语义)。再依据关键词通过「空间注意机制」找出图片中关键区域的特征,因为这些特征更符合关键词向量所表达的主题,因此融合效果会更好。这里采用的融合方法是双线性池化(multimodalbilinearpooling)方法。「图文问答」是选择题,备选方案有1,2,3」三种,将融合后的向量与备选方案的向量相比较,取最接近的一个向量作为输出,这里是2(向量)

图文问答目前达到的水平与人类相比相差很远,以「选择题」为例,目前达到的水平只比随机猜测略好。


总结

为了实现第三代AI的目标,我们采用三空间融合的模型,即融合双空间与单空间两种模型,如图10所示。双空间模型采用类脑的工作机制,如果实现的话,机器就会像人类大脑的行为一样,具有可解释性与鲁棒性。此外,当把感觉(视觉、听觉等)信号提升为感知(符号)时,机器就具备一定的理解能力,因此也解决了可解释和鲁棒的问题。当机器中的基本概念(符号)可由感知产生时,符号就有了基础(根基),符号与符号推理就有了内在的语义,从根本上解决了机器行为的可解释与鲁棒性的问题。单空间模型以深度学习为基础,存在不可解释与不鲁棒的缺陷,如果经过改进提高了其可解释性与鲁棒性,就从另外一个方向迈向第三代AI.

双空间模型模仿了大脑的工作机制,但由于我们对大脑的工作机制了解得很少,这条道路存在某些不确定性,比如,机器通过与环境的交互学习(强化学习)所建立的「内在语义」,与人类通过感知所获取的「内在语义」是否一样,机器是否也能具有意识?等,目前还不能肯定。尽管存在这些困难,但我们相信机器只要朝这个方向迈出一步,就会更接近于真正的AI。单一空间模型是以深度学习为基础,优点是充分利用计算机的算力,在一些方面会表现出比人类优越的性能。但深度学习存在一些根本性的缺点,通过算法的改进究竟能得到多大程度的进步,也存在不确定性,需要进一步探索。但是,我们也相信对于深度学习的每一步改进,都将推动AI向前发展。

考虑以上这些不确定性,为了实现第三代AI的目标,最好的策略是同时沿着这两条路线前进,即三空间的融合,如图10所示。这种策略的好处是,既最大限度地借鉴大脑的工作机制,又充分利用计算机的算力,二者的结合,有望建造更加强大的AI


https://mmbiz.qpic.cn/mmbiz_jpg/KmXPKA19gWibtLFzPr3FKYwdeW1aM1krVWCqnBZOGKVak3ABRSt1FtlNoJl0RrdceiagrksdMAH5vqx1QUWLHD9g/640?wx_fmt=jpeg&tp=webp&wxfrom=5&wx_lazy=1&wx_co=1

(转载自AIII研究院)

诚聘英才
友好链接
业务咨询及参观访问:0755-86576085    0755-86576086    地址:深圳市南山区笃学路9号
国家超级计算深圳中心(深圳云计算中心)  ©2014-2020  粤ICP备10220126号