「还有很长的路要走,」DemisHassabis在12月初于蒙特利尔举行的2018年神经网络会议(NeurIPS)上说。「从某种意义上来说,游戏或棋类游戏所处的环境十分简单,因为状态之间的过渡模型可以被定义得非常详细,而且易于学习。真实世界的3D环境和真实世界本身要复杂得多……但如果你有开发通用人工智能的计划,这也很重要」。
Hassabis说:「首先,这些人工智能系统需要先学会看别人玩游戏,然后它们会学习自己玩游戏」。「人类玩家可以比算法更快地学会玩Atari游戏之类的游戏。因为他们可以相当迅速地判断图案中的像素的意义,以确定他们是否需要逃离这个图案代表的物体或朝这个方向前进」。
Deepmind并不是唯一一个需要解决人工智能系统设计局限性的公司。
「我们没有能够高效地将它们的知识从一个领域迁移到另一个领域的系统,我认为需要一些概念或特征提取等。」Hassabi说,「针对游戏构建模型相对容易,因为从一个步骤过渡到另一个步骤很容易,但我们希望能够使系统具有生成模型的能力,这将使我们能够更容易地在更复杂的环境中执行规划任务」。
他说,几十年体系化的研究经历使他确信,解决强化学习的可扩展性问题的方法是用层次结构来增强信号。
Hinton解释说:「假设你拥有一个庞大的组织,你会从组织的顶层发出强化信号。例如,首席执行官被告知公司今年获得了大量利润,这就是他的强化信号。假设每季度会发出一次这样的强化信号,这并不意味着要训练一大群等级森严的人去完成一些任务,但是如果首席执行官下面有几个副总裁,并且给每个副总裁分配一个目标,以使他的收益最大化,这会带来更多的利润,他也会得到奖励」。
Hinton说,在这种安排下,即使没有回报,也许是因为学着这样做的首席执行官给副总裁设定了错误的目标(但这个每季度一次的循环周期仍将继续),副总裁总能学到一些东西,这些东西在未来很可能会变得有用。
他补充道:「通过制定次级目标,并提供报酬来实现这些次级目标,可以通过制造更多微弱的信号来放大这些微弱的信号」。
Hinton说:「这是一个让系统中的模块为其他模块创建子目标的问题。你可以想象一个牧羊人和一只牧羊犬。他们创造了一种语言(不是英语),训练有素的牧羊犬和牧羊人可以非常好地交流。但是想象一下,如果牧羊犬有自己的牧羊犬。然后它必须理解、总结出这个牧羊人手势中的信息,并编造一些方法来和子牧羊犬(牧羊犬的牧羊犬)交谈,从而传达这些信息」。
幸运的是,最近被称为Transformers的人工智能的突破性进展可能是人们朝着正确方向迈出的一步。
这不是什么新的想法。Hinton指出,在20世纪70年代,大多数关于神经网络的研究都着眼于记忆方面,其目标是通过修改权重来存储信息,这样就可以利用加权计算重新创建信息,而不是简单地从某种形式的存储结果中直接提取信息。
Hinton表示:「实际上,你不会像在文件柜中那样真正地存储信息,你只需要对一些参数进行修改,如果我给你一小部分信息,你就可以填出剩下的部分,就像用一些碎片制造出如恐龙一样的庞然大物。我想说的是,我们应该把这个想法用于短期记忆,而不仅仅是长期记忆,这样它将解决各种问题」。
人工智能和算法偏见
展望未来,Hinton相信,借鉴于生物学的经验,未来的人工智能系统的发展方向将主要是无监督学习的各种变体。无监督学习是机器学习的一个分支,它从未标记、未分类和未归类的测试数据中收集知识。他说,在学习数据间的共性并且对这种共性的存在或缺失做出反应的能力上,无监督学习几乎与人类达到了相同的水平。
Hassabis对此表示赞同。
Hassabis说:「我们(DeepMind)正在努力制定一种具有认知能力的神经科学研究路线图,我们认为这是拥有一个功能齐全的人类级人工智能系统所必需的。它需要能够具备迁移学习的能力、掌握一定的概念性知识,而且具备某种意义上的创造力,能够想象未来发生的情景、反设事实并规划未来,具备使用语言和符号推理的能力。这些都是人类可以毫不费力地做到的事情」。
然而,随着人工智能系统变得越来越复杂,一些技术专家和伦理学家担心人工智能会吸收和反映现有训练数据中存在的偏见。事实上,有证据表明这种情况已经发生了。
计算机视觉算法在克服偏见的问题上也没有表现得更好。
2012年发表的一项研究表明,供应商Cognitec公司开发的人脸识别算法在非裔美国人身上的表现比白种人差5%到10%。据透露,最近由伦敦首都警察安全局部署的一个系统每次运行会产生多达49个错误的匹配结果。今年夏天,在亚马逊Rekognition服务的一次测试中,美国公民自由联盟调查局发现,当他们从一个「公开的数据源」获取25000张照片,并将其与国会议员的官方照片进行比较时,有28张照片被误认为是罪犯。
Hinton并没有因为负面新闻而气馁。他认为,人工智能的一个明显优势在于它所提供的灵活性,而数据中的偏见可以很容易地被建模。
他说:「任何从数据中学到的东西都会学到数据中的所有偏见。好消息是,如果你能对数据中的偏见进行建模,你就能非常有效地消除这些偏差。有各种各样的方法可以做到这一点」。
他指出,这在人类身上并不总是奏效。
「如果你让人们做这些工作,你可以尝试对他们的偏见建模,但告诉他们不要有偏见并不能真正减少偏见。因此,我认为相较之下,在机器学习系统中,处理偏见要容易得多」。
Hinton指出,一系列新出现的减轻偏见的工具有望被引入到更加公正的人工智能系统中。
「拥有运算速度非常快的计算机的一个好处是,你现在可以编写一些效率相对较低的软件,但这很容易理解,因为你的计算机有飞一般的速度。人们往往不喜欢这么做,但通常而言,你确实会想要拥有运行速度非常快的计算机。在牺牲代码效率的条件下,你可以在取得令人难以置信的准确率的情况下,让编写代码的工作不那么复杂。有了难以置信的准确性,你就有余地让它们稍微不那么准确,从而达到你想要的其他目的。在我看来,这是一个公平性和性能的折中」。
人工智能与就业
Hinton对人工智能对就业市场的影响也持乐观态度。
「有的人认为通用人工智能这个词带有这样的含义:这种机器人个体突然会比你更聪明。我觉得不会是那样的,我认为,我们做的越来越多的日常事务将被人工智能系统(如谷歌助手)所取代」。
但Hinton认为通用人工智能不会让人类被解雇。相反,他表示,人工智能对世界的认识在很大程度上仍将是短视的,至少在不久的将来是这样。他相信,人工智能将继续以平凡但有意义的方式改善我们的生活。
他说,「未来的人工智能系统将会非常了解你可能想要做什么,以及如何去做,这将会非常有帮助。但它不会取代你。如果你选用了一个非常擅长自动驾驶的系统,然后在第一天就乘坐它出行,我认为这将是一场灾难」。
对于目前由人类执行的危险任务,Hinton认为这是朝着正确方向迈出的一步。
「人们真的应该害怕坐在一辆由巨大的神经网络控制的汽车里,因为它无法告诉你它在做什么,」他说,「我们知道,这样的工作叫出租车司机」。
浏览量
原文标题:对话GeoffreyHinton&DemisHassabis:人工智能离我们有多远?
下载发烧友APP
电子发烧友观察
长沙市望城经济技术开发区航空路6号手机智能终端产业园2号厂房3层(0731-88081133)