皮卡德(Picard)曾讲述这样一个故事:孩子们会认为情绪的产生来自恐龙玩具巴尼,而巴尼有意识的表达行为也会鼓励他们相信“巴尼具有情感”。据我们所知,孩子们一直把情感寄托在娃娃和填充动物玩具上,而在我们的认知中也都同意这样经验:玩具从来没有、也无法拥有情感[1]。那么,将恐龙玩具与人工智能进行类比,我们不禁想要发问:为什么人类会思考“人工智能是否可以拥有情感”这个问题?
埃金(Arkin)认为,机器人学家大多以实用主义的功能性出发,忽略了情感特征[2]。随着人类对于人工智能沟通能力的进一步要求,研究者们逐渐将人类情感的一些特征赋予机器。那么,此时的机器所具备的情感特征是否和恐龙玩具巴尼一样,只不过是人类将自身情感投射于彼身所产生的共情作用呢?然而,机器和人类所产生的情感互动毕竟远远超出了玩具所能及的范围,它的这种情感能力让人不禁想到“机器情感”这个词语。此时,似乎有必要重新审视人类情感的定义,是否仅从人类中心主义出发的情感定义已经不足以囊括机器情感?我们是否可以跳出人类情感或者生物情感的桎梏,来重新定义机器情感?以上都是本文想要探讨的问题。
“机器艺术”展览现场,1934年,纽约现代艺术博物馆MoMA
一、什么是情感
不同的学者从不同的角度来定义情感。迈耶斯(Mayers)从情感与身体的关系来定义情感:“情感是我们身体的适应性回应”[6]。拉扎勒斯和拉扎勒斯(R.LazarusandB.Lazarus)则侧重于强调情感对外部环境的反应:“情感是对于与环境的即时关系所产生信息的一种有组织的心理-生理反应”[7]。普拉切克(Plutchik)则认为情感参与了从心理到行动的各个环节,是一种连续性的状态:“情感是一种松散地连接一些事件的复杂链条,这些事件始于一种刺激,随之引发包括感觉,心理变化,行动的冲动,再到特定的、目标导向的行为”[8]。
很多学者都尝试对于基本情感进行归类[11]。例如,根据埃克曼的模型,人类的面部情绪具备可识别的六种基本情感状态(basicemotionstates),分别是:快乐、生气、悲伤、害怕、惊讶、厌恶[12]。汤姆金斯(Tomkins)描述了幼儿自出生以来所表现出的内在情绪,如愤怒、尴尬、悲伤、恐惧、兴趣、快乐、惊讶、厌恶[13]。明斯基(Minsky)的六要素模型认为基本情绪包括:同情,嫉妒,爱,侵略,敬畏和尊重[14]。
心理学中还有一种分类方式叫做情感的维度(thedimensionalemotion),近期常常被用于衡量情感方面的研究。情感的维度使用一些指标来衡量情感的强度(emotionalintensity)——情感影响行为的程度,例如刺激(stimulation)、能量(energy)或者激活程度(activation)等[15]。最早提出情感维度理论的学者是拉塞尔(Russell),他认为情感可以被一个环状复合体(circumplex)的两个维度来表示和衡量:1)价(valence),表示对于个体在经历这种状态时有多么愉快;2)激活度(arousal),表示个体因其特定的状态而采取某种行动的可能性[16]。
在此之后,很多学者对于情感的维度模型进行了发展与探索[17]。其中,赛耶(Thayer)的情感模型、普拉切克的情感之轮(Plutchikemotionalwheel)和勒夫海姆的情感魔方(Lvheim’scubeofemotions)常被应用于近期的研究之中[18]。
ElenaKnox和渡边克巳,《御御签》(OMIKIJI),通过互动将参与者的个人信息转码,并通过声音系统实时重新解读,作为御御签发送给参与者。
二、机器是否可以拥有情感
1.为什么人类要赋予机器情感
为什么人类要赋予人工智能情感呢?皮卡德提出了人类赋予机器一定情感能力的四个动机:1)第一个目标是创造出能够模仿活生生的人类和动物的机器人及类似的人造角色——例如,创造人形机器人(humanoidrobot);2)第二个目标是使机器变得能智能,尽管找到一个有关机器智能性的、被广为接受定义几乎不可能;3)第三个目标是通过建构情感模型来更好的了解人类的情感;4)第四个目标是使机器与人类之互动和沟通起来能够不那么让人沮丧和绝望[19]。皮卡德所提出的这四个动机似乎都是以人类为中心,希望机器能够在外观、智力和行为上更接近人类,并且通过机器来进一步探索人类情感的知识谱系。
贾斯汀·伊玛德,《灵魂转移》,影像,2018年
2.机器不能拥有情感
反对者们往往从以下三个方面来反驳机器可以拥有情感:
其次,人工智能以人类情感为基础,却又局限于人类情感。贝克(Becker)的研究探讨了机器在人机交互中的被动角色。他认为,机器情感仅仅定位于社会关系网络的活动和相对应的能力表现中;人工智能实体是根据人类的交流与认知能力模型所构建的人工物,他们没有个性,只是一个屈居于人类的交互伙伴[22]。
阿尔比布的图式理论(schematheory)揭示了生物多种动机的生成过程,并分析了由于生物行为选择而引发的策略性情感。他借助螳螂为模型,说明生物的行动不仅受到外部环境变化影响,也与螳螂所处的视觉刺激境遇、生命体的内部可变因素、已有关于刺激物的经验有关[26]。与动机相比,情感能够为生物体的行动提供更为高效、准确、迅捷的通道[27]。当生物对动机做出选择时,生物性身体/脑部感觉呈现了特殊的状态,情感由此生成[28]。例如,在生物体不同强度的活动中,进食与交配都是具有竞争性的行为动机,那么,情感状态将联合生物对外部环境的感知,帮助生物作出选择并执行。根据该模型,机器的设计者将相应的潜在控制参数与一系列的可变动机选择相连,构成机器的行为选择机制,也引发了相对应的情感功能。
阿尔比布和费勒斯认为,机器不能就此被认为具有情感,因为他们无法在特定情况中控制自身的行为做出动机选择[29]。并且,人工智能的构建系统中,动机是机器的驱使机制,是功能性的主要体现。人工智能的动机控制权在于设计者和它的交流用户,机器人只实现了技术上的行动,并没有策略或动机层面的回应行动。正如帕里西和佩特罗西诺所言,倘若机器人没有自主的动机,它将不会具备情感[30]。
斯泰恩·德娅,《外乡人》,3D动画,2018年
3.机器情感
达米亚诺等(Damianoetal.)则进一步将赋予机器人主体情感调节机制被认为是一种真正产生机器情感(artificialemotion)的尝试[34]。总之,机器情感并不等同于人类情感,但是它像人类情感一样能够形成自主调节机制,并且在机器主体中发挥着影响行为组织的作用。
徐戈,《Puzzle》,赛博格装置,2013年
1.皮卡德的情感四要素
皮卡德认为,人类情感的四个要素有可能成为机器的一部分,从而帮助机器更好的适应人类,包括情感的外观、多层级的情感生成、情感的体验和身心交互作用。她所提出的第一点“情感的外观”(emotionalappearance)包括系统体现出拥有情感外观的一些行为和表现[35]。机器可以模拟人类的面部表情、声音、肢体语言等等来表现出类似于人类情感表达的外观。这种情感的外观是建立在机器对于人类情感表现数据进行学习的基础之上,从而能够建立起与人类情感之间的沟通机制。
第二个要素是“多层级的情感生成”(multiplelevelsofemotiongeneration):人类情感拥有不同的层级,对于外界刺激会触发身体做出不同层级的反应;机器可以利用这个规则来了解他人的情感,或者为自己合成一个内部情绪状态的标签,以触发适当的反应[36]。情感层级包括:反应较快的潜意识(sub-consciousness)、反应居中且后天习得的预判意识(pre-consciousness),以及反应最慢的理性生成的反应[37]。
第三要素“情感的体验”(emotionalexperience)实际上涉及到了人工智能对于自身的情感领域的认知。情感的体验指的是机器产生类似于人类可以体验到情感状态和一系列的感觉,并且,机器也能感知到它们的身体在做什么[38]。虽然“人类感觉”绝对不同于“机器感觉”,但机器可以通过这种感觉和体验来调整和改善它们的行为。
第四要素是“心灵-身体的互动”(mind-bodyinteraction):情感既包括大脑之外的身体系统的变化,也包括大脑内部的变化。情感与身体、认知状态之间的相互作用是十分丰富的。例如,当一个人被要求表达爱时,说实话和说谎话的表现是完全不同的;换句话说,他们身体的情感表达被说实话和说谎的状态选择性地干扰。“如果一台机器要复制人类的情感,那么复制的程度必须包括这些情感的许多信号和调节成分,它们编织着身体和精神状态之间的交互联系”[39]。
薛雷,《情感》,语音影像交互装置,2019年
2.身体理论和评估理论
评价理论则刚好相反,它认为分析刺激的认知过程要优先于情感的产生。很多研究机器情感的学者以评价理论为出发点来建立情感模型。有些研究者从工程学的实际层面来考虑,他们认为在建立情感模型时,情感在认知(cognition)方面的功能可以增强机器人的表现[45]。此外,神经科学领域的研究表明,情感对于人类的作用并非是干扰理性;相反,对于一些我们通常认为是最基本的理性行为,情感起着至关重要的作用,例如感知(perception)、学习(learning)、注意力(attention)、记忆(memory)以及其他一些能力[46]。加丹荷和哈勒姆(GadanhoandHallam)也认为情感可以影响到认知的几个不同的基本机制,包括感知、注意力、记忆和推理(reasoning)[47]。
情感影响认知的五个方面
加丹荷和哈勒姆进一步指出,情感的一些性质可以被转移到人工智能身上:
1)注意力控制:情感可以通过影响感知和推理机制使主体将注意力集中在最紧迫的问题上;
2)强化主体的适应性:情感能够检查主体的表现,从而在需要的时候改变主体的计划和行动;
3)记忆过滤:情感能够更好的回忆起与当下情感状态相一致的事件。这种回忆可以帮助主体了解曾经的高兴或伤心状态,从而影响到最后的决策;
4)辅助推理:施动者的情感系统迅速获得知觉线索,可用于指导认知信息的获取,以供认知系统的思考;
6)身体的生理唤醒:强烈的情绪通常与预知到的所需行动回应的能量释放有关。应用到人工智能系统中可以包括系统参数的调整,例如行为活动的速度;
7)对社交互动的支持:情感的表达使个体能够向他人传递对其生存至关重要的信息,因此具有很高的适应性价值。[48]
很多学者认为情感可以影响认知过程,尤其是在解决问题和决策(decision-making)这两个方面[49]。对他们而言,情感的最基础和最普遍的功能是“让机体的意图性决定机制作用得更有效率”[50]。
认知是一种阶段性的行为,可以被划分为好几个层级。例如,斯洛曼(Sloman)指出机器人认知行为包括三个主要过程:1)反应的(直接行动);2)审议阶段(在可能的行动中选择更好的、更有效的);3)集成管理(允许内部过程被监控、分类、评价、控制)[51]。又如,奥托尼(Ortony)也分析了情感(价值)的相互作用、动机(行动趋势)、认知(含义),以及在信息处理三阶段的行为,分别是:反应的(电路设定的行动模式-初级情感)、日常的(熟练自动行为-原始情感)、反射的(高阶认知功能,综合认知、无意识、自我反映-高阶段情感)。若认知能力达到第三阶段,则需要机器人能够在一些不可预知的环境中处理未被设定规则的任务,让机器具备一定的好奇或自我意识,拥有更为精妙的处理问题的能力。
HiddenGroup(刘兆鑫,陈熙,宫一宁),《TheStranger》,装置,影像,2018年
四、“机器情感”在人工智能领域的应用
如之前所提到的,机器模拟人类情感的表达或识别人类情感表达并不被认为是拥有情感,只有当机器产生一种像人类情感一样的,能在机器主体中发挥着影响行为组织作用的自主调节机制时,才能被认为拥有了“机器情感”。本文发现,虽然很多有关情感在人工智能领域的应用型研究仍是从模拟人类情感的表达或识别人类情感表达的角度出发,但近年来,已经出现越来越多的在人工智能机器内部构建“机器情感”的尝试和探索。
还有一些研究试图在生理情感和计算机运算之间搭建桥梁。他们希望通过借鉴人类身体中一些神经调解物质的变化,来反映到计算机运算的数字变化上,以此构建一种属于机器自身的情感变化。例如,库古拉科娃等(Kugurakovaetal.)希望建立一个模拟人类的主体,这个主体拥有内在的情感状态并且会对情感刺激作出回应,会对它的对话者表现出同情或是侵犯等情绪[53]。他们认为,真正的人工智能情感需要拥有一个可以决定机器主体的回应与内在情感状态的复杂结构。他们借助勒夫海姆的情感魔方理论,以人类大脑内化学和生理过程机制为基础,在机器模型中模拟了多巴胺(dopamine)、血清素(serotonin)和去甲肾上腺素(noradrenaline),通过这些神经调节物质的变化来表现机器情感。而瓦维杜等(Vallverduetal.)提出了一个类似的模型——神经调节认知体系“NEUCOGAR”(NEUromodulatingCOGnitiveARchitecture)。NEUCOGAR的目的是“根据冯·诺依曼(VonNeuman)的构架,识别从血清素、多巴胺和去甲肾上腺素的影响到计算程序的映射,从而实现可以在图灵机器模型上运行的情感现象”[54]。与库古拉科娃等人研究的不同之处在于,他们用冯·诺依曼构架的指标扩展了勒夫海姆的情感魔方。
Kuki&Blenderbot,《机器人之战(潘多拉机器人vsFacebook机器人),AI聊天直播,2020年
除了借助人体神经调解物质的变化来反应机器情感的变化以外,还有一些学者试图通过一些工具——可变模糊集和模糊认知图等——对原始数据进行计算,反映机器情感的变化,对机器情感进行预测,以及设计情感决策系统等。例如,范等(Fanetal.)结合了情感维度和可变模糊集理论(theoryofvariablefuzzyset)来呈现一个预测机器情感的模型;研究表明,任何输入的原始数据都能通过可变模糊集进行计算,它提供了一种数学方法来表示定量的、渐进式定性的和突变式定性的情感变化[55]。又如,萨摩荣(Salmeron)发表于2012年的论文以赛耶的情感模型和模糊认知图(FuzzycognitiveMaps,FCMs)为基础,为预测机器情感和设计情感决策系统提供了新的方法;他的研究表明,通过FCMs传感器所生成的原始数据可以预测机器情感[56]。在此论文基础上,萨摩荣于2015年再次发表了以模糊灰色认知图(FuzzygreycognitiveMaps,FGCMs)为有效工具,对于沉浸在高度不确定性的复杂环境重的自主系统(autonomoussystem)的机器情感进行预测[57]。
模糊灰色认知图
五、结论
本文首先阐明了一般生物意义上的情感是什么,并试图了解这种人工智能机器是否可能拥有这种情感。本文发现,人类赋予机器情感的目的往往是为了让机器更加接近人类的行为模式,从而为人类服务。以人类为中心的立场决定了机器不可能拥有独立的情感机制。研究者们认为,模拟或是识别人类情感的表达并不能被认为是拥有情感,从而进一步提出了“机器情感”的概念——它能够像人类情感一样在机器内部形成自主调节机制,并且发挥着影响行为组织的作用。
通过回顾近年来情感在人工智能领域的一些理论和实际应用,本文发现认知情感、预测情感、利用情感帮助决策等仍旧是情感与机器研究领域的一些核心话题。然而,本文也发现,在人工智能机器内部建构机器情感机制成为了这一领域的新的研究方向。这类新的研究试图跨越生物和机器之间的鸿沟,在二者之间搭建桥梁。他们试图在机器内部模拟人类的情感变化机制,却又不是将人类情感以输入的方式移植进来,往往更加强调外部环境对于机器情感的影响。
*北航第二批人文社科拔尖人才支持计划“基于中国沉浸式艺术的时空意向与审美生成机制研究”(项目批准号:YWF-20-BJ-W-237)
作者|阳烁(中国艺术研究院助理研究员)、王硕(北京航空航天大学新媒体艺术与设计学院讲师)
原文发表于《美术馆》2020年第3期
注释略。
中央美术学院美术馆活动安全免责协议书
第一条
本次活动公平公正、自愿参加与退出、风险与责任自负的原则。但活动有风险,参加者应有必要的风险意识。
第二条
第三条
参加本次活动人员应该是成年人(具有完全民事行为能力的人,18周岁以上)未成年人必须在成年人的陪同下参观。
第四条
第五条
参加活动者在此次活动期间应主动遵守美术馆活动秩序、维护美术馆场地及展示、展览、馆藏艺术作品及衍生品的安全。活动中一旦因个人原因造成美术馆场地、空间、艺术品、衍生品等受到不同程度的损失、破坏。活动中任何非事故当事人及美术馆将不承担相应的责任与损失,应由参与活动者根据相应的法律条文、组织规定进行协商和赔偿。并追究相应的法律责任和经济责任。
第六条
参与活动者在参与活动时应当在美术馆工作人员及活动导师、教师指导下进行,并正确的使用活动中所涉及到的绘画工具、创作材料及配套设备、设施,若参与者因个人原因在使用相应绘画工具、创作材料及配套设备、设施造成个人受伤、伤害他人及造成相应工具、材料、设备或设施的故障或损坏。参与活动者应当承当相应的全部责任,并主动赔偿相应的经济损失。活动中任何非事故当事人及美术馆将不承担人身事故的任何责任。
中央美术学院美术馆肖像权许可使用协议
一、一般约定
(1)、甲方为本协议中的肖像权人,自愿将自己的肖像权许可乙方作符合本协议约定和法律规定的用途。
(2)、乙方中央美术学院美术馆是一所具有标志性、专业性、国际化的现代公共美术馆。中央美术学院美术馆与时代同行,努力塑造一个开放、自由、学术的空间氛围,竭诚与各单位、企业、机构、艺术家和观众进行良好互动。以学院的学术研究为基础,积极策划国际、国内多视角、多领域的展览、论坛及公共教育活动,为美院师生、中外艺术家以及社会公众提供一个交流、学习、展示的平台。作为一家公益性单位,其开展的公共教育活动以学术性和公益性为主。
(3)、乙方为甲方拍摄中央美术学院公共教育部所有公教活动。
二、拍摄内容、使用形式、使用地域范围
(1)、拍摄内容乙方拍摄的带有甲方肖像的作品内容包括:①中央美术学院美术馆②中央美术学院校园内○3由中央美术学院公共教育部策划或执行的一切活动。
(2)、使用形式用于中央美术学院图书出版、销售附带光盘及宣传资料。
(3)、使用地域范围
适用地域范围包括国内和国外。
使用肖像的媒介限于不损害甲方肖像权的任何媒介(如杂志、网络等)。
三、肖像权使用期限
永久使用。
四、许可使用费用
带有甲方肖像作品的拍摄费用由乙方承担。
乙方于拍摄完带有甲方肖像的作品无需支付甲方任何费用。
附则
(2)、本协议自甲乙双方签字(盖章)、勾选之日起生效。
(3)、本协议包括纸质档和电子档,纸质档—式二份,甲乙双方各执一份,均具有同等法律效力。