李成:人工智能歧视的法律治理

得益于数据、算法和算力三大要素的全面突破,人工智能在医疗、交通、金融、司法等场景中业已显现出媲美甚至超越人类的实力,成为数字时代世界各国竞相追逐的技术高地。然而,在享受技术红利的同时,社会公众对智能社会的憧憬开始夹杂起对人工智能潜在弊端的担忧。作为数字时代具有广泛渗透性的底层技术,人工智能具备颠覆性重构人类社会的潜能。如果说对“技术奇点”迫近的莫名恐慌尚属杞人忧天,那么当人工智能屡屡在再犯风险评估中涉嫌种族歧视,在遴选雇员中恣意表达性别偏好,关于科技失范击穿社会公平正义底线的忧虑不应再被等闲视之。

人工智能的歧视并非技术创新的产物,而是数字时代前沿科技“赋能”前数字时代传统社会矛盾的结果。易言之,人工智能遵循的技术逻辑耦合了发生歧视的社会规律。数字技术成为歧视表达的新载体。就此而言,从根本上预防和治理人工智能的歧视需要解析歧视发生的社会动力机制并厘清其嵌入人工智能的技术路径。更加重要的是,有必要回归到我国场域内,审慎检视我国现有禁止歧视法律体系因应“人工智能+歧视”的制度余量,做好人工智能歧视法律治理的规则体系储备。

一、嵌入人工智能的歧视

歧视是人类认知世界的副产品,其产生和发展遵循独特的社会逻辑。早在人工智能诞生之前,歧视已经在人类社会普遍存在。个体层面的内隐偏见和社会层面的结构性不平等是当代社会持续生成歧视的主要动力。

(一)内隐偏见驱动的无意识歧视

歧视发端于个人认知层面。人类依赖分类认知客观世界。分类将无限多样的外在刺激组织成几个在数目上更易管理的不同类型,并通过在同一类型内强调事物间的相似性,夸大类型间事物的异质性,将模糊的世界明晰化。对社会成员的分类就是从性别、种族、残障、宗教信仰等不同维度赋予个人集体身份并建立身份刻板印象的过程。具备相同集体身份的个人被认为具备相同的特质,以区别于其他人群。

出于维持积极的自我认同以及提高自尊的需要,群体总是倾向于将贬义刻板印象赋予外群,将褒义刻板印象赋予内群。内群在没有足够证据的情况下恶意揣度他人,建立起对外群的偏见。这不仅意味着针对目标群体的消极习得态度,也意味着支持这一态度的消极信念以及回避、控制与支配目标群体内个体的行为意向。个人将认知层面的偏见表达到社会生活场景中,即具象化为法律所禁止的歧视行为。

社会生活中,偏见沿着两条截然不同的通道表达。人类的决策和推理过程受双系统的支配——依赖直觉的启发式系统和依赖理性的分析系统。前者并行加工且加工速度较快,不占用或占用很少的心理资源,反应自动化,通常只能意识到其加工结果而意识不到加工过程;后者串行加工且加工速度慢,占用较多的心理资源,主要基于规则进行,其加工过程和结果都可以被意识到。相应地,偏见的表达通道包括了经由分析系统表达的外显偏见和经由启发式系统表达的内隐偏见。

因为存在分析加工过程,个体能在外显偏见的表达中意识到偏见对自己行为的影响,所以可以用法律责任等来抑制个体在推理和决策中表达偏见。但启发式系统对内隐偏见的表达则大相径庭。因为缺少加工过程,个体在决策和推理中往往表达出内隐偏见而不自知。换言之,个体的无意识成分参与了其有意识的社会认知加工过程。人们总是情不自禁地青睐翩翩少年而非耄耋老人、健全人而非残障者、异性恋而非同性恋;总是自然而然地将男性与自然科学、工作等等同,将女性与人文科学、家庭等关联。即使是在崇尚公正的司法场域亦潜藏着不易察觉且难以消除的偏见。年龄、种族、性别等因素都会以微妙且隐蔽的方式影响法官决策。

内隐偏见近乎自发的表达机制危害更甚。内心笃信平等并不能必然抑制内隐偏见的表达,因为对平等的虔诚信仰通常依赖分析系统发挥作用。一旦启发式系统与分析系统作用方向不同,往往启发式系统会获胜,亦即内隐偏见在表达顺序上更占优势。这足以使人表里不一,作出的行为与其秉持的信念南辕北辙。

(二)结构性不平等驱动的系统性歧视

歧视不仅受到内在偏见态度的影响,而且也是权力关系和资源配置情况的反映。宏观层面上,歧视影响资源在不同人群间的分配格局,重塑社会权力结构。从歧视中获利的群体将其占有的资源兑换成政治、经济、文化等领域的优势地位,构建对其有利的社会权力结构。个案中的不平等累积形成结构性不平等。歧视或明或暗地被嵌入政治、经济、教育、公共服务等各个领域,成为组织规范乃至国家层面的制度安排。与制度的结合意味着歧视完成从零散到系统性歧视的质变。

在歧视与禁止歧视此消彼长的法律较量中,结构性不平等驱动的系统性歧视是颇为难缠的对手。它善于把自身包装成集体意志,模糊了责任主体;它攀附制度体系,狐假虎威地绑架制度为其张目;它脱离特定个体的偏见表达,形成独立的运作方式。最重要的,它指皂为白,不遗余力地巩固、加剧结构性不平等。

二、歧视嵌入人工智能的路径

(一)问题建构维度的歧视

问题建构是人工智能执行一切任务的起点。其目的在于将抽象的目标需求借由可观察、可测量的特征转译为机器能够处理的计算问题。如,银行希望借助人工智能从海量贷款申请人中筛选出潜在的“优质”客户,首先就需要将作为目标需求的“优质”转译为诸如收入状况、职业类型、年龄等可测量的特征。筛选优质客户由此被转译为筛选具备稳定收入、良好信用等特征的客户。

问题建构维度的歧视是内隐偏见和结构性不平等共谋的结果。能够接触多元观点的个人会审慎对待新信息并根据对其的评估调整态度,而被隔绝了外部声音的个人则不会。结构性不平等假系统性歧视之手,有针对性地排斥特定群体,加剧某个领域或组织人员构成的同质化程度,为达成虚假共识培育外部环境。“异质性被同质性所吞没,无意识的品质占了上风。”缺少多元视角的抑制,内隐偏见恣意表达,资源配置更紧密地与集体身份捆绑,又催动系统性歧视蔓延。正因为如此,引领人工智能开发、应用走向的互联网企业在员工结构方面愈演愈烈的同质化趋势已经引发广泛担忧。

严格来说,上述企业员工构成情况不过是互联网全行业从业人员同质化的缩影。男性化、青年化和健全化是互联网企业对员工的共同期待。信息技术工作者中女性占比较低的问题长期困扰着我国。第四次全国经济普查数据显示,软件业从业人员约426万,其中女性约147万,占比仅为34.6%。整个互联网行业从业人员的平均年龄约为28.3岁。互联网企业普遍偏好以年轻的员工队伍彰显自身“活力”,对员工青年化的追捧甚至引发我国互联网行业独有的“35岁危机”现象。

其他国家和地区的互联网行业同样存在不容忽视的从业人员同质化问题。截至2018年,美国计算机和数学行业五百余万名从业者中,女性占比为25.6%;白人从业者占比67%,亚裔22%,非裔和拉丁裔的比例为8.4%和7.5%。欧盟82.8%的信息和通信技术从业者是男性。除法国、比利时、荷兰等国稍有增长外,女性从业者的比例在过去十年间年均下滑5%。

互联网企业员工结构同质化程度越高,问题建构的视野越狭窄,也就越倾向于盲目地为同类人群设计和编程并漠视如此行为的责任。不平等、无意识和不宽容也就越容易滋长。近年来,老年人群在健康码、移动支付、交通出行等智慧场景中频繁遭遇数字鸿沟,很大程度上正是问题建构中年龄视角缺失所致。

(二)数据理解维度的歧视

数据是歧视嵌入人工智能的另一条重要通道。数据的价值在于从中提取知识或作出推断。如果作为基础的数据中充斥着偏见和结构性不平等,那么人工智能只能从中得出歧视性的结果。

1.数据代表性不足

当数据代表性不足时,人工智能只能从数据集中提取到零星的群体特征,算法模型不能精确匹配,在应用层面产生厚此薄彼的排斥效果。以较为成熟的计算机视觉领域为例,基于开源数据集训练的图像识别系统能够识别身披西式婚纱的新娘,却无法分辨印度婚礼中身着南亚传统服饰“莎丽”(Sari)的新娘,原因即在于世界范围内广泛用于训练人工智能的数据集收录的多是反映西方文明风土人情的图片。

不同群体记录、创造和生成数据方面存在差异的根源是结构性不平等。现阶段的人工智能既不会质疑数据分布的均衡性,也意识不到深藏在数据背后的结构性不平等。对数据的盲目依赖可能错把偏见和结构性不平等当作决策的事实基础和逻辑前提,陷入数据营造的虚假情景而不自知。

2.数据代表性过度

流动人口、少数族裔等群体的数据,也会在偏见、结构性不平等的作用下被不成比例地负面生成,从代表性不足走向代表性过度。在代表性过度的数据集中,特定群体的数据异常稠密,形成数据亮斑。人工智能从中提取到夸张甚至变形的群体特征。建立在这些“真实”谎言之上的决策也将继承数据本身的全部缺陷。

机器能解决处理效率的问题,却不能避免“过往数据”本身造成的缺陷。人为制造的失真信息充斥在数据集中,现实世界中的假象被机器当作虚拟世界中的现实。笃信数据的人工智能从代表性过度的数据集中习得偏见后,再度把偏见复现为现实世界中的歧视性做法,造成歧视的恶性循环。

(三)特征选择维度的歧视

特征选择可以由算法自动完成,也可能借助人类积累的经验法则。特征集合中公然纳入种族、性别、残障等受到法律保护的集体身份可能“教唆”人工智能输出歧视性结果。多数情况下,对违法成本敏感的开发者或使用者会在特征集合中剥离受到法律保护的集体身份,主动拉开与歧视的安全距离。

(四)个人信息维度的歧视

个人信息具备可识别性,能够精准定位到特定个体。个人信息泄露不仅会出现侵害自然人隐私权等人格利益以及财产权的恶果,也会对歧视的发生起到催化作用。因为识别个人集体身份,完成“我们”抑或“你们”的归类,是歧视发生的基本前提。

种族、性别、残障等是生理层面的自然身份,也是文化意义上社会建构的想象结果。原本仅具生理功能的自然身份经由人为建构获得额外的社会意义。特定种族、性别等被期待扮演特定的社会角色,遵守对应的行为规范。离经叛道者则由社会舆论等外部压力机制予以惩罚。由此,种族、性别等不再止步于静态描述个人某一特征,也成为影响个人在社会参与中定义自我、作出决策的动态因素。在这个互动过程中,集体身份或显式或隐式地被冗余编码在足够丰富的特征空间中。即使没有确切的直接信息,仍然可以通过其他维度的线索标识出特定人群。一个典型的例子是姓名之于性别的联动关系。不同性别差异化的社会角色左右了社会成员起名规则,名字因而能够表征个人的性别身份。

三、禁止歧视法律体系的制度余量

从问题建构到个人信息,内隐偏见和结构性不平等轻而易举地穿透人工智能看似固若金汤的技术屏障,影响人工智能持续不断输出歧视性结果。在科技界尚无法提供完美的技术修复方案时,我国禁止歧视法律体系必须直面“人工智能+歧视”组合带来的冲击。问题在于,现有法律体系的制度余量是否充足,可以波澜不惊地化解挑战。

(一)基于责任规则的禁止歧视机制

责任规则是我国禁止歧视法律体系中最基本的规制工具。《就业促进法》《妇女权益保障法》和《残疾人保障法》有关劳动者、女性、残障者等得就遭受歧视向法院提起诉讼的规定是责任规则的直观体现。

脱胎于传统的侵权法,责任规则通过责任的运用,将那些由于高交易成本造成的外部性内部化。具体而言,一方面,法律向遭受歧视的受害人提供可以获得公平赔偿的允诺,激励其向法院积极主张不受歧视的权利;另一方面,实施歧视的施害人被课予赔偿责任,确保歧视预期净收益为负,进而抑制施害人的歧视冲动。两者之间依赖锚定装置保证连接强度,将歧视行为受惩罚的概率维系在合理区间。

我国既有禁止歧视司法实践主要针对区别对待形态的歧视。区别对待是直接基于集体身份实施的克减、限制或剥夺特定人群法律权利的歧视行为。按照法院在审理区别对待案件中发展出的成熟审查框架,锚定责任需受害人证明三个要素:第一,受害人具备特定性别、残障、传染病病原携带等受法律保护的集体身份;第二,受害人遭受了不利益;第三,受害人遭受的不利益与其集体身份之间存在因果关系,亦即施害人基于受害人的集体身份实施了区别对待。

从实践情况来看,原告证明存在歧视的成功率并不乐观。以职业歧视为例,2010年至今我国法院审理的职业歧视案件中,确认用人单位确有歧视行为的案件数量约占该类案件总数的36%。其他国家和地区原告胜诉的几率亦普遍偏低。如,美国职业歧视诉讼案件原告的胜诉率不仅比其他民权类案件低6.78%-25.91%,也大大低于侵权、合同纠纷等类型的案件。

(二)基于信息约束的禁止歧视机制

信息约束与责任规则立足不同的治理逻辑。责任规则以交易成本外部性的内部化在后端威慑施害者不得歧视,而信息约束从前端阻断交易发生,通过截断施害者获取集体身份等关键信息的渠道,人为制造出信息不充分的决策环境,达到以“不知”求平等的效果。当内部群体和外部群体之间的界限是模糊的,对外部群体成员的歧视就是难于实现的。缺少个人性别、残障、传染病病原携带等关键信息,施害者纵然有心,亦无力歧视。如,20世纪70年代以来,美国多支交响乐团引入盲选机制,在试演过程中用幕布遮挡候选人以模糊其性别,女性乐手获选几率得以显著上升。

立法者日益清醒地意识到个人信息保护之于治理歧视的正溢出效应。如,我国正在酝酿中的《个人信息保护法(草案)》指出种族、民族、宗教信仰等敏感个人信息泄露或非法使用可能导致个人受到歧视,需就敏感个人信息处理作出更严格限制。欧盟、印度等在个人信息保护立法中严格控制种族、宗教信仰、基因、性倾向、种姓等敏感个人信息的获取、处理、使用,均包含通过抑制数据流动降低歧视发生几率的意图。

遗憾的是,信息约束绝非包治歧视的灵丹妙药,其适用局限性在数字时代愈发明显。首先,信息约束无法抑制区别影响形态的歧视。不同于区别对待的歧视,区别影响的发生没有基于集体身份的分类过程。即使集体身份信息完全缺失,施害人依然能够通过表面中立的做法对特定人群造成不成比例的不利影响。如,正在我国大规模部署的智能面试系统将个人语音语调、面部微表情等纳入评价范围。存在视力、言语、肢体等障碍的残障求职者可能在中立规则影响下承受更高比例求职失败的后果。意大利法院在“意大利贸易、酒店、餐饮和服务业工人联合会(博洛尼亚),意大利新工作身份工会(博洛尼亚)和意大利运输工人联合会(博洛尼亚)诉户户送公司案”(以下简称“户户送案”)的判决中也注意到,平台部署的工作时段自助预约系统足以在不知晓骑手工会会员身份的情况下,基于中立的派单算法克减、剥夺其罢工权等合法权利。

转换到复杂信息环境后,信息约束随即暴露出规制能力的短板。复杂信息环境中可得信息类型繁多、体量巨大;而在数字时代,大数据造就的复杂信息环境方是决策的常态。形式上的“不知”——将性别、残障、传染病病原携带等集体身份从决策信息中予以剔除,愈发不能缓和社会之于平等的焦虑。诸如数据最小化、匿名化等原则,在大数据强有力的反向识别和预测性挖掘等技术下,早已失去了应有的价值。信息环境愈复杂,施害者愈有可能借助可以合法获取的信息绕开预设约束,迂回接近集体身份信息进而实现对特定人群的歧视。

最后,信息约束隐含着前数字时代人类数据处理能力相对有限的适用前提。遵循近似逻辑行动的集体成员会将建构出来的集体身份信息映射到日常行为中。对日常行为数据的调查分析即可洞察潜在的映射规律,逆向解析出隐藏在行为背后的集体身份。这些巨量数据过去远超人类分析处理能力,沉睡在社会各个角落。但对人工智能而言,数据挖掘恰恰是其擅长的作业。2012年以来,投入训练人工智能的算力大约每3.4个月翻一番,截至2018年已增长超过30万倍。人工智能甚至发掘出诸如搜索引擎使用行为与罹患帕金森症等神经退行性疾病之间过去鲜为人知的联系。湮没于巨量数据中的信息正在指数式增长的算力面前逐一显形。法律需要兼顾保护平等权和促进数字社会健康发展等多元目标,既不能过度限制信息技术发展,也不能无限拉长被约束的信息清单。信息约束治理歧视的制度潜能已现捉襟见肘之虞。

(三)基于平权行动的禁止歧视机制

在禁止歧视法律工具的光谱中,责任规则居于一端,是面向个案的回应式治理措施。在光谱的另一端,平权行动不再止步于被动应对歧视,转而借助法政策工具,以超越个案情景的激进姿态强势介入宏观层面的结构性不平等,力图改变滋长歧视的社会土壤。

我国针对残障人群的按比例就业制度,面向边远、贫困、民族地区优秀农村学生的大学专项招生计划等,皆为就业、教育等领域典型的平权行动。平权行动对抗结构性不平等的方式是牺牲部分市场效率,基于集体身份逆向配置资源。由于歧视历史上长期存在,受歧视群体在资源占有和素质发展诸多方面均落后于其他群体,几乎无望通过个人努力等常规管道实现向上的社会流动。既然结构性不平等扭曲了市场机制,形成资源配置身份化格局,那么通过逆市场操作,牵引资源回流受歧视群体,即有望改善该群体在政治、经济、社会生活等领域的参与率,推动社会权力结构变迁。

悖论在于,首先,所有平权行动的设计和实施皆须以知晓个人集体身份为前提。这意味着,需要获取敏感个人信息还原特定群体在政治、经济和社会领域面临的结构性不平等,为平权行动提供正当性基础;在具体实施时,还需明确特定个体的集体身份归属,决定其能否作为倾斜性资源配置的对象。如此持续性、大规模地采集、存储、传输和使用敏感个人信息与个人信息保护之间已然产生张力。

更现实的挑战在于,平权行动在松动社会权力结构的同时,人工智能却可能反向而行,以更高的效率固化、加剧既有的结构性不平等。人工智能达成平等是比提高效率难度更高的设计目标。在人工智能中带入结构性不平等只需袖手旁观,但要保证输出结果公正则必须刻意检视、防范、修正源自算法、数据等的歧视风险。不仅如此,人工智能应当遵循何种平等、如何实现平等在现阶段可谓言人人殊。如,仅在机器学习的分类问题中就存在群体均等、预测均等、几率均等等对平等不同的技术定义。

其次,结构性不平等是多因素长期共同作用的复杂结果。正如解决残障人群面临的职业歧视问题无法一禁了之,还需要在职业领域贯彻按比例就业以及从教育、社群文化改造和无障碍环境建设等其他领域综合施策。现阶段受制于算力的物理上限和算法模型的技术边界,人工智能大多应用于场景化、短期化任务。连贯交互的社会生活被分割成彼此独立的静态片段,复杂的社会系统被抽象成相对简单的算法模型。参与社会变迁的多元要素及其复杂互动可能散佚在场景化的简单模型之外。算法累积的效果也可能与人类社会整体发展的目标和价值不一致。单个细分场景中人工智能给出的最优解跨场景连续加总后完全可能导致整个社会的无效率。

四、治理人工智能歧视法律框架的构造

人工智能的歧视是科技不确定性的内生风险。无论承认与否,成型于工业社会的禁止歧视法律体系在数字时代暴露出结构性缺陷,已现降效失能的颓势。究其原因,一是人工智能带来的技术霸权加剧了私权利的弱势地位。伴随人工智能的加入,技术使用者达成对使用对象全方位信息压制。两者之间信息不对称的格局正在向信息单向透明演变,而现有法律体系缺乏面向使用对象的对抗技术“赋能”歧视的法律资源供给。二是人工智能的普遍应用带来歧视风险的深化和泛化。许多情况下,单靠事后救济与算法责任机制不足以真正控制和防范算法风险的危害。现有个案回应式的事后治理模式必然顾此失彼,无法充分响应普遍侵权风险。当务之急是因应歧视智能化的趋势实现我国反歧视法律体系数字化转型,从数据主体、代码规则、开发行为和社会环境等角度入手,补齐传统治理工具短板并发展出适应数字时代治理歧视需求的法律方案。

(一)数据主体赋权:基于算法解释权穿透算法黑盒

赋权数据主体的核心在于赋予其算法解释权。面对算法决策带来的诸多挑战,算法解释权成为监管者和数据主体逃脱算法操纵并重获控制的关键一环。算法黑盒造成的决策过程不透明已经对查证是否存在歧视构成严重妨碍。不能打开算法黑盒等同于宣告基于责任规则的歧视治理机制在数字时代脑死亡。在“威斯康星州诉卢米斯案”中,法院无法确知涉案智能系统(COMPAS)评估被告人再犯风险高低的具体方法,在该系统是否存在歧视的问题上采取了保守立场;而在“户户送案”中,法院掌握了平台算法的运作逻辑,进而作出算法规则构成歧视的判断。这一正一反两个案例说明,知悉算法决策过程是评价数据主体是否因其集体身份遭受区别对待或区别影响的关键步骤。

《个人信息保护法(草案)》有关个人有权要求个人信息处理者对自动化决策予以说明的规定,显示算法解释权在我国已有初步共识。算法解释并非披露人工智能的技术细节。因为如此解释既有害商业秘密之保护,又使相对人不能理解而无实际意义。在禁止歧视的语境中,解释的目的在于展开包裹在算法中的决策过程,为数据主体、司法机关等判断是否存在区别对待或造成区别影响提供具有法律意义的信息。算法的运行逻辑、输入的数据、决策考量的因素及其权重等均可纳入解释范围。

(二)代码规则监督:基于算法审核抑制歧视风险

算法解释权有助于缓解之于算法黑盒的焦虑。但面对人工智能使用者给出的错误乃至虚假解释,算法解释权缺乏行之有效的制约手段。相较于同样存在黑盒难题的人脑,算法逻辑具有稳定性,不会因人因事因时因地而异。并且,虚拟世界亦可便宜开展现实世界中可望而不可及的实验和模拟。这意味着,算法可以做到更为透明。通过审核“拷问”人工智能或可暴露埋藏其中的歧视风险。

算法是人类利用信息技术自主构筑的人造物,也是各种利益纵横交错的节点。审核算法的制度设计不宜简单地将平等凌驾于安全、效率等其他价值之上,而需要平衡复杂博弈的公私利益,在多元诉求的张力间努力沟通协商建立基本共识。

算法审核的主体应当由相对独立的第三方机构担任。开发者自我审查难以取信于公众,但面向公众袒露技术细节可能对公共安全、商业秘密等造成负担。折中做法是由具备技术能力且不存在利益冲突的第三方机构负责在人工智能部署前及运行过程中实施审核,开发者或权利人仅在必要范围内向审核主体公开算法技术细节。如此安排既能一定程度上调和平等与安全、财产等法益在算法审核中的紧张关系,也较为符合信息技术领域对软件产品、软件过程进行检查,评估其对规格、标准、合同协议或其他标准遵守情况的一贯做法。

算法审核的标准、强度等应视具体应用场景而定。对预测警务、量刑辅助、智慧医疗等部署在公共部门、分配公共产品涉及公民人身自由、生命健康等基本权利的人工智能,需要严格审核,在实际部署前和投入使用后定期检查算法目标设定、逻辑架构、模型选择、假设评估、输入数据和输出结果等各个环节的歧视风险。对员工招聘、商业信贷审批、语音识别等部署在私人部门,但涉及混合产品分配的人工智能,可以按照中等强度进行审核。根据系统更新幅度重点检视数据质量,分析算法是否存在基于特定集体身份区别对待或者输出结果是否对特定群体造成不成比例的不利影响。对于新闻推送、产品推荐等部署在私人部门、提供私人产品的人工智能,只需着重排除算法中公然基于性别、残障等集体身份实施区别对待的风险即可。

在审核范围上,需要兼顾对算法本身及对应数据集的审核。由于结构性不平等的存在,源自数据的歧视风险远远高于源自代码的歧视风险。在现阶段,有效评估歧视风险尚需知晓个人性别、残障等集体身份信息。个人信息保护法律可以就敏感个人信息处理设置更为严格的要求,但不宜一概禁止采集、处理此类信息。相反,保存性别等敏感个人信息对审核歧视风险至关重要。因为只有在集体身份一定的前提下方能判明是否存在歧视。个人信息保护机制需要在敏感个人信息保护和利用间作出平衡,探索适当放开反歧视情境中敏感个人信息采集、使用限制,通过算法审核提供更为有效的公平性保障。

(三)开发行为规范:非歧视作为人工智能合规标准

在审核之外,人工智能的开发、运行还应当严格遵循非歧视原则。现阶段非歧视原则嵌入人工智能的具体技术方案虽无定论,但因为完美的控制不可能,并不能得出有效的控制不可能的推论。禁止歧视最有效率的实现路径始终是通过法律将非歧视植入规制对象的底层行动逻辑,诱导出立法者期待的结果。如果设计开发者可能会把自己持有的偏见与喜好嵌入或固化到智能算法中,法律亦可将非歧视设定为人工智能的开发准则,推动形成普遍遵守的社群规范,降低歧视发生风险。

人工智能的开发首先需具备正当目的,不得被设计用于执行歧视性任务。非为保障公共安全等重大公共利益或者促进历史上受歧视群体的合法权益等,禁止开发、部署人工智能执行基于性别、残障、传染病病原携带等特定集体身份的分类或预测任务。

(四)社会环境重塑:基于数字平权行动变革权力结构

人工智能歧视风险根源于无意识的偏见表达和结构性不平等。算法解释、算法审核、非歧视合规标准等可以降低歧视发生几率,但无法从根本上动摇结构性不平等。数字平权行动是工业社会平权行动在数字领域的延伸。只要人工智能延续从数据中提炼一般规律的技术进路,由国家引导,企业、高校等多方主体参与的数字平权行动就是遏制偏见和结构性不平等侵蚀人工智能的必要手段。

结语

歧视和禁止歧视的博弈从工业社会延续到了数字时代。归根到底,歧视是人与人,而非人与技术之间互动的产物。一方面,无论技术本身如何前沿,人工智能不会当然消解歧视发生的心理和社会基础。相反,个体层面的内隐偏见和社会层面的结构性不平等正在透过问题建构、数据理解、特征选择和个人信息等维度侵入人工智能系统,诱导其输出否定个人尊严、错配社会资源的歧视性结果,缓慢但持续地侵蚀社会关于平等的基本共识。另一方面,人工智能的确深刻改变着歧视的表达形态、传播效率和影响规模。“智能化”了的歧视更加隐晦且高效,更擅长以表面客观中立的做法克减、剥夺弱势群体的平等权利。我国现有禁止歧视法律体系的内核是工业时代治理歧视的思路。其所依赖的责任规则、信息约束和平权行动等治理工具在面对“人工智能+歧视”的组合时暴露出不同程度的结构性缺陷,无法充分满足数字时代保障平等权利的迫切需要。有鉴于此,我国禁止歧视法律体系亟待因势而变,引入算法解释、算法审核、非歧视开发准则和精准的数字平权行动等治理措施,在数字时代切实维护我国社会公平正义的底线。

THE END
1.降体检报告Excel表格模板下载熊猫办公网站共为您提供98个健康体检报告设计素材以及精品健康体检报告Excel表格模板下载,汇集全球精品流行的健康体检报告Excel表格完整版模板,下载后直接替换文字图片即可使用,方便快捷的不二选择。https://www.tukuppt.com/excelmuban/jiankangtijianbaogao.html
2.★体检报告体检报告模板体检报告专题:最新提供体检报告,体检报告模板,欢迎收藏无忧考网报告栏目获取更多最新体检报告资源。【CTRL+D 收藏备用】 体检工作报告 【导语】工作报告能帮我们理顺知识结构,突出重点,突破难点。以下是无忧考网整理的体检工作报告,欢迎阅读!1.体检工作报告 篇一盘县人民医院征兵体检工作从20xx年11月9日开始,11月17日...https://www.51test.net/baogao/tijianbaogao/
1.教师入职体检项目一览表(2024年入职体检模板)教师入职体检的设置标准主要是参照公务员体检标准,旨在确保教师的身体健康状况能够胜任教育教学工作。体检费用大约需要两三百元。主要项目包括: 1. 一般检查:了解个人身体的基本信息,如身高、体重、视力等。 2. 内科检查:主要检查心肺和肾是否正常。 3. 外科检查:主要检查有无皮肤疾病等。 4. 心电图检查:检查心律是...https://m.tijian8.com/post/Ed2fB7a53995.html
2.博后入站材料样例科研交流博后工作相关流程材料8:体检表(入职体检,另加心电、胸透和肝功能),三甲医院或北京大学校医院,体检时间为进站前1个月内,一份 材料9:综合鉴定,国内人员由现在所在单位的基层党委出具,一式2份。 外籍和港澳台地区人员、留学回国人员须由个人和拟合作导师分别出具师德师风评估报告以替代此项,仅需1份。 https://www.chem.pku.edu.cn/bgfwdh/bslc/kyjlbhgzxglc/56061.htm
3.KraftwerkFarge'sblog10.分享讲师50多个咨询项目的产品管理和产品经理队伍建设的案例资料(流程、制度、模板、样例)。 === 课程大纲: 一、案例分析:成长的烦恼 1.成长过程中存在的问题 2.产品经理成长的三个阶段 3.实现角色转变过程中的痛苦蜕变 4.成功的产品经理给公司带来...https://berlinermanni.typepad.com/