算法偏见:也称算法歧视,指那些可以造成不公平、不合理结果的系统性可重复出现的错误,其最常见的是对不同人有不同的结果,或者是给两个相同或相似条件的人不同结果。如算法设计者刻意编写带有主观性的程序将出现算法操纵现象。
按照损害的主体范围和利益范畴的不同,可分为三种类型:
1.损害公众基本权利的算法偏见。损害公众基本权利的算法偏见主要是指含有算法偏见的算法损害不特定主体的基本权利。这些利益的享有人不确定,利益侵害的力度未知,危害后果难以遏制,且受损害的个体难以获得救济,主要表现为性别歧视和种族歧视。种族歧视或性别歧视在算法偏见中出现较多,也是公众最关心的。种族歧视导致就业机会不均、种族隔离、普遍贫困等问题;性别歧视往往造成同工不同酬、社会地位低微、难以获得医疗保健等问题。
2.损害竞争性利益的算法偏见。随着算法逐渐被用于商业经营,具有技术和市场地位优势的经营者更容易通过算法设置贸易壁垒,进行不正当竞争。
3.损害个体民事权益的算法偏见。除上述算法歧视之外,算法还可能对个体的民事权益造成损害,如“算法杀熟”。算法杀熟是大数据与算法结合的负面效应,在经济学角度有其合理性。传统环境下,市场的不确定性与信息不对称导致经营者无法获知消费者的消费能力。
因此,商品价格受供需关系影响,总是围绕商品价值上下波动。但大数据环境下,企业掌握着消费者身份、职业、喜好、消费经历、支付能力、支付意愿等海量数据,能轻易对用户进行数字画像,精准获知每一消费者所能承受的价格,并依此对消费者“贴标签”,制定不同营销策略,进行个性化营销。算法消除了企业无法获知个体消费能力的营销障碍,改变了“同物同价”的传统定价模式,使商品价格取决于每位消费者对该商品的主观定价。正如此,经营者为实现利益最大化,针对不同消费者制定不同营销策略,算法杀熟应运而生。
概念延伸
媒介偏见
指媒介在传播中没有保持平衡和公正的立场,传播了武断的态度和错误观念,引发受众的偏见态度或歧视行为,影响了社会心理的客观认知,最终对媒介形象和偏见行为对象等产生一定损害。西方学者将其将其划分为三类:一、守门的偏见,即记者编辑在新闻事实的选择上有明显的偏好;二、报道的偏见,即在新闻报道量上存在明显差异;三、陈述的偏见,即在新闻报道的语言陈述中存在倾向性。
算法黑箱
“黑箱”是控制论中的概念,作为一种隐喻,它指的是那些不为人知的不能打开、不能从外部直接观察其内部状态的系统。随着人工智能时代的到来,算法越来越多地支配着我们的生活,也给现存的法律制度和法律秩序带来了冲击和挑战。在人工智能系统输入的数据和其输出的结果之间,存在着人们无法洞悉的“隐层”,这就是“算法黑箱”,也称作“算法暴政”。
算法偏见对新闻信息传播的影响
背离了公平公正的新闻职业规范
挑战了用户知情权和信息选择权
算法在社交媒体中的运用使用户接收到的内容是被社交平台筛选过的,一定程度上替用户进行了信息选择,消解了用户的消息选择权。优先推荐依据所隐含的价值偏向过滤掉了与用户偏好无关的信息,突出了用户“欲知”诉求,忽视了“应知”诉求,损害了用户的知情权和信息选择权,消减了用户的人文价值判断和社会责任意识。
算法推荐在满足用户个性化需求的同时,窄化了用户的信息接触面,形成较为封闭的空间,在这个空间内,原有的信息和观点得到进一步的印证和强化,消减了信息传播的多样化,所带来的“信息窄化”增加了出现“回音室效应”的风险。
易于解构社会共识,引发舆论风险
算法不仅有助于媒体精准定位用户,提高传播信息的效率,也有利于用户快捷地获取所需信息,但这种运作模式左右着人们的社会认知行为,影响人们对世界的看法。
新闻传播中算法偏见的应对策略
从法律法规层面规约算法设计者和使用者
当下,在尊重算法运行逻辑的基础上,明确算法设计者和算法使用者的行为有助于避免算法偏见的产生。算法设计者对自己设计的算法负有直接责任,对因算法设计问题所造成的歧视、偏见等有损使用者的结果理应承担一定的责任与义务。
算法使用者也同样承担着因算法问题给算法服务对象造成损害的责任。算法的使用需要大体量的数据,而数据采集方式的隐蔽性以及数据挖掘技术的进步,加剧了数据被非法收集和过度分析的风险。因此,不仅在采集、使用、交易数据时,算法使用者不能以隐蔽或欺骗的方式获取、滥用和泄露个人敏感信息。
以“技术之力”消除“技术风险”
其次,将公正公平原则嵌入机器学习。从技术层面或者说在机器学习过程中嵌入“机会平等”概念和技术公平原则,在人工智能日渐代替人类做出抉择的时代显得非常重要。
最后,提高算法透明度。“黑箱”是控制论中的概念,通常指所不知道的区域或系统。由于机器学习过程中所涉及的技术繁杂,以及排他性的商业政策所导致的不透明等因素,使用户对算法的详细程序、工作原理、具体意图无法了解或无从得到解释,这就形成了“算法黑箱”。算法的透明度问题本质上也是新闻生产的透明度问题。算法自身的复杂性再加上无法洞悉的“算法黑箱”的存在,增加了公众对算法的设计原理、运行逻辑的理解难度。
建立第三方审核机构,强化行业自律
由于算法有着较强的专业性和复杂性,一般用户很难对算法设计者和使用者实现有效监督,较为可行的方式是建立由科研单位、非营利组织等多主体构成的第三方审核机构,制定完整的运行机制,对涉及面广、影响深远和存有争议的算法进行审查和评估,并借助互联网行业的自净功能来保证算法的客观性和公正性。
构建公平公正的算法价值观
算法系统除了需要技术人员和运营人员的参与,在实际运行中还有大量用户的参与,尤其是来自用户行为的数据更是进行机器学习的关键,但是,不能完全依靠用户的数据来实现算法的自我进化和修正。算法虽然不是大众传媒,但由于其深度参与了信息的生产和发布,自然也需要人类的适度控制与监督。
从算法系统的决策、设计到运营,必须自始至终遵循一套正确的价值观体系。尽管信息社会、数字化、大数据等概念已经为人们所熟知,但是,智能算法作为技术快速发展的产物,在大家的头脑中依然是陌生的、神秘的。因此,对算法的设计者、运营者、使用者以及用户而言,可以考虑把“算法价值观”纳入专业技能培养和通识教育体系中,帮助大家认清算法运行的基本原理和局限性。
[2]许向东,王怡溪.智能传播中算法偏见的成因、影响与对策[J].国际新闻界,2020,42(10):69-85.DOI:10.13495/j.cnki.cjjc.2020.10.005.
[3]徐凤.人工智能算法黑箱的法律规制——以智能投顾为例展开[J].东方法学,2019(06):78-86.DOI:10.19404/j.cnki.dffx.2019.06.002.