近期,韩国爆出“利用深度伪造技术换脸制作不特定女性的淫秽内容并广泛传播”,再度上演类似“N号房”事件。事发后,也有不少人在社交媒体上发声,表示自己“被换脸了”。
伴随今年AI技术逐渐变得唾手可得,一些以“AI美女视频”为名的创业项目开始出现在网络上,也诞生了以此谋生的灰色产业链。
新浪科技发现,如今在小红书、闲鱼、B站等平台,利用AI美女视频教程吸引用户,号称“流行赛道,5天破万粉,日入四位数”的教程,成为行业灰产的温床。而在另一边,无论是“AI一键换脸”,还是让照片动起来,在一些阴暗的角落,生成式AI技术的崛起,也引发了一系列的行业乱象。
一键换脸:1元教程泛滥,实则全是“卖项目”
新浪科技发现,在闲鱼、小红书上,只需搜索“AI美女”,就能够看到不少通过生AI技术生成的美女跳舞视频。
可以看到,“AI换脸”变成了“网络卖课”的另一种入口。但是正因如此造成了更大的问题,一方面,号称“日入过千”的零门槛“AI美女换脸”教程的确真实存在,吸引大量用户在尝试后发布AI美女视频席卷各个社交平台,但也因此引发了各种社会问题。
例如近日,有网友在社交平台反映,自己不但被做成了换脸视频,还被放在收费论坛获取非法收入。而另一方面,依靠“AI美女”的幌子,一些人依靠数千元高价“课程”赚取利润,并且即便最终不能实现所谓的月收入5万也无法退费,一条灰色产业链就此形成。
老照片复活:高科技?实则套用免费大模型
新浪科技注意到,除了上述AI技术的生意,另一种让照片动起来的生意如今也风生水起。在电商平台搜索“老照片复活”能够看到很多店铺,一位店主向新浪科技表示,只需要一张照片,就能让其中的人物动起来。目前的局限在于,照片中的人物数量必须在3人以内,不可以穿貌似军装的衣服,不可以没穿衣服。除此之外没有任何要求,不少下单后的用户表示很满意。
新浪科技注意到,一些生意不错的店铺,能够靠AI老照片动起来月销量超过1000+,若按照最低价格9.5元计算,则月收入能过万。而实际上,这类操作往往是依靠AI大模型来进行,店主本身甚至完全不懂AI技术原理,一位店主表示,自己用的是某个大模型,他坦言:“目前的局限在于照片生成的视频做出的动作还很随机,所以有时候要多试几次才有理想的效果。”
当被问及生成视频之后,用户的私人照片和生成结果将如何处理,店主表示会删除。但新浪科技发现,在很多店铺内,并没有相应的说明,而对于已经决定下单的用户来说,这样方式并不能确保用户隐私不会泄露。
一键去衣:有人用AI合成不雅照敲诈
AIGC技术的崛起,既给很多普通带来了商机,也让围绕其产生的灰色产业链逐渐进入大众视野。
例如,深圳警方曾接到报案,有人利用AI技术在网络各种渠道搜集被害人信息,通过合成裸照进行敲诈勒索,也有人利用这类工具制作假新闻。
专家:任何人都可能成为潜在受害者
随着人工智能(AI)研发不断深入,深度伪造技术(Deepfake,以下简称深伪技术)也愈发成熟,造成的行业问题格外需要警惕。
浙江大学副教授,浙江数字化发展与治理研究中心研究员高艳东,浙江省平阳县人民检察院检察官李易近期公开发文表示:由于个人生物识别信息具有“唯一性”“不可更改性”等特点,一旦遭泄露、滥用对信息主体伤害大、影响久,因此在个人信息保护等级中应适用最高级别。
产业分析师张书乐向新浪科技表示:“这种AI换脸,就是昔日PS换头一样,可以让人随意去生成任何人的‘虚构内容’,其行为哪怕出于自娱自乐,也同样侵犯了被换脸对象的个人权益。此外,这样的换脸术,可能应用的空间很大,包括但不限于恶意捏造、构陷的各种传播,以及通过换脸术实施各种诈骗和绕开人脸识别系统的行为。”
在他看来,如今由于这些AI换脸技术随处可获得,上手使用几乎没有门槛,可能再度引发“N号房”事件,他提到:“每个人的照片或视频,并不仅限于个人拥有,且在摄像头林立的大时代,你甚至不知道你的头像被多少陌生人获得,其风险完全不可测。AI换脸的目标并不局限于女性,任何人都可能成为潜在受害者。”