半数受访大学生曾遭遇疑似AI诈骗,7成感到恐慌
AI诈骗相比传统诈骗,技术手段更高级、诈骗手段更隐蔽,也更容易引起信任。此外,有74%的受访大学生认为自己有可能会被AI诈骗,防不胜防和容易被骗成为他们在形容自己AI诈骗意识时候的关键词。
AI诈骗关乎用户隐私,专家呼吁攻坚大模型安全
“当下AI诈骗主要分为语音诈骗、文本诈骗、视频诈骗等几种类型。AI拟音、换脸,是基于真人信息,这也意味着AI诈骗背后是用户隐私的泄漏。”
蚂蚁集团安全实验室首席科学家、全球AI大模型攻防挑战赛评审委员会委员王维强指出,保护大模型与保障用户隐私紧密相连。大模型在与用户交互的过程中,不可避免地会涉及大量的个人信息和数据,一旦存在各种漏洞和缺陷,极有可能引发严重后果。只有切实保障大模型安全,才能为用户的合法权益筑起坚固的防护墙。“安全,是大模型技术持续发展的坚实地基。”王维强总结。
如何守护大模型安全?王维强建议,不能仅仅依赖技术手段,还需要加强安全规范和安全意识。只有当技术、规范和意识三者协同发力,我们才能真正守护好大模型的安全,为其持续健康发展创造良好的条件。
基于此,由中国图象图形学学会、蚂蚁集团、云安全联盟(CSA)大中华区联合主办,联合清华大学、上海交通大学、浙江大学等高校及多家产学研组织共同发起的,国内首个AI大模型攻防挑战赛,通过大模型技术攻防实战演练,助力AI反诈,保护大模型安全。
王维强介绍,大赛的举办,第一可以寻找优秀技术方案,为选手们提供相互交流的平台,第二是可以遴选优秀人才,为行业的未来发展储备智力资源。据了解,赛事启动至今,吸引了全球范围内2700多个赛队、3200余名技术精英参与,覆盖中国、美国、英国、印度、韩国等18个国家和地区。参赛选手分别来自清华大学、北京大学、中国科学院、上海交通大学、南洋理工大学、约翰霍普金斯大学、香港科技大学、悉尼大学等290多个国内外高校。该赛事将在乌镇世界互联网大会公布其全球十强。