网上冲浪,亲耳听到的就是真的吗?未必。网络平台上,AI声音随处可见。“新华视点”记者调查发现,随着人工智能技术和语音大模型应用的发展,AI合成声音App大量出现,最快只需十几秒便可“克隆”出来。与此同时,AI声音滥用现象愈发突出。(2月13日新华社)
过去,人们总是笃信自己亲眼看到的、亲耳听到的信息。但这些年,“有图有声有真相”这一判断标准一再受到冲击,你以为的事实很可能是由AI生成的。随手打开一个短视频平台,并以“AI声音克隆”为关键词检索发现,明星翻唱、新闻播报、吐槽点评等大量视频涉及AI声音,混淆公众认知。“假赵本山”用英文演小品、“假雷军”辣评热点话题、“假张文宏”深夜直播带货……越来越多人借着AI模拟名人声音招摇撞骗,逼真程度堪比真人、叫人难以招架。
技术在狂飙,风险也在加剧。用张文宏的话说,这些假的AI合成信息,就像漫天飞过来的“蝗虫”一样害人。今天可以模仿名人逗你一笑,或是借网红明星之口引流带货,明天就有可能用你的声音“移花接木”,为网络诈骗埋雷。这并非危言耸听。据新闻报道,有不法分子通过“AI换声”仿冒一位老人的孙子,诈骗老人2万元,类似的诈骗案件在全国已发生多起,有的诈骗金额甚至达到上百万元。此类案件提醒我们,在泛滥的“一键变声”面前,每个人都可能成为“受害者”。技术滥用对普通人造成的安全隐患和威胁,绝对不容小觑。
以上种种也表明,对AI声音进行规范管理,必要且紧迫。近年来,有关主管部门出台《人工智能生成合成内容标识办法(征求意见稿)》等规定,一定程度上给AI技术使用画定了红线。然而,落脚到现实操作中,对于AI声音应用涉及的造谣侵权、道德伦理等问题,如何形成具体细化的规则,还有待进一步思考。此外,短视频平台对AI内容审核机制滞后,部分侵权内容在投诉后仍反复出现。这需要相关部门继续加大对滥用AI声音侵权的打击力度、形成更完善的常态化治理机制,也需要平台“用魔法打败魔法”、不断升级更新审核检测技术,以应对层出不穷的AI仿声骗局。(付迎红)