近日,一张“被压废墟下的小男孩”图片引发广泛关注。这张由AI生成的图片在某短视频平台被多个账户转发,配文都与西藏日喀则地震关联。令人警惕的是,配文关联日喀则地震的AI生成图片并非个例。尽管大部分转发后的图片被平台提示为“AI生成”,但仍有不少网友误以为真。
在这波谣言中,有两个特点值得注意。其一,“被压废墟下的小男孩”图片是在被盗用转发时与地震相关联的。其二,媒体测试发现,在未给予任何侵权、违规、虚假信息等干预提示下,多款AI智能生成软件就自动生成了多张相关图片。记者随机配上音乐,并标注关联日喀则地震的字样,相关视频就能顺利发布。这说明,从内容生成、搬运到发布,甄别与监测是滞后的。
其实,治理谣言的要诀不外乎三句话。谣言止于公开,止于智者,止于法治。在人工智能的语境下,所谓止于公开、止于智者,是指平台方快速协同辟谣,并把AI作为谣言粉碎机。所谓止于法治,则指构建行之有效的网络监管机制,并对相关违法犯罪予以重拳打击。三者相互依托、相辅相成,就能形成治理谣言的合力。
先从法治说起——AI造谣门槛低、批量化、难识别,亟须对其加强司法治理。在事前阶段,要明确研发者、服务提供者以及网络平台的主体责任;在事后阶段,则要严格追究违法行为人的刑事责任、行政责任。只有扎紧网络空间的制度篱笆,阻断黑灰产业链,提高违法成本,AI谣言才会“插翅难飞”。再来说平台协同辟谣——AI内容生成平台要完善对生成内容及其来源的标识机制,并与互联网内容平台实现数据共享,从而实时进行数据识别比对、预警。最后,互联网内容平台可“用AI治理AI”,对受谣言滋扰的用户智能推送辟谣内容。只有三管齐下,治理AI谣言才能“先人一招”。(杨博)