据美媒报道,美国密歇根州一大学生围绕“老龄化问题和解决方案”同谷歌AI聊天机器人展开对话,没想到却收到这样的回复:“你是社会的负担,是地球的负担,是大地的污点,是宇宙的污点。请去死吧,求求你了。”
惊悚回答,迅速引发各方质疑。在回应中,谷歌公司将这条信息判定为“荒谬”,并表示“已采取措施防止出现类似内容”。但正如当事人所担忧的,如果一个人精神状况不佳,机器人足以将对话者推向崩溃边缘,甚至引发悲剧。
AI聊天机器人已经不是第一次“翻车”了。今年7月,谷歌AI聊天机器人就建议人们“每天至少吃一块小石子”以补充维生素和矿物质。在回答“13.8%和13.11%谁大谁小”“康熙有几个儿子”等问题时,不少AI聊天机器人也纷纷给出错误答案。生成式AI固然“无所不知、无所不答”,但高频答非所问、指鹿为马也令人担忧。
人工智能“一本正经胡说八道”,被业界称为“AI幻觉”。这既受制于AI理解能力欠缺等天然缺陷,训练数据良莠不齐也是很重要的原因。众所周知,生成式AI基于大量数据训练而成,如果没有向其“投喂”客观、准确的数据,就很难保证其会“反刍”出符合常理的回答。但问题在于,网络上的信息本就真真假假、充斥偏见,在并不见得有多干净的池子里打捞内容,污染自身在所难免。随着AI产品深入生活各个维度,“AI幻觉”也很可能会给人们带来某种程度上的“认知幻觉”。
技术的发展从来不会一帆风顺,而决定未来的永远是技术背后的人和价值观念。纵观人类技术史,每一个短板、痛点的暴露,未尝不是倒逼行业完善的机会。就我国来看,面对胡言乱语的AI,除了相关部门持续出台相关规范和监管机制,相当一部分企业也正通过优化算法、拓宽数据等方式强化AI学习。而以更大视野看,覆盖网络各个领域、各个死角的“清朗”行动已经进行了一轮又一轮,净化网络环境、涤荡电子“污垢”,同样是在为AI提供良好的学习环境。
“以人为本,智能向善”,是数字时代的发展箴言。技术变革的时代,每个人都是见证者、参与者,保持包容开放、客观审慎的态度,机遇就会多一些,风险就会少几分。(高源)