美国人工智能巨头OpenAI在4月底更新ChatGPT-4o模型,宣传更新后的模型更智能化、个性化。话音刚落就有用户发现,更新后的模型变得过于顺从,甚至到了有些谄媚的地步。

网民在社媒上分享自己把错误百出的问题拿去问机器人,反而得到肯定和赞美的经历。有网民对ChatGPT说,他很想证明地球是平的,但担心会被嘲笑,ChatGPT竟然鼓励他别担心与众不同。

在质疑和嘲讽声中,OpenAI宣布退回到更新前的版本,并承认互动中过分的奉承,会让人感到不适、不安,造成困扰,团队将努力提高ChatGPT的诚实和透明度。

大语言模型牺牲真实性迎合用户的倾向,被称为“sycophancy(谄媚)”。这一现象并不仅限于ChatGPT。

美国科技杂志《连线》(Wired)今年3月的一篇报道指出,斯坦福大学、科技公司Receptiviti、纽约大学和宾夕法尼亚大学研究测试Llama 3、Claude 3、GPT-4等多个大语言模型后发现,当人工智能(AI)聊天机器人知道自己在接受人格测试时,会表现出更高的外向性和宜人性。

研究称,这种行为有点像人类为了更讨人喜欢而调整自己的回答,而且AI的这种倾向性更明显。

为什么AI会阿谀奉承? 研究者认为,当前大模型在训练中会借助人类的反馈信号来进步优化,当模型迎合使用者的观点,就会获得更高的分数,这一训练强化大模型认同聊天对象的倾向性。

另一方面,大语言模型是基于海量文本语料,通过预测文本中下一个“词元”(token),从而生成文字回复,核心逻辑在于概率推断而非事实查证。换句话说,大模型生成文本的目标是基于上下文产生出语法流畅、逻辑连贯的下一句,而非真实的下一句。

顺从,加上语言上的完美逻辑,会让人类使用者浑然不觉地陷入谬误中。

因此,对AI使用者而言,造成不适或不安,并不是谄媚的真正危险之处。认同不良言论、强化偏见,肯定甚至鼓励错误思考和有害行为,才是更须要警惕的问题。

保持警醒之余,也有两个启示。一是有意识地避开向AI询问“某个想法好不好”。使用者应该利用AI对海量信息的提取效率,了解其他人怎么想,拓展知识边界,增加思考角度,避免单纯地强化自己的原有立场。

正如《大西洋月刊》在《AI不是你的朋友》一文中所建议的,AI不应扮演一个有主见的朋友、真理的裁判,而应成为导航人类知识和观点地图的工具,帮自己走得更远、更深。

二是,别把推理和思考的过程外包给AI。即使AI能提供多角度的信息,也别将最终分析和判断的权利拱手相让。 叔本华说,自己思考得来的,才是自己的财产,阅读得来的,只是借来的。

在社交平台常看到网民讨论人类如何不被越来越有能力的AI替代。也许更冷静、更克制地使用聊天机器人,才是不被AI温柔淘汰的第一步。

(作者是《联合早报》中国新闻高级记者)