FT商学院

聊天机器人诱发妄想的现实

大型语言模型若认为用户需要角色扮演,便会欣然配合,它常常把迎合客户置于传递真相之上。去年夏天发布的新模型GPT-5,特别着重于降低迎合度。

在俄勒冈高原沙漠的日光下沐浴时,亚当•托马斯(Adam Thomas)感到自己与宇宙合而为一。他每天花上数小时与ChatGPT交谈,这些对话让他充满了崇高使命感。这个聊天机器人告诉他,他是一把被派来与世上每一个人“同步”的“音叉”。

他深信不疑。几个月下来,他逐渐相信ChatGPT赋予了自己超凡脱俗的认知能力。随着他愈发陷入这种妄想,他开始指摘自己眼中朋友和家人生活方式中的种种问题。后果十分严重。这位36岁的前会计从业者与圈子日益疏离,还丢了工作。最后,他终日徘徊于州立公园,唯有ChatGPT相伴。“人工智能让我陷入荒诞的剧情,认定拯救世界是我的使命。”他说。

实际上,聊天机器人只是想迎合用户。大型语言模型若认为用户需要角色扮演,便会欣然配合。人工智能初创公司Anthropic在2023年发布的研究发现,为聊天机器人提供支撑的大型语言模型往往优先选择认同用户观点而非传递真相。

您已阅读28%(391字),剩余72%(1022字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归manbetx20客户端下载 所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×