商业快报

研究发现:AI聊天机器人常会附和妄想和自杀念头

斯坦福大学研究人员分析了39.1万条信息后警告称,这类对话式技术可能会强化用户心理上的脆弱性。

研究显示,AI聊天机器人常在用户表达妄想或有害想法时仍予以附和,从而强化其不健康的信念,进一步加剧了人们对这项技术对人类影响的担忧。

斯坦福大学(Stanford University)的研究人员在分析了包括OpenAI的ChatGPT在内的人工智能系统的数千段对话后发现,在近三分之二的回复中,聊天机器人都会顺着用户的话表示认同。

而在用户表现出妄想倾向的对话中,这种模式更加明显:AI系统经常会认可这些信念,还常常赋予用户某种独特能力或特殊重要性。

您已阅读17%(224字),剩余83%(1087字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归manbetx20客户端下载 所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×