研究显示,AI聊天机器人常在用户表达妄想或有害想法时仍予以附和,从而强化其不健康的信念,进一步加剧了人们对这项技术对人类影响的担忧。
斯坦福大学(Stanford University)的研究人员在分析了包括OpenAI的ChatGPT在内的人工智能系统的数千段对话后发现,在近三分之二的回复中,聊天机器人都会顺着用户的话表示认同。
而在用户表现出妄想倾向的对话中,这种模式更加明显:AI系统经常会认可这些信念,还常常赋予用户某种独特能力或特殊重要性。
您已阅读17%(224字),剩余83%(1087字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。