观点人工智能

AI的“同理心”是我们人类的那种同理心吗?

奥康纳:说聊天机器人比真人表现得更有“同理心”会有什么问题呢?如果新技术改变了词语的定义,它也可能会改变我们对我们自己的认知。

我们曾经以为在机器兴起以后仍将牢不可破的“人类独有的”特征终究一个接一个地开始沦陷了。先是创造力。下一个是同理心?

如果你看过了新近的一些研究,你会这么想也是情有可原。有一项研究是由聊天机器人和真人医生在一个网络论坛上回答患者问题,然后由一个正规医护人员团队比较双方的优劣。聊天机器人得到的评分明显高于真人,不仅是因为回答的质量,也是因为有同理心。

在一项原创的有效性研究中,大语言模型包括ChatGPT-4、ChatGPT-o1、Gemini 1.5 Flash、Copilot 365、Claude 3.5 Haiku和DeepSeek V3在五套标准情商测试中表现远胜人类,平均准确率为81%,而人类平均准确率为56%。该报告的作者们认为,这增添了“日益详实的证据,表明ChatGPT之类大语言模型能精通——至少与很多人不相上下,甚至更胜一筹——传统上被认为只有人类能理解的社会情感任务”。

您已阅读25%(396字),剩余75%(1187字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归manbetx20客户端下载 所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×