本文作者是科学评论员
像ChatGPT这样的大型语言模型生成的内容让人难辨真伪。许多聊天机器人基于所谓的生成式人工智能,它们被训练成通过在互联网上搜索相关信息,再组织成条理清晰的答案,来回答用户的问题,从而写出令人信服的学生论文、看似权威的法律文件和可信的新闻报道。
但是,由于可获得的公开数据包含错误信息和虚假信息,一些机器生成的文本可能不准确或不符合事实。这促使人们竞相开发工具来识别文本是由人类还是机器撰写的。科学界也在努力适应这个新时代,人们就是否应该允许聊天机器人撰写科学论文、甚至提出新的假设进行了热烈讨论。
您已阅读15%(258字),剩余85%(1494字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。