作者是Sifted创始人,一家由FT支持的关于欧洲初创企业的网站
生成式人工智能系统“产生幻觉”或者说是编造东西的倾向,有时候会变得古怪而有时候又令人害怕,正如新西兰一家超市连锁店所发现的那样。去年,Pak'nSave发布了一个聊天机器人,为节俭购物者提供使用剩余食材的食谱建议,其Savey Meal机器人向一位顾客推荐了制作“芳香水混合物”的方法,而这种混合物实际上会产生氯气。
律师也学会对生成式AI模型的输出保持警惕,因为它们有能力创造完全虚构的案例。斯坦福大学(Stanford University)最近对三个最先进的生成式人工智能模型对20万个法律查询的回答进行的研究发现,幻觉是“普遍而令人不安”的。当被问及关于随机联邦法院案件的具体、可验证的问题时,OpenAI的ChatGPT 3.5在69%的时间里产生了幻觉,而Meta的Llama 2模型则达到了88%。
对许多用户来说,生成式人工智能的幻觉是一个令人烦恼的错误,他们认为科技公司总有一天会修复它,就像电子邮件垃圾邮件一样。公司能够做到什么程度目前是一个活跃研究和激烈争论的课题。一些研究人员认为幻觉是技术本身固有的。生成式人工智能模型是概率机器,经过训练以给出最有可能的回应。很难将常识、背景、细微差别或推理等人类特质编码进去。
您已阅读34%(549字),剩余66%(1087字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。