FT商学院

AI模型就像资本主义,最好与良知一起使用

一些企业认为,用户会更偏爱“预装道德”的产品。

想象一辆汽车不允许驾驶者超速。听起来很简单,但剥夺用户道德抉择权的机器并不受欢迎。即便是特斯拉(Tesla)可遵守限速的“树懒”(Sloth)模式也是可选的;其自动驾驶汽车的用户也可以选择全速“疯狂麦克斯”(Mad Max)模式。

在manbetx app苹果 的人工智能领域,一些公司认为客户更青睐自带道德准则的产品。以Anthropic为例,其Claude聊天机器人被训练为“具备良好价值观”。这让Anthropic在某些圈子里不受欢迎。美国国防部提出抗议,因为该产品的限制将不允许自主发动致命打击或对公民进行大规模监控——这场争议在周五正走向一场紧张的对峙。

与此同时,竞争对手正试图削弱Anthropic的安全为先的信誉。该公司通过一部“宪章”来体现这一点,指示Claude按安全、伦理、助益的顺序进行优先取舍。OpenAI的萨姆•奥尔特曼(Sam Altman)称其为“威权主义”。xAI及聊天机器人Grok的创始人埃隆•马斯克(Elon Musk)说它“愤世嫉俗”,称其对白人男性等群体存在偏见。

您已阅读32%(440字),剩余68%(919字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归manbetx20客户端下载 所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×