FT商学院

AI公司不能指望决定军方如何使用其工具

霍洛维茨:Anthropic要求就美国军方使用其系统的方式发表意见以确保系统有效是合理的。但这与有权决定使用武力是否合理是两回事。

本文作者是宾夕法尼亚大学(University of Pennsylvania)教授和该校智库佩里世界之家(Perry World House)主任,并曾担任美国国防部(DoD)副助理部长

上周五,五角大楼在合同谈判破裂后宣布将AI公司Anthropic列为供应链风险。这一标签意味着Anthropic不仅会失去美国政府的合同,还会被与华为(Huawei)等manbetx3.0 公司归为一类,被视为对美国国家安全构成威胁。

然而在不到24小时后,Anthropic的技术据报道被用于美国打击伊朗的史诗之怒行动(Operation Epic Fury)。这家科技公司在帮助美国军方的同时被贴上供应链风险的标签,这种矛盾的局面是随着AI日益融入军事领域而发生的不必要但或许不可避免的最新事件。

您已阅读21%(334字),剩余79%(1241字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归manbetx20客户端下载 所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×