“机器人不得伤害人类,或目睹人类个体将遭受危险而袖手不管,”艾萨克•阿西莫夫(Isaac Asimov)的戒律奠定了其未来主义小说的道德基础;但在他首次明确表述“机器人三定律”的75年后,这条至关重要的第一原则正在被现实压倒。
没错,迄今为止还没有“杀手机器人”驰骋在战场上。但现在已经出现了可用来探查威胁并向目标——无论是飞来的导弹还是靠近的人类——开火的防御系统。五角大楼(Pentagon)测试了一批迷你无人机——它们带来了一种可能性,即未来指挥官可派出一群群的skybot(空中机器人)进入敌人领土,收集情报、阻断雷达、或在人脸识别技术的辅助下完成刺杀任务。从manbetx3.0 到以色列、从俄罗斯到英国,很多政府都急于把人工智能方面取得的快速进展应用于军事用途。
对于研究人员和科技业高管来说,这种情况值得担忧。他们已经因颠覆性技术将对社会产生的影响而饱受抨击,他们不希望看到自己的商业创新被改造后用于制造毁灭。因此,百余家机器人和人工智能企业的创始人日前联合呼吁联合国采取行动,阻止各国在致命性自主武器系统方面展开军备竞赛。他们在公开信中强调了他们的担忧,称此类技术可能使冲突达到“前所未有的规模”、可能帮助专制政权压制异见者,这些武器还可能因受到黑客攻击而做出有害的行为。
您已阅读45%(533字),剩余55%(659字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。