今天,我既凶残又仁慈。我故意杀死了领取养老金者和几条狗。我撞了无家可归者,杀死了两名运动员,轧过了肥胖者。但是,我始终努力救孩子。
我在“道德机器”(Moral Machine)——麻省理工学院(MIT)运行的一项公开实验——上完成测试后发现,我的道德观跟很多人不一样。有些人辩称,在道德困境上把公众意见汇集到一起,是向无人驾驶汽车等智能机器赋予有限道德推理能力的有效手段。然而,在测试之后,我不相信众包是形成杀戮道德(本质上就是这么回事)的最佳途径。这个问题并不单纯是学术层面的:一辆配备“半自动式”Autopilot的特斯拉(Tesla)汽车的驾车者死亡,导致该公司在manbetx3.0 被起诉。特斯拉否认那起事故的过错在于该项技术。
任何人只要有台电脑,利用咖啡时间就可以参加麻省理工学院的大众实验。该实验想象一辆全自动驾驶汽车的刹车失灵。这辆车载满了乘客,正朝行人开过去。实验给出了这一“无轨电车难题”的13个版本。这是一个经典的道德难题,需要决定谁将死于一辆失控电车的车轮之下。
您已阅读34%(434字),剩余66%(851字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。