机器人身上存在着偏见。人们发现,被用于做出重大决策的算法——这些决策可能改变别人的人生,比如拒绝求职者、识别可能再次犯罪的囚犯、甚至转移疑似有受虐待风险的儿童——会复制真实世界中的偏见,其中最具争议的是种族偏见。
现在,计算机科学家相信他们有办法识别这些缺陷。这种技术据称可以克服算法偏见中的“第22条军规”(Catch-22):例如,如何在用户没有明确透露他们所属种族的情况下,查验自动化决策对黑人和白人群体都是公平的?它允许有关各方加密和交换足够的数据,以识别有用信息,同时在信息交流过程中将敏感的细节隐藏起来。这项研究成果发表于7月在斯德哥尔摩召开的机器学习国际会议上,课题负责人是德国图宾根(Tübingen)马克斯•普朗克智能系统研究所(Max Planck Institute for Intelligent Systems)的尼基•基尔贝图斯(Niki Kilbertus)。
想象一下,向虚构的公司Tedium申请一份工作。申请人在网上递交简历,由算法筛选面试对象。Tedium的高管们担心,算法可能会歧视年长的求职者——但怎么在不询问求职者年龄的情况下,检查是否存在歧视呢?
您已阅读34%(494字),剩余66%(938字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。