如何让机器学习拥有公平和正确的认知?

绕波特 2021-10-21

机器学习人工智能

760 字丨阅读本文需 3 分钟

卡内基梅隆大学的研究人员正在挑战一个长期以来的假设,即在使用机器学习做出公共政策决策时,在准确性和公平性之间存在权衡。

随着机器学习在刑事司法、招聘、医疗保健提供和社会服务干预等领域的使用增加,人们越来越担心此类应用程序是否会引入新的或扩大现有的不平等,尤其是在少数种族和经济不利的人群中。为了防止这种偏见,对机器学习系统的数据、标签、模型训练、评分系统和其他方面进行了调整。潜在的理论假设是这些调整使系统不太准确。

CMU 团队的目标是在最近发表在Nature Machine Intelligence 上的一项新研究中消除这种假设。Rayid Ghani,计算机科学学院机器学习系和海因茨信息系统与公共政策学院教授;机器学习研究科学家 Kit Rodolfa;SCS 的博士后研究员 Hemank Lamba 在实际应用中测试了这一假设,发现在一系列政策领域的实践中,这种权衡可以忽略不计。

实际上可以两者兼得。不必牺牲准确性来构建公平公正的系统。但它确实需要刻意设计公平公正的系统。现成的系统是行不通的。

Ghani 和 Rodolfa 专注于需求资源有限的情况,机器学习系统用于帮助分配这些资源。研究人员研究了四个方面的系统:根据一个人重返监狱的风险优先考虑有限的精神保健外展,以减少再监禁;预测严重的安全违规行为,以更好地部署城市有限的房屋检查员;对学生未能及时从高中毕业的风险进行建模,以确定最需要额外支持的人;并帮助教师达到课堂需求的众筹目标。

在每种情况下,研究人员发现针对准确性进行优化的模型——机器学习的标准实践——可以有效地预测感兴趣的结果,但在干预建议方面表现出相当大的差异。然而,当研究人员对旨在提高公平性的模型的输出进行调整时,他们发现可以消除基于种族、年龄或收入的差异(视情况而定)而不会降低准确性。

Ghani 和 Rodolfa 希望这项研究将开始改变其他研究人员和政策制定者的想法,因为他们考虑在决策中使用机器学习。

他们希望人工智能、计算机科学和机器学习社区停止接受这种在准确性和公平性之间进行权衡的假设,并开始有意识地设计最大化两者的系统。希望政策制定者将机器学习作为他们决策的工具,以帮助他们实现公平的结果。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:绕波特
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...