• AI系统如何学会做出公平的选择
    Simone Stumpf带有原型的人类在循环反馈系统上显示在笔记本电脑上

新闻和视图

AI系统如何学会做出公平的选择

7月19日2022年

“这个问题不仅限于贷款申请,而且可以发生在人类判断或AI本身引入偏见的任何地方。想象一下,AI学习可以预测,诊断和治疗疾病,但它与特定的人群有偏见。没有检查此问题,您可能永远不会知道!使用涉及临床医生的人类在循环过程中,您可以解决此问题,” Simone Stumpf

Researchers from the University of Glasgow and Fujitsu Ltd have teamed up for a year-long collaboration, known as ‘End-users fixing fairness issues’, or Effi - to help artificial intelligence (AI) systems make fairer choices by lending them a helping human hand.

AI已越来越多地整合到医疗保健中的自动决策系统,以及银行和某些国家司法系统等行业。在被用来做出决策之前,必须首先通过机器学习“训练” AI系统,该系统贯穿了许多不同的人类决策示例。然后,它学习如何通过识别或“学习”为模式来模仿这些选择。但是,这些决定可能会受到做出这些示例决定的人类的意识或无意识偏见的负面影响。有时,AI本身甚至可以“流氓”并引入不公平。

解决AI系统偏见

EFFI项目正在旨在通过一种称为“人类在循环”机器学习的方法来解决其中一些问题,该方法更加紧密地将人们整合到机器学习过程中,以帮助AIS做出公正的决定。它建立在格拉斯哥大学计算机科学学院的富士通和西蒙妮·斯坦普夫博士之间的先前合作基础上,这些方法探索了基于一种称为解释性调试的方法的贷款应用程序的人类用户界面;这使用户能够识别并讨论他们怀疑的任何决定受到偏见的影响。通过这种反馈,AI可以学会将来做出更好的决定。

“这个问题不仅限于贷款申请,而且可以发生在人类判断或AI本身引入偏见的任何地方。想象一下,AI学习可以预测,诊断和治疗疾病,但它与特定的人群有偏见。没有检查此问题,您可能永远不会知道!使用涉及临床医生的人类在循环过程中,您可以解决此问题。” Stumpf博士告诉国际Labmate。

迫切需要值得信赖的系统

“人工智能具有巨大的潜力,可以为广泛的人类活动和工业部门提供支持。但是,AI只能像受过训练一样有效。AI在现有系统中的更大集成有时会产生AI决策者反映其创建者的偏见,损害最终用户的偏见。迫切需要建立能够做出公平判断的可靠,安全和可信赖的系统。人类的机器学习可以有效地指导决策制定AIS,以确保发生这种情况。我很高兴能继续与富士通在EFFI项目上进行合作伙伴关系,我期待与我的同事和我们的研究参与者合作,以推动AI决策的领域,”她补充说。

Fujitsu Ltd的富士通研究中心负责人Daisuke Fukuda博士说:“通过与Simone Stumpf博士的合作,我们探索了世界各地人类人工智能公平的多样性感。这项研究导致了系统的发展,以反映AI的各种感官。我们认为与Stumpf博士的合作是使Fujitsu的AI伦理学进行的强大手段。在这段时间里,我们将挑战新问题,以基于人的思想制定公平的AI技术。随着对AI伦理的需求在整个社会中的需求增长,包括行业和学术界,我们希望Stumpf和Fujitsu博士继续共同努力,在富士通进行研究为我们的社会做出贡献。”

更多信息在线的