构建更适合所有人的AI

研究科学经理伊莎贝尔·克劳曼和研究工程经理乔纳森·坦南撰写

人工智能在我们的应用中扮演着重要的角色——从增强现实效果到提供帮助让不良内容远离我们的平台通过我们的COVID-19社区帮助中心。随着人工智能服务越来越多地出现在日常生活中,了解人工智能系统可能如何影响世界各地的人们,以及我们如何努力确保每个人都能得到最好的结果,变得越来越重要。

几年前,我们创建了一个跨学科负责任人工智能(RAI)团队,以帮助推进负责任人工智能这一新兴领域,并将其影响传播到整个Facebook。公平团队是RAI的一部分,与整个公司的产品团队一起培养通知,上下文相关的决策如何衡量和定义人工智能产品中的公平。

设计一个公平且包容的AI系统并不是一个放之四海而皆准的任务。这个过程包括努力理解一个产品或系统对所有人都有良好表现意味着什么,同时小心地平衡利益相关者之间可能存在的紧张关系。在解决产品和服务公平性问题的过程中,一个重要步骤是尽早、系统地公布潜在统计偏差的测量结果。为了帮助实现这一点,Facebook的人工智能开发了一个名为“公平流”的工具。

使用公平流程,我们的团队可以分析一些常见类型的AI模型和标签在不同组之间的表现。区分不同群体的公平性很重要,因为AI系统可能在某些群体中表现不佳,即使它在一般情况下对所有人都表现良好。

公平流程通过帮助机器学习工程师在特定类型的人工智能模型和标签中检测特定形式的潜在统计偏差而发挥作用。它衡量模型或人类标记的训练数据对不同人群的表现是好还是坏。这样,机器学习工程师就能知道他们是否必须采取措施来提高模型的比较性能。他们可以考虑的一些改变包括在他们的训练或测试数据集中扩大或改进表示,检查某些特征是否重要,或者探索更复杂或更简单的模型。

公平流程适用于整个Facebook的产品团队,甚至在模型部署到生产后也可以应用到模型中。然而,公平流并不能分析所有类型的模型。它也是一种诊断工具,因此它不能单独解决公平问题——这需要伦理学家和其他利益相关者的投入,以及特定环境的研究。从定义上看,公平是与环境相关的,一个单一指标不可能总是以相同的方式适用于所有产品或AI模型。

长期以来,我们一直致力于利用人工智能造福社会,改善技术,造福所有人。在构建的门户智能相机例如,我们努力确保它在不同人群中表现良好。我们也用人工智能来为盲人或视觉受损的人建立改进的照片描述。尽管取得了这些成就,但我们知道,作为一个行业和研究团体,我们仍处于理解正确、全面的过程和剧本的早期阶段,这些过程和剧本可以用来实现大规模的公平。

我们使用的人工智能系统对数据隐私和安全、道德、虚假信息的传播、社会问题等等都有潜在的影响。在Facebook,我们将继续努力改进这些系统,以负责任的态度帮助构建技术。

公平流只是我们正在部署的众多工具之一,以帮助确保为我们的产品和服务提供动力的人工智能具有包容性,对每个人都有效,并公平对待个人和社区。

要阅读完整的故事,请访问:ai.facebook.com/blog/how-were-using-fairness-flow-to-help-build-ai-that-works-better-for-everyone



为了帮助个性化内容,定制和衡量广告,并提供更安全的体验,我们使用cookie。通过点击或浏览网站,您同意允许我们通过cookies收集Facebook上和下的信息。了解更多信息,包括可用的控件:饼干的政策