建立适合每个人的AI

研究科学经理伊莎贝尔·克劳曼和研究工程经理乔纳森·坦南撰写

AI在我们的应用程序中发挥着重要作用 - 从启用AR效果,帮助让不良内容远离我们的平台并更好地通过我们的社区支持我们的社区Covid-19社区帮助中心。随着AI动力服务在日常生活中越来越多,了解AI系统可能影响世界各地的人以及如何努力确保每个人的最佳成果变得更加重要。

几年前,我们创建了一个跨学科负责任的AI(RAI)团队,帮助推进负责任AI的新兴领域,并在整个Facebook中传播这些工作的影响。公平团队是RAI的一部分,并与整个公司的产品团队合作促进通知,上下文相关的决策如何衡量和定义人工智能产品中的公平。

设计一个公平且包容的AI系统并不是一个放之四海而皆准的任务。这个过程包括努力理解一个产品或系统对所有人都有良好表现意味着什么,同时小心地平衡利益相关者之间可能存在的紧张关系。在解决产品和服务公平性问题的过程中,一个重要步骤是尽早、系统地公布潜在统计偏差的测量结果。为了帮助实现这一点,Facebook的人工智能开发了一个名为“公平流”的工具。

使用公平流量,我们的团队可以分析某些常见类型的AI模型和标签在不同的群体中的表现。通过集团来看公平团体非常重要,因为即使在每个人平均对每个人表现良好时,AI系统也可以对某些群体表现不佳。

公平流程通过帮助机器学习工程师在特定类型的人工智能模型和标签中检测特定形式的潜在统计偏差而发挥作用。它衡量模型或人类标记的训练数据对不同人群的表现是好还是坏。这样,机器学习工程师就能知道他们是否必须采取措施来提高模型的比较性能。他们可以考虑的一些改变包括在他们的训练或测试数据集中扩大或改进表示,检查某些特征是否重要,或者探索更复杂或更简单的模型。

公平流程适用于整个Facebook的产品团队,甚至在模型部署到生产后也可以应用到模型中。然而,公平流并不能分析所有类型的模型。它也是一种诊断工具,因此它不能单独解决公平问题——这需要伦理学家和其他利益相关者的投入,以及特定环境的研究。从定义上看,公平是与环境相关的,一个单一指标不可能总是以相同的方式适用于所有产品或AI模型。

我们长期以来一直专注于使用AI,以便为每个人提供福利社会和改进技术。在建造时门户智能相机例如,我们努力确保它在不同人群中表现良好。我们也用人工智能来为盲人或视力障碍的人构建改进的照片描述。尽管有这些成就,但我们知道,作为一个行业和研究社区,我们仍然在理解可用于在规模达到公平的正确,整体流程和剧本的早期。

我们使用的AI系统对数据隐私和安全,道德,误导,误导,社会问题及以后的传播产生了影响。在Facebook中,我们将继续致力于改进这些系统并负责地帮助构建技术。

公平流只是我们正在部署的众多工具之一,以帮助确保为我们的产品和服务提供动力的人工智能具有包容性,对每个人都有效,并公平对待个人和社区。

要阅读完整的故事,请访问:ai.facebook.com/blog/how-were-using-fairness-flow-to-help-build-ai-that-works-better-for-everyone



为了帮助个性化内容,定制和衡量广告,并提供更安全的体验,我们使用cookie。通过点击或浏览网站,您同意允许我们通过cookies收集Facebook上和下的信息。了解更多信息,包括可用的控件:饼干的政策