本文介绍了一个评估潜在因子推荐(LFR)模型中表示偏差的框架,重点关注用户和项目嵌入如何可能编码与性别等敏感属性的隐式关联。与以往专注于性能指标或曝光偏差的研究不同,本研究检验属性关联偏差,并通过播客推荐的行业案例研究展示其测量方法。目标是帮助从业者审计、解释和减轻多阶段推荐管道中的偏差传播,促进人工智能系统更大的公平性和透明度。本文介绍了一个评估潜在因子推荐(LFR)模型中表示偏差的框架,重点关注用户和项目嵌入如何可能编码与性别等敏感属性的隐式关联。与以往专注于性能指标或曝光偏差的研究不同,本研究检验属性关联偏差,并通过播客推荐的行业案例研究展示其测量方法。目标是帮助从业者审计、解释和减轻多阶段推荐管道中的偏差传播,促进人工智能系统更大的公平性和透明度。

检测人工智能推荐系统中的隐藏偏见

摘要

1 引言

2 相关工作

2.1 推荐系统中的公平性和偏见

2.2 量化自然语言处理表示中的性别关联

3 问题陈述

4 方法论

4.1 范围

4.3 标记

5 案例研究

5.1 范围

5.2 实施

5.3 标记

6 结果

6.1 潜在空间可视化

6.2 偏见方向

6.3 偏见放大指标

6.4 分类场景

7 讨论

8 局限性与未来工作

9 结论和参考文献

\

3 问题陈述

解耦潜在因子推荐研究变得越来越受欢迎,因为LFR算法已被证明会在其训练后的用户和项目嵌入中纠缠模型属性,导致不稳定和不准确的推荐输出[44, 58, 62, 65]。然而,大多数这类研究都是以结果为导向,提供了改进性能的缓解方法,但没有解决潜在空间中表示偏见的潜在问题。因此,很少有现有的评估技术分析属性如何在推荐潜在空间中被明确(由于作为模型属性的明确使用)或隐式捕获。对于那些确实存在的评估技术,指标主要集中在评估明确使用和独立模型属性的解耦水平,而不是调查实体向量与敏感属性之间可能存在的隐式偏见关联或潜在空间中捕获的系统性偏见[44]。尽管潜在表示偏见已成为其他类型表示学习(如自然语言和图像处理)中广泛研究的现象,但与大量关于曝光和流行度偏见的研究相比,它仍然相对未被充分研究[23]。

\ 本文提出的工作旨在通过提供评估属性关联偏见的框架,弥合当前关于评估LFR算法中表示偏见的研究差距。当用户和项目(实体)嵌入成为混合多阶段推荐系统中的下游特征时,识别潜在的属性关联偏见变得至关重要,这种情况在行业环境中经常遇到[6, 14]。评估这些系统的组合公平性,或者一个组件的偏见可能放大到下游组件的潜力,如果不了解这种类型的偏见最初是如何在系统组件中发生的,将是具有挑战性的[59]。在实践中审计和调查系统之前,了解偏见的当前状态是必要的[9]。我们提出的方法旨在降低从业者和研究人员理解属性关联偏见如何渗透到他们的推荐系统中的障碍。这些评估技术将使从业者能够更准确地确定在缓解中需要解耦的属性范围,并为判断缓解是否成功提供基准。

\ 我们将这些方法应用于一个行业案例研究,以评估播客推荐LFR模型中的用户性别属性关联偏见。由于缺乏关于用户性别偏见的公开可用数据,先前的研究主要集中在评估提供者性别偏见;据我们所知,我们的工作提供了首批量化播客推荐中用户性别偏见的研究之一。我们希望我们的观察能帮助其他行业从业者评估他们系统中的用户性别和其他敏感属性关联偏见,提供超越早期定性用户研究的播客收听量化见解,并鼓励未来对行业系统中敏感话题的讨论和更大的透明度。

\

:::info 作者:

  1. Lex Beattie
  2. Isabel Corpus
  3. Lucy H. Lin
  4. Praveen Ravichandran

:::

:::info 本论文可在arxiv上获取,采用CC by 4.0 Deed(署名4.0国际)许可证。

:::

\

市场机遇
null 图标
null实时价格 (null)
--
----
USD
null (null) 实时价格图表
免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。