摘要
1 引言
2 相关工作
2.1 推荐系统中的公平性和偏见
2.2 量化自然语言处理表示中的性别关联
3 问题陈述
4 方法论
4.1 范围
4.3 标记
5 案例研究
5.1 范围
5.2 实施
5.3 标记
6 结果
6.1 潜在空间可视化
6.2 偏见方向
6.3 偏见放大指标
6.4 分类场景
7 讨论
8 局限性与未来工作
9 结论和参考文献
\
解耦潜在因子推荐研究变得越来越受欢迎,因为LFR算法已被证明会在其训练后的用户和项目嵌入中纠缠模型属性,导致不稳定和不准确的推荐输出[44, 58, 62, 65]。然而,大多数这类研究都是以结果为导向,提供了改进性能的缓解方法,但没有解决潜在空间中表示偏见的潜在问题。因此,很少有现有的评估技术分析属性如何在推荐潜在空间中被明确(由于作为模型属性的明确使用)或隐式捕获。对于那些确实存在的评估技术,指标主要集中在评估明确使用和独立模型属性的解耦水平,而不是调查实体向量与敏感属性之间可能存在的隐式偏见关联或潜在空间中捕获的系统性偏见[44]。尽管潜在表示偏见已成为其他类型表示学习(如自然语言和图像处理)中广泛研究的现象,但与大量关于曝光和流行度偏见的研究相比,它仍然相对未被充分研究[23]。
\ 本文提出的工作旨在通过提供评估属性关联偏见的框架,弥合当前关于评估LFR算法中表示偏见的研究差距。当用户和项目(实体)嵌入成为混合多阶段推荐系统中的下游特征时,识别潜在的属性关联偏见变得至关重要,这种情况在行业环境中经常遇到[6, 14]。评估这些系统的组合公平性,或者一个组件的偏见可能放大到下游组件的潜力,如果不了解这种类型的偏见最初是如何在系统组件中发生的,将是具有挑战性的[59]。在实践中审计和调查系统之前,了解偏见的当前状态是必要的[9]。我们提出的方法旨在降低从业者和研究人员理解属性关联偏见如何渗透到他们的推荐系统中的障碍。这些评估技术将使从业者能够更准确地确定在缓解中需要解耦的属性范围,并为判断缓解是否成功提供基准。
\ 我们将这些方法应用于一个行业案例研究,以评估播客推荐LFR模型中的用户性别属性关联偏见。由于缺乏关于用户性别偏见的公开可用数据,先前的研究主要集中在评估提供者性别偏见;据我们所知,我们的工作提供了首批量化播客推荐中用户性别偏见的研究之一。我们希望我们的观察能帮助其他行业从业者评估他们系统中的用户性别和其他敏感属性关联偏见,提供超越早期定性用户研究的播客收听量化见解,并鼓励未来对行业系统中敏感话题的讨论和更大的透明度。
\
:::info 作者:
:::
:::info 本论文可在arxiv上获取,采用CC by 4.0 Deed(署名4.0国际)许可证。
:::
\



