©PaperWeekly 原创 · 作者 | 刘中舟 摘要
本文由来自 Singpore Management University 和 A*STAR 的作者提出了一种纠正流行性偏差(popularity bias)的个性化推荐方法 FAiR。
Mitigating Popularity Bias for Users and Items with Fairness-centric Adaptive Recommendation 论文地址:
https://dl.acm.org/doi/10.1145/3564286
流行性偏差是一种广泛存在于推荐系统中的、由于用户和商品分布不均衡而产生的一种不公平现象。具体而言,有些用户相比其他用户有更多的历史数据,这类“常客”通常可以获得更加准确的商品推荐,而拥有较少历史数据的“新客”则往往获得较差的推荐效果,从而导致用户满意度下降。类似地,新品或小众商品的曝光度也会显著低于受欢迎的长期销售的商品,从而导致部分卖家的不满。 相比于以往针对流行性偏差的研究,FAiR 在纠正流行性偏差上做到了兼顾用户侧和商品侧,它 既能谋求不同组间的用户能获得相对公平的推荐效果,也能谋求不同组间的商品获得相对公平的曝光 ,最终做到公平推荐。 此外,考虑到不同的用户或商品的流行性偏差个体间存在差异,若对所有用户和商品采用固定的纠偏方法将无法达到个性化的目的。因此 FAiR 还能根据不同用户和商品的特征,自适应地调节模型参数,以 灵活应对不同程度的流行性偏差 。 实验表明,FAiR 能同时在用户侧和商品侧取得更加公平的推荐效果,同时其在推荐的准确度上相较传统的推荐系统模型仍不失竞争力。
简介
随着推荐系统的广泛应用,人们因其社会影响力,在准确性之外对推荐系统中的各类偏差(bias)亦愈发关注,流行性偏差(popularity bias)便是其一。流行性偏差对用户侧及商品侧的相应利益均有影响,如图1所示。 然而既往研究或只着眼于单一侧,或是用“两步走”的方式对两侧各自独立纠偏,未能将两者有机统一地结合看待。另外,传统纠偏模型大多采用全局固定模型,这样的模型缺乏个性化、忽视了用户或商品微观层面上在流行度的区别,以致于纠偏效果较差。
▲ 图1. 传统推荐系统中流行性偏差对用户和商品侧的影响 针对上述两点挑战,本文受到以往纠偏方法和元学习的启发,提出了 FAiR 方法,模型框架如图二所示。首先,针对传统模型未能结合看待两侧偏差的问题,本文拓展了以往基于对抗学习的纠偏模型框架,提出了两类 Fairness Discriminator 分别从局部角度和全局角度联合学习用户侧和商品侧存在的偏差。 其次,针对传统模型缺乏个性化的问题,本文进一步地在作为纠偏模型的生成器里集成了 FiLM 这一元学习网络,提出了 Adaptive Fairness Filter,以根据不同的输入用户/商品动态地改变模型参数,做到自适应个性化纠偏,增加模型的灵活性。最后,模型还包括一个 Base Recommendation Model,作为推荐系统为每一个用户-商品对进行评分。
▲ 图2. 方法框架
方法
本文的对抗学习框架由 Apdative Filter 和两组 Discriminator 组成。以下描述均以用户侧为例,商品侧的去偏计算是对称的。原始的用户特征 输入到 Apdative Filter 后得到纠偏后的特征 。需要注意的是,Apdative Filter 的参数是 ,它并非是由某个全局参数表示的,而是是由 FiLM 网络根据输入的原始用户特征生成的。 对纠偏后的用户特征 ,本文首先使用 Explicit Fairness Discriminator 判断其局部残余的流行性偏差。具体来说,Explicit Fairness Discriminator 是一个分类器,输入纠偏后的用户特征,输出该用户的所在的组 。其损失函数如下: 其中 和 分别表示用户 属于第 组的真实标签和预测概率。在实际应用中,可以根据会影响用户/商品的流行性偏差的因素进行分组,例如年龄、性别、品牌、产地、是否常客、是否流行等。 然而,仅仅使用 Explicit Fairness Discriminator 并不能完全达到公平推荐,因为不同的用户的评分尺度并不一致:有些用户偏向于给所有商品打高分,有些用户偏向于给所有商品打低分。因此,即使 Apdative Filter 缓解了商品特征里的流行性偏差,最终的推荐系统仍然会给予某些商品不公平的曝光量。因此,本文进一步地提出了 Implicit Fairness Discriminator,用来约束不同用户间的评分尺度。
本文定义了两类评分尺度, 和 。其中 作为参考尺度,定义为训练集内所有用户对商品 的平均打分。相对应地, 则是推荐系统预测的用户 对商品 的评分。给出一个采样 ,Implicit Fairness Discriminator 判断其采样自 还是 。其损失函数如下: 其中 和 分别表示采样 属于哪个采样的真实值和预测值。同传统的对抗学习的训练过程一样,本文的模型训练也分成 D-step 和 G-step。首先训练两类 Discriminators,其综合损失函数如下: 然后训练 Adaptive Filter 和 Base Recommendation Model,其综合损失函数如下: 其中 是传统推荐系统的损失函数, , 和 是平衡各损失函数的超参数。 实验结果
本文在 Amazon、Twitter 和 MovieLens 三个数据集上进行了实验,使用了三组评价指标,包括推荐准确度指标 、 ,用户侧公平度指标 和商品侧公平度指标 、 。 实验结果表明,相对传统的准确度指向的推荐系统和以往发布的一些纠偏模型,本文做到了既优化了用户侧的公平,又优化了商品侧的公平。此外,在准确度指标上,虽不及 SOTA 的以准确度为指向的推荐系统,但仍具有一定的竞争力。实验结果中公平度和准确度指标的变化也体现出来两类指标间存在 trade-off。实验结果如图三。 此外,本文还通过消融实验证明了两类 Discriminators的有效性。结果表示,Explicit Discriminator 对用户侧和商品侧的公平度都有提升,而 Implicit Discriminator 则主要对商品测的公平度有提升,这与本文前述的动机相符。消融实验结果见下图。
▲ 图4. 消融实验
结语
本文捅过研究用户侧和商品侧的流行度偏差,提出了一种可以针对两侧同时纠偏的推荐方法 FAiR,同时在推荐的准确度上保有竞争力。本文还通过引入了自适应的 Adaptive Fairness Filter 提升了纠偏模型的个性化程度。实验结果证明了本方法的创新性和有效性。
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读 ,也可以是学术热点剖析 、科研心得 或竞赛经验讲解 等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品 ,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬 ,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱: [email protected]
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02 )快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」 也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」 订阅我们的专栏吧