题 目: Learning Fair Representations for Recommendation via Information Bottleneck Principle
作 者:Junsong Xie, Yonghui Yang, Zihan Wang, Le Wu*
简 介:以用户为导向的推荐系统可能会无意中引入与性别等敏感属性相关的偏见,从而影响公平性。对抗性训练有助于解决公平性挑战,但平衡准确性和公平性仍然很困难。本研究提出公平表征学习,使用资讯瓶颈原则。FairIB通过最大化用户表示和交互之间的相互信息来增强公平性,同时最小化敏感属性,在不影响推荐准确性的情况下提高公平性。实证结果支持了方法的有效性。
PDF Code