知识视角图形推理与自然语言生成
定义和目标
可解释推荐系统旨在向用户解释为什么某个项目被推荐,以提高推荐项目的采用率。与传统推荐系统相比,可解释推荐系统不仅关注推荐什么,更关注为什么推荐,从而优化用户体验,增加用户信任或满意度。
解释和应用的基本类型
解释可解释推荐系统的方式主要分为结构化和非结构化两种类型:
-
结构化:基于图的推理
- 利用知识图谱(KG)进行推理,揭示模型的推理步骤,提供晶体类型的可解释性。
- 优势:提高准确性,实现稳健和可控的学习。
- 缺点:当没有真相时,如何建模是一个挑战。
-
非结构化:自然语言生成
- 通过文本形式解释推荐原因,提供高度个性化和多样化的解释。
- 优势:无需手动设计,无版权问题,高度个性化。
- 缺点:如何确保生成的解释是翔实和高质量的?
近期进展
结构化:基于图的推理
- 知识图谱(KG)的整合
- 通过将实体嵌入注入传统推荐框架或直接在KG上提取路径,提高推荐准确性和可解释性。
- 代表性方法:KPRN(知识感知路径循环网络)、PGPR(策略引导的路径推理)、ADAC(对抗性演员-评论家)等。
非结构化:自然语言生成
- 强化学习(RL)和预训练模型
- 利用强化学习和预训练模型生成有吸引力的文本广告,提高点击率。
- 代表性方法:增强预训练模型以生成有吸引力的文本广告。
协同多任务学习和会话推荐
- 多任务学习
- 通过多任务学习整合用户反馈,提高推荐系统的可解释性。
- 代表性方法:协同多任务学习。
- 会话推荐
- 通过对话实现双向的用户-模型通信,迭代地细化建议和解释结果。
- 代表性方法:走向可解释的会话推荐。
挑战和未来方向
- 非结构化解释
- 结构化解释
- 效率和鲁棒性
- 多模态
- 离线评估
- 新范式
- 零/低资源
- 如何生成高质量的自然语言解释,当没有足够的地面真相解释时?
用户和Rec模型的更紧密集成
- 联合优化
- 联合优化建议和他们的介绍,推荐模型对项目的反馈(如点击次数和停留时间)反馈到模型。
- 主动触发用户反馈
- 主动触发用户反馈,允许用户直接告诉系统出了什么问题,推荐什么。
- 交互式可视化