专栏名称: AIGC Studio
一个有趣有AI的AIGC公众号:关注AI、深度学习、计算机视觉、AIGC、Stable Diffusion、Sora等相关技术。这里不仅有简单易懂的AIGC理论实践和AI学习路线,还有大厂工作经历和体会分享。如果有幸能给你一些帮助就更好啦!
目录
相关文章推荐
中国舞台美术学会  ·  分享丨《北京市演艺新空间运营管理标准(试行)》 ·  3 天前  
中国舞台美术学会  ·  各省市丨“琢域”2025戏剧影视美术设计系多 ... ·  2 天前  
中国舞台美术学会  ·  资讯丨2024年演出销售票房达216亿:演唱 ... ·  3 天前  
中国舞台美术学会  ·  装置丨在教堂中色彩斑斓的荧光灯光雕塑 ·  4 天前  
中国舞台美术学会  ·  资讯丨小剧场打造城市“大名片”:南京小剧场达 ... ·  4 天前  
51好读  ›  专栏  ›  AIGC Studio

港大发表XRec推荐大模型,会说话的推荐系统,提高推荐系统可解释性

AIGC Studio  · 公众号  ·  · 2024-08-11 00:54

正文

你知道推荐系统是根据什么给你推荐物品的吗?你想知道他给你推荐的理由吗?近日,香港大学发表了推荐大模型XRec,结合大模型和推荐系统的能力,让大模型给你解释推荐逻辑。



论文地址:https://arxiv.org/pdf/2406.02377

Github地址:https://github.com/HKUDS/XRec


摘要


推荐系统通过提供与用户偏好一致的个性化推荐,帮助用户浏览过载的信息。本文利用大型语言模型(LLM)的语言能力来增强可解释推荐系统的能力。我们提出了模型无关框架XRec,它使LLM能够为推荐系统中的用户行为提供全面的解释。通过集成协作信号和设计轻量级协作适配器,该框架使LLM能够理解用户-物品交互中的复杂模式,并更深入地了解用户偏好。我们通过实验证明了XRec的有效性,展示了其生成全面而有意义的解释的能力,在可解释的推荐系统中优于基线方法。


简介


推荐系统是帮助用户过滤信息并提供个性化推荐的重要工具。协同过滤是一种主流的推荐技术,利用用户之间的相似偏好来进行推荐。近年来,深度学习技术的发展使得协同过滤算法得到了革命性的进步,包括注意力机制、图神经网络和自监督学习等。解释性推荐旨在提供透明度,帮助用户理解推荐背后的决策过程。最新研究致力于为用户-物品交互生成解释,但面临解释数据有限和泛化能力不足的挑战。提出了一种基于大型语言模型的协同指导框架XRec,通过协同信号调整实现了推荐系统中用户行为的全面解释。经过实验证实了XRec框架在生成推荐解释方面的有效性和优越性。


预备知识


可解释推荐


可解释推荐描述了用户与物品交互的潜在原因。我们的主要目标是创建清晰的文本解释,使我们能够理解每个建议背后的基本原理。对于用户u与物品i之间的每次交互,产生的解释如下:



Xu和Xi分别表示用户u和物品i的交互历史。符号τ表示与用户和项目相关的任何附加附加信息。我们增强了推荐系统中的解释生成范式,我们将文本信息合并到物品概要文件的生成中,利用预定义的物品提示(PI)和项目描述(D)。



除了物品描述之外,我们还通过考虑用户与先前配置的物品的交互,将我们的方法扩展到用户配置文件,从而更全面地表示他们的偏好和兴趣。



图协同过滤


图神经网络(GNN)已被证明是捕获用户和物品之间协作关系的有效框架。用户-物品交互图中的节点吸收信息并生成捕获这些协作关系的嵌入。使用L层GNN对用户-物品交互图G进行编码,用户节点u或物品节点i的第L层嵌入计算如下:



在图协同过滤中,Nu为节点u的邻域,AGG(·)为聚合函数,在不同的模型中会有所不同。通过利用L层传播,图神经网络(gnn)为每个节点生成L+1个不同的嵌入。然后将这些嵌入连接起来形成最终的节点嵌入。

考虑历史用户交互,以概率最大化为目标生成用户和项目的嵌入:



由用户嵌入与项目嵌入的内积决定的预测评分函数可以定义为:



归一化过后,y ui的范围在0到1之间,表示用户u与物品i交互的预测可能性。


方法


我们的模型的目标是揭示这些交互背后的潜在原因,并阐明影响用户行为的因素。通过统一图形协同过滤和大型语言模型,我们的XRec旨在提供深刻的解释,帮助用户理解为什么某些交互会发生,并提高推荐过程的透明度。



协作关系标记器


为了有效地捕获大量用户和物品之间的协作关系并反映它们的交互模式,自然语言是不够的,但是表示提供了一个强大的替代方案。在我们的XRec中,我们利用图神经网络的功能作为标记器,将高阶协作关系信息编码到潜在嵌入空间中,从而实现复杂用户偏好的有效建模。


基于图的消息传递。我们方法中的协作图标记器利用消息传递机制在用户-物品交互图中传播和聚合信息,促进用户和项目节点表示的学习。我们使用LightGCN作为有效协作信息聚合的骨干。



用户和物品的最终嵌入是通过平均所有层嵌入来计算的。



基于CF信号的优化标记器。为了使用来自用户交互的隐式反馈信号来优化我们的协作图标记器,我们利用贝叶斯个性化排名(BPR)损失作为监督信号来指导用户和项目嵌入的生成,其定义为:



此外,我们还包括一个正则化损失来维持嵌入的范数:



结合这些项,我们的联合优化损失函数表示为:



大型语言模型(LLMs)的协同指令调优


为了使LLM能够理解用户和项目之间的协作信息,我们引入了一个协作指令调优范例。这种方法将行为级信息与语言级语义结合起来,从而将用户偏好整合到LLM中的知识中。


协同信息适配器


考虑到行为级协作信息和与用户和项目相关的文本语义之间潜在的不同语义表示空间,我们的XRec配备了一个轻量级但有效的适配器。该适配器用于对齐这些不同的模式,使我们的模型能够有效地利用协作信号和文本语义。


为了弥合LLM输入与我们的行为感知协作关系令牌之间的语义差距,并增强模型的泛化能力,我们应用混合专家(MoE)方法来嵌入空间自适应。在这种混合专家体系结构中,每个专家由捕获不同语义维度的线性层表示,然后使用可学习的门控路由器机制集成这些专家。这使得模型能够自适应地组合由不同专家编码的不同语义表示,有效地弥合了行为感知的协作关系标记和文本语言标记之间的差距。


使用LLM统一CF


我们在输入提示符中引入特殊的标记来预留空间,将提示符转换为标记嵌入后,将适应的嵌入注入这些预留位置。我们将自适应嵌入的注入扩展到初始输入提示之外,我们将llm中每一层的键、查询和值投影函数修改如下:




通过将基于图的知识注入到LLM的所有层,我们不仅保持了协作上下文的鲁棒表示,而且还使更有效的梯度流直接返回到混合专家(MoE)模块。


结构化提示嵌入。我们使用结构化提示符,为了确保提示符中的特殊令牌被识别为唯一实体,我们将它们合并到LLM的令牌器中。然后,这些专门化的标记被转换后的标记嵌入中相应的适应嵌入所替换。



我们将输入提示符定义为P = [P1,……,p1],其中每个元素p代表一个输入令牌。令牌pu、pi、pe分别表示。经过位置嵌入层处理后,我们将输出表示为E = [ε1,……,ε1]。随后,λu和λi被适配的嵌入向量au和ai替换,形成最终的嵌入层E',用作LLM的输入。


为了提高LLM生成上下文和语法上一致的解释的能力,我们的目标是最小化序列中下一个标记的预测概率与实际下一个标记之间的损失。我们使用负对数似然(NLL)作为我们的训练损失:



为了降低训练复杂性,我们冻结了LLM中的所有参数,不包括与GNN训练过程的任何交互。唯一可训练的参数是专家混合(MoE)模型中的参数。


解释生成


先前的研究直接使用用户评论作为推荐系统的解释。然而,这些评论往往是主观的,可能只是含蓄地传达了用户的意图或情绪。为了解决这一限制并提高基础真理解释的质量,已经提出应用LLM从原始评论中提取明确的用户意图。



实验


实验设置


数据集。本文使用Amazon、Yelp、Google三个数据集进行评估。


评价指标。我们采用了包含语义理解的高级指标GPTScore、BERTScore、BLEURT、USR进行评估。为了进一步评估质量稳定性,我们分析了这些分数的标准差,值越低表明性能越一致。


基线。我们将模型与Att2Seq、NRT、PETER、PEPLER进行评估。


结果


为了证明我们的模型在可解释性和稳定性方面的优势,我们在三个数据集上对四种基线方法进行了比较分析。



我们的模型始终优于基线。即使在删除用户和物品配置文件后,我们的模型仍然显示出显著的优势。主要可以归因于两个关键因素:1)我们的模型有效地捕获协作信息,增强了来自用户交互行为的丰富语义的表示。2)该模型实现了行为级协作信息和文本级语义之间的高度一致性。


我们模型的一个突出特征是它的唯一句子比(USR),接近1。这表明XRec为每个不同的用户-项交互生成真正唯一的解释。


我们的模型通过战略性地利用跨领域的协同优势来提高学习效率和整体效果。


消融分析


我们探索了模型中两个关键组成部分的影响:用户/项目概况和协作信息的注入。我们比较了四种模型变体:

  • 1)我们的完整模型与所有特征(我们的)

  • 2)我们的(无配置文件),其中省略了用户和项目配置文件

  • 3)我们的(w/o注入)在提示符中保留对齐的嵌入,但不将其注入LLM层

  • 4)我们的(w/o剖面和注入)既缺乏剖面又缺乏嵌入注入。


结果显示,我们的完整模型在可解释性和稳定性方面优于其他变体,突出了其优越的能力。这两个关键组成部分在推动我们完整模型的卓越能力方面的互补和协同贡献。


在数据稀疏情况下的模型鲁棒性


我们在不同数据稀疏度的数据集上进行了实验。结果发现:

  • 该模型在所有子集中表现出稳健的性能,随着用户频率的降低,结果明显更好。

  • 在零样本场景中,缺乏任何先前的用户数据,我们的模型不仅优于基线,而且与其他子集的性能相当。


这些发现强调了我们的模型在传统上挑战推荐系统的场景中的有效性。该模型在零样本学习中的成功证实了其强大的泛化能力,并突出了其缓解冷启动问题的潜力,即新用户或项目缺乏历史交互数据。通过在不同的场景中保持高水平的可解释性和稳定性,该模型证明了它在用户行为和项目目录经常变化的动态环境中部署的适用性。


总结


XRec无缝地将基于图的协同过滤范例与大型语言模型(LLM)的功能集成在一起,为推荐输出生成全面而深刻的解释。通过利用用户-项目交互图中编码的固有协作关系,XRec能够有效地捕获隐藏在用户偏好和项目关联之下的高阶依赖关系。XRec引入了一个专门的协作信息适配器,它作为在协作信号和LLM中编码的丰富文本语义之间建立强连接的关键桥梁。通过大量的实验,该研究的发现强调了XRec框架的显著优势。它不仅增强了推荐过程的可解释性,而且还确保了鲁棒性,特别是在具有挑战性的零概率场景中,框架在未见过的用户和项目中展示了强大的泛化能力。

感谢你看到这里,也欢迎点击关注下方公众号并添加公众号小助手加入官方读者交流群,一个有趣有AI的AIGC公众号:关注AI、深度学习、计算机视觉、AIGC、Stable Diffusion、Sora等相关技术,欢迎一起交流学习💗~

协作关系标记器