LinkIn最新研究,利用大模型提升客户技术支持服务质量,有效降低28.6%响应时间

本文介绍了一种将知识图谱与检索增强生成(RAG)相结合的客户服务问答方法。本方法利用历史问题构建知识图谱,保留了问题内部结构和问题间关系,提高了检索准确性和回答质量。实验结果表明,该方法在关键检索和文本生成方面的表现优于基线方法,已在LinkedIn客户服务团队中使用六个月,将问题解决时间中位数降低了28.6%。

简介

有效的客户服务技术支持是产品成功的基础,直接影响客户满意度和忠诚度。鉴于客户查询与以前解决的问题经常相似,快速准确地检索相关的过去实例对于有效解决此类查询至关重要。大语言模型(LLM)和检索增强生成(RAG)的发展显著提高了客户服务技术支持的能力。这个过程通常分为两个阶段:

  • 首先,将历史问题票证作为纯文本处理,分割成更小的块,以适应嵌入模型的上下文长度约束。然后将每个块转换成嵌入向量进行检索。
  • 其次,在问答阶段,系统检索最相关的块,并将它们作为上下文提供给LLM,以生成响应查询的答案。尽管它的方法很简单,

但这种方法遇到了一些限制:

  • 限制1:由于忽略结构而影响检索准确性。问题跟踪文档具有固有结构并且相互关联,将文档压缩成文本块的传统方法会导致重要信息的丢失。本方法将问题票证解析成树状,并进一步将单个问题票证连接成一个相互关联的图,保持了实体之间的内在关系,实现了较高的检索性能。
  • 限制2:文本分割降低了答案质量。为了适应嵌入模型的上下文长度约束,将大量的问题票子分割成固定长度的片段,可能会导致相关内容的断开,从而导致不完整的答案。例如,在文本分割过程中,描述问题开头和解决方案结尾的问题票据可能会被分割,从而导致解决方案的关键部分被遗漏。我们基于图的解析方法通过保留票证部分的逻辑一致性来克服这个问题,确保提供完整和高质量的响应。

方法

本系统是一个基于LLM的客户服务问答系统,无缝地将检索增强生成(RAG)与知识图谱(KG)相结合。系统分为两个阶段:第一阶段是KG构建阶段,从历史客户服务问题票据中构建全面的知识图谱。第二阶段是问答阶段,解析消费者查询并在KG中导航以生成答案。

《LinkIn最新研究,利用大模型提升客户技术支持服务质量,有效降低28.6%响应时间》- 投稿作者:灵度智能 - 发布于:GetAI社区

构建知识图谱

图结构定义。在定义历史问题表示的知识图谱结构时,我们采用了一种分离问题内部和问题之间关系的双层体系结构。问题间图G(T, E, R)表示不同票证之间的连接网络,包括在问题跟踪票证中定义的显式链接E exp和从票证之间的语义相似性派生的隐式连接E imp。对于隐式连接,我们利用门票标题嵌入向量之间的余弦相似性,这是一种适用于特定用例的方法。

知识图谱的构建。图的构建分为两个阶段:票内解析和票间连接。1)票证内部解析阶段:该阶段将每个基于文本的票证转化为树状表示的票证。我们采用混合方法,最初利用基于规则的提取预定义字段。随后,对于不适合基于规则的解析的文本,我们使用LLM进行解析。2)票务间连接阶段:在这里,单个树T级被合并成一个综合图g。显式连接E exp被描述为票务内指定的。隐式连接E imp是从票名的文本语义相似性中推断出来的,采用嵌入技术和阈值机制来识别每个票证最相关的票证。

《LinkIn最新研究,利用大模型提升客户技术支持服务质量,有效降低28.6%响应时间》- 投稿作者:灵度智能 - 发布于:GetAI社区

嵌入生成。为了支持基于嵌入的在线检索,我们使用BERT和E5等预训练的文本嵌入模型为图节点值生成嵌入,特别针对文本丰富部分的节点,如“问题摘要”、“问题描述”和“重现步骤”等。然后将这些嵌入存储在矢量数据库中。在大多数情况下,每个节点内的文本长度可以满足文本嵌入模型的上下文长度约束,但对于某些冗长的文本,我们可以安全地将文本分成更小的块进行单独嵌入,而不必担心质量问题,因为文本都属于同一部分。

检索和问答

查询实体识别和意图检测。我们从每个用户查询𝑞中提取Map(N→V)类型的命名实体P和查询意图集I。本方法涉及将每个查询𝑞解析为键值对,其中查询中提到的每个键𝑛对应于图模板T模板中的一个元素,值𝑣表示从查询中提取的信息。同时,查询意图I还包括查询旨在处理的图模板T模板中提到的实体。我们利用LLM在解析过程中提供合适的提示符。这种方法通过利用LLM广泛的理解和解释能力,在适应各种查询公式方面展示了显著的灵活性。

《LinkIn最新研究,利用大模型提升客户技术支持服务质量,有效降低28.6%响应时间》- 投稿作者:灵度智能 - 发布于:GetAI社区

基于嵌入的子图检索。本过程包括两个主要步骤:基于EBR的票证识别和基于LLM的子图提取。

《LinkIn最新研究,利用大模型提升客户技术支持服务质量,有效降低28.6%响应时间》- 投稿作者:灵度智能 - 发布于:GetAI社区

在基于EBR的票证识别步骤中,通过利用从用户查询派生的命名实体集P来精确定位最相关的历史票证𝐾。对于每个实体对(𝑘,𝑣)∈P,通过预训练的文本嵌入,计算实体值𝑣与section 𝑘对应的所有图节点𝑛之间的余弦相似度。通过将属于同一票的节点的贡献相加,将这些节点级分数聚合到票级,我们对排名最高的𝐾票进行排序。该方法假定出现多个查询实体表示相关链接,从而提高了检索精度。

在LLM驱动的子图提取步骤中,系统首先将原始用户查询𝑞重新表述为包含检索到的票证ID;然后将修改后的查询𝑞’翻译成图形数据库语言,例如用于Neo4j的Cypher用于问答。值得注意的是,LLM驱动的查询公式足够通用,可以跨子图检索信息,无论它们来自知识图中的同一棵树还是不同的树。

答案生成。通过将检索到的数据与初始查询相关联来合成答案。LLM充当解码器,根据检索到的信息制定对用户查询的响应。对于健壮的在线服务,如果查询执行遇到问题,回退机制将恢复到基于文本的基线检索方法。

实验

实验设置

使用了GPT-4和E5模型,通过MRR、recall@K和NDCG@K等指标来衡量检索效果,通过BLEU、ROUGE和METEOR等指标来衡量问答效果。作者使用了一个”golden”数据集来评估这种方法的效果,数据集包含了典型的查询、支持票据和官方解决方案。作者将实验组和对照组进行了比较,结果表明,实验组的检索效果和问答效果都优于对照组。

结果

通过实验表明该方法在检索和问答性能上都有显著提升,其中MRR提高了77.6%,BLEU得分提高了0.32。

《LinkIn最新研究,利用大模型提升客户技术支持服务质量,有效降低28.6%响应时间》- 投稿作者:灵度智能 - 发布于:GetAI社区

实际应用

真实案例表明,使用我们的系统可以显著提高客户服务效率,通过减少问题的解决时间来证明其有效性。在LinkedIn的客户服务团队中进行的实验中,使用我们系统的组减少了中位数问题解决时间的28.6%。

《LinkIn最新研究,利用大模型提升客户技术支持服务质量,有效降低28.6%响应时间》- 投稿作者:灵度智能 - 发布于:GetAI社区

总结

本研究通过将检索增强生成(RAG)与知识图谱(KG)相结合,显著提升了自动问答系统在客户服务领域的应用。该系统的检索和回答指标以及整体服务效果得到了改善。

未来的工作将集中在:

  • 开发自动机制提取图谱模板,增强系统的适应性;
  • 研究基于用户查询的知识图谱动态更新,提高实时响应能力;
  • 探索该系统在客户服务以外领域的适用性。

0

评论0

请先
显示验证码