大模型RAG实战:RAG原理、应用与系统构建
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

1.1.3 RAG带来的范式改变

RAG最直观的应用便是问答场景。本小节将以问答场景为例,探讨采用RAG后的范式改变。在LLM出现之前,一个智能客服系统会涉及大量的人工介入维护。例如,需要人工为客户可能提出的每个问题撰写答案,并且还需根据外部环境的变化调整已有的答案或新增更多的问答对。这种旧策略在算法准确性之外的局限性在于,如果预先编辑的问答对错过了某种问答场景,那么整个系统将无法正常回复。此外,持续更新问答对以适应政策和环境的变化非常困难,需要人工长期进行维护。

如今,由LLM驱动的问答系统可以在无须人工维护结构化知识的情况下为用户问题提供更个性化的答案。然而,LLM的知识主要是在预训练阶段学习的,也就是说,如果想让LLM准确回答你的问题,需要使用自己的数据进一步微调模型,这个过程也叫继续预训练(continue pretraining)。而RAG则可以大大减少对模型进行新知识的训练和输入的需求,只需上传最新的文件或政策,模型就可以以开放式模式检索信息以回答问题,即使知识频繁更新,也无须训练更新模型的参数。

笔者目前所在企业正在使用RAG来实现许多业务场景的聊天功能。以一个行政场景为例来说明它的工作原理:员工小明准备在下周前往宁波出差,他想了解一下出差宁波的住宿标准。

为了回答这个问题,RAG系统首先从行政知识库空间中获取数据,了解出差住宿标准如何划分,以及宁波所属的城市类型。这些事实性的知识被组织到LLM的提示词中,LLM便可以生成简明扼要、个性化的答案。紧接着,前端页面将回答发送给小明,并附带其信息来源的链接。