blog-hexo/source/_posts/AI/rag.md
2024-03-28 12:11:12 +08:00

1.8 KiB
Raw Blame History

title categories status abbrlink
RAG知识库召回率
AI
done 21037

通用的RAG方案的召回率

不一定召回率越高越好,对于准确性也需要考虑,通用的召回率大概在70%,不论是dify还是fastgpt,对于生产场景,要求起码到90%的水平

意图分类

类似 xxx企业的董事长是谁,一定不能打错,类似QA,上一代的客服系统必备的

针对有明确答案的召回一般都是比较准确的,但是针对有日期、数字类的一般效果会非常不好,可以考虑采用nl2sql的方案,使用fine-tuning,能够做到召回率90%,有专门的模型针对这块,例如微软的RAT-SQL模型。

针对excel类型的文件,直接把数据存到一张宽表中,不要跨表,降低复杂度。针对nl2sql的开源模型的能力基本都是单表,基本可以达到预期

针对某些场景例如2021年的xxxx,同样的2022年的xxxx也发生了,使用embedding容易给错误召回的,而ES的效果会更好。相当于通过从用户的问题中,捕捉关键词,然后通过这些关键词去库里召回。

针对LLM模型来说,数据治理变的很重要,在数据切分的过程中,需要符合人的逻辑去分词。按照人的逻辑,例如:表格、章节、目录……

分词

chunksize越大,召回越少

embedding

embedding方案可以考虑引入link memory,可以提高10%-20%,在医疗文献领域,根据参考材料写综述是非常专业的。

  • 文档切分是浅层信息类似chatPDF数据中加入了总结、归纳的内容
  • 大模型生成摘要,总结上下文,再进行检索。

如何提升召回率

embedding哪个算法好

国内知识库方案哪些底座比较好

RAG的发展方向