县总工会网站建设情况介绍动易网站后台管理系统

张小明 2026/1/10 13:07:56
县总工会网站建设情况介绍,动易网站后台管理系统,溧阳做网站,网站 空间费用本文详细解读了RAG#xff08;检索增强生成#xff09;技术#xff0c;分析了其解决LLMs幻觉、知识过时等问题的意义#xff0c;介绍了RAG系统的三大发展范式#xff08;朴素、高级、模块化#xff09;#xff0c;探讨了检索、生成、增强环节的关键技术和评估方法#…本文详细解读了RAG检索增强生成技术分析了其解决LLMs幻觉、知识过时等问题的意义介绍了RAG系统的三大发展范式朴素、高级、模块化探讨了检索、生成、增强环节的关键技术和评估方法对比了RAG与微调的优缺点为开发者构建高质量RAG系统提供了全面指导。1、RAG存在的意义动机大型语言模型LLMs面临幻觉Hallucination、知识过时和推理过程不透明、不可追溯等挑战 。意义RAG通过整合来自外部数据库的知识增强了生成内容的准确性和可信度并允许知识的持续更新和领域特定信息的整合。2、RAG系统的核心组成检索 (Retrieval)关注如何高效准确地从数据源中检索相关文档。包括索引结构的优化、不同数据源文本、知识图谱等的利用、以及查询和嵌入模型的优化。生成 (Generation)关注如何将检索到的上下文有效地融入LLM的生成过程。包括检索后的重排Rerank、上下文的选择/压缩、以及利用 LLM 进行自我评估和内容过滤。增强 (Augmentation)关注RAG如何与其他技术如LLM微调Fine-tuning协同工作。3、RAG发展的三大范式范式核心特点解决问题朴素RAG (Naive RAG)遵循传统的“检索-阅读”Retrieve-Read框架包括索引、检索、生成三个步骤。早期解决 LLM 知识不足高级RAG (Advanced RAG)针对朴素RAG的不足如检索准确率低进行改进专注于pre-retrieval如查询重写、索引结构优化和post-retrieval如重排Rerank、上下文压缩Context Compressing。提高检索质量和精确度。模块化RAG (Modular RAG)最灵活、最先进的架构。通过引入专业功能模块如路由 Routing、内存 Memory、预测 Predict和动态执行模式如 DSP、ITER-RETGEN、Self-RAG来实现更复杂的任务和流程。实现更强的适应性、多步推理和自我修正能力。Naive RAG核心流程朴素RAG的整个过程可以概括为“一次性检索一次性生成”。1. 索引阶段 (Indexing)数据处理将所有文档简单地分割成固定大小的文档块Chunks。嵌入使用一个预训练的嵌入模型将所有文档块转换为向量。存储将这些向量存储在一个向量数据库中。2. 推理阶段 (Inference)朴素 RAG 的在线推理过程包含三个不可或缺的步骤(1) 检索 (Retrieve)动作将用户的原始查询转换为查询向量。目标在向量数据库中查找并提取与查询向量最相似的K个文档块。(2) 增强/情境化 (Augment)动作将用户的原始查询和检索到的K个文档块即上下文 Context组合起来。目标构建一个完整的Prompt即[指令] [上下文] [问题]用于指导LLM。(3) 生成 (Generate/Read)动作将构建好的Prompt发送给LLM。目标LLM根据提供的上下文和问题生成最终的答案。局限性虽然朴素RAG简单易行但它在实际应用中存在明显的缺陷这也是催生高级RAG和模块化RAG的主要原因局限性描述低精确度检索阶段没有重排(Rerank)步骤因此检索到的K个文档块中可能包含大量不相关或低质量的噪声信息。噪声敏感性LLM对输入上下文中的噪声非常敏感。朴素RAG检索到的噪声可能导致LLM生成不准确或虚假的内容。缺乏上下文处理不进行查询重写(Query Rewrite)导致对于复杂的、依赖对话历史的查询检索效果极差。上下文窗口浪费无法对上下文进行压缩或总结。检索到的内容无论是冗余还是核心信息都会被原封不动地送入LLM浪费上下文窗口和计算成本。Advanced RAG高级RAG的定义和目标高级RAG的核心目标是解决朴素RAG在检索质量和上下文利用方面的固有缺陷从而显著提高最终答案的准确性Accuracy和相关性Relevance。它不再满足于简单的“检索 生成”流程而是引入了许多优化步骤。关键优化方向1. 检索前优化(Pre-Retrieval Optimization)优化用户查询或知识索引结构以提高检索的初始召回率。查询重写 (Query Rewriting):将用户的模糊、口语化或上下文相关的查询重写为更精确、更适合检索的关键词。同义词/扩展 (Query Expansion):为查询添加同义词或相关概念扩大检索范围。索引优化 (Indexing Structure Optimization):改进文档分块Chunking策略例如自适应分块 (Adaptive Chunking):根据文档的逻辑结构如章节、段落而不是固定的字符数进行分块。元数据增强 (Metadata Augmentation):在存储向量时加入文档类型、日期、作者等元数据以便进行过滤和增强。2. 检索后优化 (Post-Retrieval Optimization)对已经检索到的文档片段进行筛选和处理以去除噪声。重排 (Reranking):使用更强大的模型通常是交叉编码器对初始检索结果进行二次评分和排序确保最相关的文档片段排在最前面并淘汰不相关的噪声。上下文压缩/提炼 (Context Compression/Summarization):在将上下文送入 LLM 之前对其进行压缩、摘要或精炼以去除冗余信息同时节省 LLM 的上下文窗口空间和计算成本。去冗余 (Deduplication):消除检索到的文档片段中重复或信息高度重叠的内容。相关技术LlamaIndex2、LangChain3、HayStack3. 生成阶段优化 (Generation Optimization)确保LLM更负责任地利用上下文。增强提示词 (Enhanced Prompting):使用特定的提示工程技术如要求LLM引用来源、要求其逐步推理来引导LLM更加精确地使用检索到的信息。Modular RAG定义和核心理念模块化RAG是一种高度灵活和可定制的RAG架构。它的核心思想是将RAG流程分解为一系列功能独立的、可插拔的模块并允许这些模块以动态、非线性的方式组合以适应复杂和多样的任务需求。如果说朴素RAG是一个固定的流水线高级RAG是一个带优化的流水线那么模块化RAG就是一个可编程的、可重配置的系统。关键特点构成模块新增功能模块 (New Functional Modules)这些模块赋予RAG系统新的能力使其能够处理更复杂的流程控制和数据类型路由 (Routing):负责根据用户查询的意图、类型或知识来源需求将请求导向最合适的处理路径例如内部RAG检索、外部API调用、或直接生成。预测/规划 (Predict/Demonstrate):允许LLM参与到流程的规划和决策中例如生成搜索关键词、预测下一步操作或分解复杂任务如在DSP模式中。融合 (Fusion):负责整合来自不同来源例如多轮检索、多源数据库的上下文信息进行去重和统一。内存 (Memory):用于存储和管理对话历史或会话状态支持多轮对话和上下文追踪。动态执行模式 (Dynamic Execution Patterns)模块化RAG能够支持多种高级的、非线性的工作流程这些流程打破了传统的单次检索限制DSP (Demonstrate-Search-Predict):一种结构化的多步推理模式LLM先规划再执行搜索最后生成答案。Iter-Retgen (迭代检索生成):允许LLM在生成过程中多次、动态地启动检索获取新的上下文以支持长篇或复杂的答案生成。Self-RAG:一种高级的迭代检索形式LLM通过自我评估Reflection Tokens来决定是否、何时以及如何进行检索具有自我修正能力。模块化RAG的优势高适应性:可以为不同的任务类型构建特定的RAG管道提高了系统的通用性。复杂推理能力:通过多步规划和工具调用能够解决朴素RAG无法应对的多跳问答和复杂逻辑任务。增强可解释性:流程中的路由、规划和评估步骤使得系统的决策过程更加透明和可追溯。4、RAG VS Fine-tuning特性RAG (检索增强生成)Fine-tuning (微调)知识来源外部、动态数据库。模型不改变自身参数而是从外部知识库中实时查询信息。模型内部参数。通过在特定数据集上训练将新知识固化到模型的权重中。知识时效性高动态。外部数据库可以独立于模型进行实时更新。低静态。知识被固定在模型参数中更新需要重新进行微调。知识类型事实性、领域特定的知识和证据。改变模型的风格、语气、格式和对知识的泛化。实施成本低。只需要对数据源进行嵌入和索引不需要重新训练LLM。高。需要大量的计算资源GPU和时间进行模型训练。模型大小适用于任何规模的LLM甚至无需访问模型的内部结构。需要能够加载和训练的LLM版本。可追溯性高。答案带有检索到的原始文档片段作为证据来源。低。答案来源于内部参数难以追溯具体的证据来源。总结LLM增强的两种策略RAG和Fine-tuning代表了两种不同的知识注入策略RAG利用外部记忆专注于为LLM提供新鲜、可靠的外部事实证据以增强答案的准确性和时效性并解决知识过时和不可追溯的问题。Fine-tuning改进内部认知专注于调整LLM的内部行为和风格使其更好地适应特定领域的语言习惯和输出格式提升模型的专业理解能力。5、Retrieval在 RAG检索增强生成的上下文中检索Retrieval是指从外部知识库中识别并提取与给定查询Query最相关信息的关键过程。检索的核心功能和目标知识获取检索的首要目标是为大型语言模型LLM提供外部、最新且可靠的上下文知识。避免幻觉通过提供事实证据检索有助于约束LLM的生成范围防止模型“幻想”出不存在的事实。支持可追溯性检索返回的文档片段可以作为答案的证据来源增强了最终输出的可信度和透明度。检索的数据来源1. 非结构化数据 (Unstructured Data)这是RAG最常见且最基础的知识来源即传统的文本文档。特点数据形式自由、信息丰富但缺乏明确的逻辑结构。例子纯文本文档、网页、Markdown文件、PDF内容、代码片段等。处理方式通常需要经过分块Chunking和密集向量嵌入Dense Vector Embedding处理后存储在向量数据库中。2. 半结构化数据Semi-structured Data在数据管理领域半结构化数据介于完全非结构化数据如纯文本和严格的结构化数据如关系型数据库之间。特点它不符合严格的关系模型但包含标签Tags**或其他标记用于组织和表示数据中的语义元素使其具有一定的层次和结构。例子JSON、XML、HTML文档以及表格Tables数据表格有结构但内容本身是非结构化文本。常见的半结构化数据表格数据 (Tables)表格是RAG中常见的一种半结构化数据它包含行和列的结构信息但单元格中的内容可以是文本。表格理解RAG系统需要理解表格的结构如列标题、行关系而不仅仅是将其视为纯文本。查询转换需要将用户的自然语言查询转化为能够查询表格的结构化查询如使用Table-to-Text或Table-to-Code技术或者通过特定的嵌入模型来捕捉表格的结构信息。重要性表格数据通常包含高度精确的事实、数字和关键对比信息例如产品规格、财报数据这对于需要精确事实的RAG任务至关重要。处理挑战元数据增强 (Metadata Augmentation)在更广泛的意义上半结构化数据的概念也被用于增强非结构化数据的检索文档元数据在索引纯文本文档时可以附加半结构化的元数据如{作者: 张三, 日期: 2024-01-01}。用途RAG可以利用这些元数据进行过滤和精确定位例如“只检索张三在 2024 年发表的文档”而不是仅依赖向量相似性这提高了检索的效率和精确度。3. 结构化数据 (Structured Data)结构化数据为RAG提供了精确的事实和可追溯的逻辑但需要复杂的查询转换。知识图谱 (Knowledge Graph, KG)特点将实体及其关系组织成图结构。适用于需要复杂推理或多跳问答的场景。处理方式RAG系统如KG-RAG需要将用户的自然语言查询转换为图查询语言如Cypher来提取精确的结构化上下文。关系型数据库 (Relational Databases)特点数据以表格形式存储适用于查询特定、最新的、数字化的记录。处理方式RAG 需要使用Text-to-SQL或类似的工具将用户查询转换为SQL语句来查询数据。4. 混合与跨模态数据 (Hybrid and Multi-Modal Data)这是RAG扩展其能力的最新方向突破了纯文本的限制。混合知识库 (Hybrid Knowledge Base)特点同时存储和检索非结构化文本和结构化数据如知识图谱或表格结合两者的优势。目的既能利用向量检索的语义能力又能利用结构化数据的精确事实。跨模态数据 (Multi-Modal Data)特点知识库中包含图像、视频、音频等非文本信息。处理方式需要使用多模态嵌入模型将不同类型的数据如图片和文本描述映射到统一的潜在空间中以便进行统一检索。检索阶段的关键技术1. 索引优化 (Indexing Optimization)在进行实际检索之前必须对外部知识库进行结构化处理这包括文档分块Chunking将原始文档分割成适合检索和作为上下文的小片段。嵌入Embedding使用嵌入模型将文本转换为向量潜在表示以便进行相似性搜索。知识图谱Knowledge Graph对于复杂的推理任务检索可以从知识图谱中提取结构化的实体和关系而不是纯文本。元数据附加Metadata Attachments:在对知识库文档进行索引Indexing时将关于该文档的非文本描述信息即元数据与其对应的文本块Chunk一起存储和利用的过程。简单来说就是给每个可以检索的文本片段贴上“标签”或“背景信息”分层的索引结构旨在通过在不同粒度级别上组织文档信息来提高检索的效率和精确度。简单来说它模仿了人类阅读和理解文档的方式先看大纲摘要再深入细节具体段落。元数据附加作用辅助检索和过滤:精确过滤检索器可以根据用户查询中的特定要求利用元数据进行预过滤或后过滤。(示例如果用户问“请找出李四在2023年发表的关于RAG的文档”系统可以先通过元数据过滤器筛选出所有“作者”为“李四”且“日期”为“2023年”的文档块然后再进行向量相似性搜索。)提高召回率元数据可以提供上下文信息即使文档块的文本内容与查询的语义距离稍远但如果元数据匹配也应该被召回。增强生成上下文 (Context Enrichment)在最终将文档块传递给LLM之前元数据可以作为额外的上下文信息帮助LLM更好地理解文档的来源和背景。示例LLM 收到一个句子“这个提案被驳回了。” 如果同时附带元数据{来源: 高层会议纪要, 日期: 2024-05-01}LLM就能更准确地判断这个信息的可靠性和时效性。常见的元数据类型出处信息文件名、URL、作者、部门。时效信息创建日期、最近修改日期、发布年份。结构信息文档类型例如报告、合同、邮件、所属章节标题。分层的索引结构作用克服长文档挑战对于非常长的文档传统的固定分块方法会导致上下文丢失或分块携带的信息太少。分层索引结构能够提供全局上下文帮助检索器更好地理解细小片段的意义。提高检索效率通过两阶段或多阶段的检索策略先粗略定位后精确查找减少了不必要的计算量。实现方式摘要层/大块层 (Summary/Coarse Granularity)内容将整个文档或文档的逻辑大块例如一个章节、一个段落组创建摘要Summary或概括性描述。目的用于初步筛选和路由。当用户查询到来时系统首先搜索这些高级别的摘要以快速确定哪些文档或哪些大块与查询的主题相关。优势避免了在整个知识库的每一个细小片段上进行昂贵且低效的搜索。细节层/小块层 (Detail/Fine Granularity)内容传统的、细粒度的文档块Chunks通常包含具体的细节和事实。目的用于精确检索。一旦在摘要层确定了相关的文档大块系统会聚焦于该大块内部的细粒度向量进行第二次、更精确的检索。优势确保检索到的上下文包含回答问题所需的确切细节提高了精确度Precision。2. 检索模型 (Retrieval Model)决定如何计算查询与文档之间的相关性常见的方法有稀疏检索Sparse Retrieval基于关键词匹配的传统方法如BM25。密集检索Dense Retrieval基于向量相似度的语义匹配方法是现代RAG的主流。混合检索Hybrid Retrieval结合稀疏和密集方法的优点提高召回率。3. 查询处理 (Query Processing)为了让检索更有效查询本身需要被优化这在高级RAG和模块化RAG中尤为重要查询重写Query Rewrite优化查询的表达形式使其更精确。查询扩展Query Expansion查询扩展是指在执行实际检索之前通过向原始用户查询中添加新的术语、同义词或相关概念来修改或增强查询的过程查询路由Query Routing查询路由是一种在RAG流程的最前端执行的决策机制。它负责根据用户查询的内容、意图或类型将该请求导向最合适的处理路径、知识源或工具。Query Rewrite目标解决上下文依赖和模糊性问题。机制使用 LLM 或其他模型基于对话历史或对原始查询的分析将其转换为一个独立、清晰的、适合搜索的查询语句。示例将“它是什么时候生效的”重写为“巴黎气候协议什么时候生效的”Query Expansion核心目标提高召回率Recall。它旨在扩大检索范围确保即使文档中使用了与用户查询不同的词汇只要语义相关也能被有效地检索到。为什么需要查询扩展查询扩展主要解决了RAG检索中的两个问题。词汇鸿沟Lexical Gap用户使用的词汇可能与知识库文档中使用的词汇不完全匹配。例如用户查询“LLM速度”而文档使用“大型语言模型 推理延迟”。传统的精确匹配会失败。语义不完整性 用户的查询可能非常简短或过于口语化不足以准确表达其完整的语义需求导致检索向量不够精确。查询扩展的视线方式同义词和相关术语添加使用领域特定的词典、本体论或预训练模型如 WordNet来识别查询中的核心词汇的同义词或强相关术语并将它们添加到原始查询中。反问/多视角生成Multi-Query使用LLM根据用户的原始查询生成多个新的、不同的查询版本或视角。确保检索器能够从多个语义角度查找文档提高覆盖率。假设文档嵌入HyDELLM首先根据查询生成一个“假设文档”或“假设答案”这个假设文档比原始查询更长、更具描述性。系统不对原始查询进行嵌入而是对假设文档进行嵌入并检索。由于假设文档的语义向量更接近真实的文档块这极大地提高了语义匹配的准确性。子查询Sub-Query将一个复杂的、需要多步才能回答的查询分解成一系列更简单、更具体的子查询以支持多步推理。上下文向量表示CoVeCoVe是一种编码技术旨在生成更具上下文感知能力的词向量或句子向量。虽然CoVe本身是一个更早期的NLP模型概念但在 RAG的语境中它代表了对嵌入模型Embedding Model的性能要求和优化。Query Routing核心目的和价值提高效率Efficiency避免对所有查询都执行耗时且不必要的RAG检索。如果查询只需调用一个简单的API或LLM的内部知识就能回答则无需启动整个检索流程。增强通用性Versatility允许RAG系统连接到多种异构的知识源和工具。一个查询可以被路由到内部向量数据库(用于知识问答)。外部搜索引擎/API(用于实时信息或工具调用)。知识图谱(用于复杂的关系推理)。代码解释器(用于计算任务)。实现机制意图识别使用一个分类模型可以是经过微调的小型模型或一个强大的LLM来分析查询判断其属于哪个预定义的类别例如事实查询、计算查询、意图模糊、闲聊。路径决策根据识别出的类别系统做出决策如果意图是“事实查询”路由到RAG检索模块。如果意图是“计算”路由到Code Interpreter或外部计算 API。如果意图是“闲聊”或“创意写作”路由到仅生成LLM Generate Only模块跳过检索。6、Generation生成组件的核心是LLM其任务是基于用户查询和检索到的上下文信息来合成最终的、流畅的、事实准确的回答。生成组件的角色和目标方面描述核心模型大型语言模型LLMs如 GPT 系列、Llama 系列等。输入增强后的提示Augmented Prompt包括用户原始查询和检索器返回的相关上下文context。输出针对用户查询的最终、连贯、且基于事实的响应。主要目标确保生成内容既忠实于检索到的上下文减少幻觉又具备LLM的强大自然语言生成能力流畅、自然。生成技术的分类如何使用上下文离散检索与生成 (Discrete Retrieval and Generation)这种方法侧重于在检索和生成两个独立阶段之间进行优化以确保 LLM 能够更好地利用检索到的信息。提示工程 (Prompting)这是最常用和最简单的方法直接将检索到的文档片段插入到LLM的输入提示中指导LLM使用这些信息来生成答案。上下文优化Context Optimization在将检索到的文本送入LLM之前进行优化处理例如压缩 (Compression)只保留最相关或最重要的信息以减少输入长度减轻LLM的处理负担。重新排名 (Re-ranking)使用一个额外的模型如 Re-ranker对检索器返回的文档片段进行更精确的二次排序确保最相关的内容排在前面。联合训练的生成器 (Jointly Trained Generator)这种方法试图将检索和生成步骤整合通过端到端训练来优化LLM对检索结果的利用效率。RAG模型的原始设计在RAG的最初论文中生成器和检索器是联合训练的。在训练过程中模型不是简单地将上下文作为输入而是学习如何概率性地根据检索到的文档片段来预测下一个词。RAG-Sequence使用同一个检索到的文档来预测整个目标序列。RAG-Token允许模型在生成序列中的每个词时根据不同的检索文档片段来计算概率。生成组件的挑战在RAG系统中生成组件面临的主要挑战是如何有效且可靠地整合检索到的外部信息。挑战解决方案/关注点上下文利用不足 (Context Negligence)LLM可能会过度依赖其内部参数知识而忽略检索到的新信息。解决方案包括使用更优化的提示如 Chain-of-Thought, CoT、在提示中明确指示模型必须引用来源。上下文冗余或噪音 (Redundancy/Noise)检索到的上下文可能包含不相关或干扰信息导致LLM分心或被误导。解决方案是采用精细分块、上下文压缩和多阶段检索来确保输入到 LLM 的上下文是简洁且高质量的。生成效率 (Efficiency)每次检索并向LLM传递大量上下文会增加推理成本和延迟。优化的方法包括使用更小的、专门的LLM而不是最大的基础模型作为生成器以及高效的上下文管理。7、Augmentation增强Augmentation阶段是链接检索Retrieval和生成Generation阶段得桥梁。迭代式 (ITERATIVE)核心理念提供更多上下文信息这种模式通过多次循环来改进生成结果每次迭代都可能检索到新的信息。流程查询 (Query)输入。检索 (Retrieve)相关的上下文信息。生成 (Generate)初步的响应。判断/评估 (Judge)生成的响应是否满足要求。如果未满足并且未达到最大次数 (Max Times / Threshold)则回到检索步骤迭代N次 (Iterate N Times)尝试获取更多上下文。如果满足或达到最大次数则输出响应 (Response)。一个详细示例场景撰写一篇关于气候变化影响的深度报告核心目标确保生成的报告涵盖尽可能全面的事实和数据。步骤动作描述查询 (Query)撰写一份关于气候变化对全球农业影响的报告。初始任务。检索 (Retrieve) 1检索“气候变化对主要粮食作物的影响”。获得第一批信息例如小麦减产数据。生成 (Generate) 1生成报告的第一段关于气候影响的介绍和对小麦的初步分析。初步输出。判断 (Judge) 1未达到阈值。报告深度不足只谈了小麦。流程判断需要更多信息。检索 (Retrieve) 2再次检索“气候变化对渔业和畜牧业的影响”。补充第二批信息。生成 (Generate) 2更新报告加入渔业和畜牧业的影响分析。改进后的输出。判断 (Judge) 2未达到阈值。未达到预设的迭代次数。流程继续。检索 (Retrieve) 3再次检索“适应策略和缓解措施”。补充第三批信息。生成 (Generate) 3完成报告加入适应策略的章节。最终输出。响应 (Response)完整、深入的报告。特点通过预设的循环次数不断补充上下文来增强最终结果。递归式 (RECURSIVE)核心理念逐步分解复杂问题这种模式适用于复杂问题通过将原始查询分解成子查询或转换查询并对每个子问题应用检索-生成流程直到解决。流程查询 (Query)输入。检索 (Retrieve)初始信息。生成 (Generate)初步结果。查询转换/分解 (Query Transformation / Decomposition)根据生成的结果或当前状态将原始查询转换成新的查询或分解成更小的子查询。将新的查询/子查询送回检索步骤形成一个循环。判断/评估 (Judge)在每次生成后进行评估。如果未满足并且未达到最大深度/阈值 (Max Depth (Tree) / Threshold)则继续通过查询转换/分解进行下一层递归。如果满足或达到最大深度则输出**响应 (Response)**。一个详细示例场景解决一个复杂的数学物理问题核心目标将一个大问题分解为可解决的子问题逐一击破。步骤动作描述查询 (Query)计算一个带电粒子在非均匀磁场中运动的最终速度。初始复杂问题。检索 (Retrieve) 1检索“带电粒子在磁场中的洛伦兹力公式”。获取初始物理定律。生成 (Generate) 1确定需要用到洛伦兹力和牛顿第二定律。初步分析。查询转换/分解产生子查询 A“如何表示非均匀磁场的数学模型”复杂问题分解为子问题A。[子问题 A 循环] 检索 (Retrieve) A检索“非均匀磁场的泰勒展开式”。获取子问题A的解决方案。[子问题 A 循环] 生成 (Generate) A生成得到磁场的表达式。解决子问题A。判断 (Judge) A未达到最大深度。仍需解决最终速度问题。回到主流程。查询转换/分解产生子查询 B“将代入运动微分方程并求解”。复杂问题分解为子问题B。[子问题 B 循环] …流程继续直到求出最终速度。解决子问题B。响应 (Response)详细的求解步骤和最终速度公式。特点通过分解问题并对每个子问题应用检索-生成解决原始的复杂查询。自适应式 (ADAPTIVE)核心理念灵活和主动地控制检索和生成这种模式结合了前两者的特点并且在流程中加入了“按需检索”和“特殊标记生成”的机制实现了更精细的控制。流程查询 (Query)输入。判断/评估 (Judge)立即判断是否需要进行检索按需检索 - Retrieve On Demand。如果需要进行检索 (Retrieve)。生成 (Generate)响应。查询转换/分解 (Query Transformation / Decomposition)根据生成结果可以转换或分解查询送回检索步骤。再次判断/评估 (Judge)判断最终响应是否可以输出。如果未满足并且未达到阈值流程可以循环回最开始的判断/评估步骤或检索步骤。如果满足或生成了特殊标记/达到阈值 (Generate Special Token / Threshold)则输出 响应 (Response)。一个详细示例场景实时回答用户关于一家新公司的提问核心目标仅在必要时才进行检索节省计算资源并根据回答质量动态调整策略。步骤动作描述查询 (Query)“XYZ公司最近发布了什么新产品”用户提问。判断 (Judge) 1需要检索 (Retrieve On Demand)。公司名是新的内部知识库信息可能不完整。流程决定需要外部信息。检索 (Retrieve) 1检索“XYZ公司最新新闻稿”。获得信息发布了Quantum Chip。生成 (Generate) 1生成“XYZ公司最近发布了Quantum Chip。”初步回答。判断 (Judge) 2达到阈值。答案简洁准确无需继续深入。流程决定结束。响应 (Response)“XYZ公司最近发布了Quantum Chip。”———另一个查询 (Query)“什么是洛伦兹力”用户提问一个常见知识。判断 (Judge) 1不需要检索 (No Retrieve)。内部知识库有高置信度定义。特点跳过检索步骤直接进入生成。生成 (Generate) 1生成洛伦兹力的标准定义。判断 (Judge) 2达到阈值。答案质量高。响应 (Response)洛伦兹力的标准定义。特点通过多阶段判断灵活地决定检索的时机、次数和流程走向。总结对比特点迭代式 (ITERATIVE)递归式 (RECURSIVE)自适应式 (ADAPTIVE)目标增加上下文改进单次生成分解复杂任务灵活控制按需执行主要机制固定次数的检索-生成循环查询转换/分解多阶段判断、按需检索结束条件达到最大循环次数达到最大递归深度生成特殊标记或达到阈值适用场景事实性查证、信息补充复杂推理、多步骤规划需要精细控制生成和检索交互的场景8、评估评估的最终目标是验证RAG流程的两个核心组件的有效性。检索质量 (Retrieval Quality):关注点检索器获取上下文的有效性。相关质量得分/能力上下文相关性、噪声鲁棒性。主要指标命中率 (Hit Rate)**、平均倒数排名 (MRR)、**归一化折扣累积增益 (NDCG)。生成质量 (Generation Quality):关注点生成器利用上下文合成答案的能力。相关质量得分/能力答案忠实性、答案相关性、否定拒绝、信息整合、反事实鲁棒性。主要指标取决于任务EM (精确匹配)、F1 Score、Accuracy (准确率)、BLEU、ROUGE。当代RAG模型检索增强生成模型的评估实践强调三项主要的质量得分和四项基本能力它们共同指导着对RAG模型两个主要目标检索和生成的评估。质量得分 (Quality Scores)质量得分包括上下文相关性Context Relevance、答案忠实性Answer Faithfulness和答案相关性Answer Relevance。这些质量得分从信息检索和生成过程的不同角度评估RAG模型的效率。上下文相关性Context Relevance评估检索到的上下文的精确度和特异性确保其相关性并最大限度地减少处理无关内容所产生的处理成本。答案忠实性Answer Faithfulness确保生成的答案忠实于检索到的上下文保持一致性并避免矛盾。答案相关性Answer Relevance要求生成的答案直接与提出的问题相关有效地解决核心询问。所需能力 (Required Abilities)RAG评估还涵盖了四项能力它们表明了模型的适应性和效率噪声鲁棒性Noise Robustness、否定拒绝Negative Rejection、信息整合Information Integration和反事实鲁棒性Counterfactual Robustness。这些能力对于模型在各种挑战和复杂场景下的表现至关重要并会影响其质量得分。噪声鲁棒性 (Noise Robustness)评估模型处理与问题相关但缺乏实质性信息的噪声文档的能力。否定拒绝 (Negative Rejection)评估模型的辨别力即当检索到的文档不包含回答问题所需的知识时模型能够避免做出响应。信息整合 (Information Integration)评估模型从多个文档中综合信息以解决复杂问题的能力。反事实鲁棒性 (Counterfactual Robustness)测试模型识别并忽略文档中已知不准确信息的能力即使在被告知可能存在错误信息的情况下也是如此。评估基准和工具 (Evaluation Benchmarks and Tools)诸如RGB、RECALL和CRUD等著名的基准测试侧重于评估RAG模型的基本能力即上文所述的四项能力。同时像RAGAS、ARES和TruLens等先进的自动化工具则利用大型语言模型LLMs来裁定评估质量得分即上文所述的三项得分。​最后我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我整理出这套 AI 大模型突围资料包✅AI大模型学习路线图✅Agent行业报告✅100集大模型视频教程✅大模型书籍PDF✅DeepSeek教程✅AI产品经理入门资料完整的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】​​为什么说现在普通人就业/升职加薪的首选是AI大模型人工智能技术的爆发式增长正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议到全国两会关于AI产业发展的政策聚焦再到招聘会上排起的长队AI的热度已从技术领域渗透到就业市场的每一个角落。智联招聘的最新数据给出了最直观的印证2025年2月AI领域求职人数同比增幅突破200%远超其他行业平均水平整个人工智能行业的求职增速达到33.4%位居各行业榜首其中人工智能工程师岗位的求职热度更是飙升69.6%。AI产业的快速扩张也让人才供需矛盾愈发突出。麦肯锡报告明确预测到2030年中国AI专业人才需求将达600万人人才缺口可能高达400万人这一缺口不仅存在于核心技术领域更蔓延至产业应用的各个环节。​​资料包有什么①从入门到精通的全套视频教程⑤⑥包含提示词工程、RAG、Agent等技术点② AI大模型学习路线图还有视频解说全过程AI大模型学习路线③学习电子书籍和技术文档市面上的大模型书籍确实太多了这些是我精选出来的④各大厂大模型面试题目详解⑤ 这些资料真的有用吗?这份资料由我和鲁为民博士共同整理鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。所有的视频教程由智泊AI老师录制且资料与智泊AI共享相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌构建起前沿课程智能实训精准就业的高效培养体系。课堂上不光教理论还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事‌​​​​如果说你是以下人群中的其中一类都可以来智泊AI学习人工智能找到高薪工作一次小小的“投资”换来的是终身受益应届毕业生‌无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型‌非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界‌。业务赋能 ‌突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型‌。获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】**​
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

永久免费google搜索引擎天津软件优化公司排名前十

第一章:揭秘Open-AutoGLM Web操作界面核心架构Open-AutoGLM 作为一款面向自动化生成语言模型任务的开源工具,其 Web 操作界面采用前后端分离架构,前端基于 Vue.js 构建动态交互体验,后端通过 FastAPI 提供异步 RESTful 接口支持。…

张小明 2026/1/9 5:58:01 网站建设

西安网站建设多钱深圳市龙岗区建设局官网网站

在日常工作会议中,你是否遇到过这样的困扰:多人讨论时信息密集,传统记录方式难以完整捕捉;会后整理纪要耗时耗力,关键决策点容易遗漏;远程会议缺乏实时文字支持,影响沟通效率。智能语音转写技术…

张小明 2026/1/7 18:47:59 网站建设

asp做网站计数器apache搭建多个网站

2025最新!MBA毕业论文必备9大AI论文平台测评 2025年MBA论文写作工具测评:从实用角度出发,打造高效科研助手 MBA学生在撰写毕业论文时,常常面临选题困难、资料收集繁琐、逻辑梳理不清等挑战。随着AI技术的不断进步,越来…

张小明 2026/1/2 11:27:21 网站建设

婚恋网站开发平台代理招商网站开发需要准备什么软件

快速体验 打开 InsCode(快马)平台 https://www.inscode.net输入框内输入如下内容: 构建一个产品原型流程图生成器,功能包括:1.通过问答形式收集产品需求 2.自动生成多层级流程图(包含用户旅程、功能模块等)3.支持多人…

张小明 2026/1/2 2:20:56 网站建设

国外学校网站模板wordpress素材下载

突破极限:.NET Windows Desktop Runtime如何重塑现代桌面应用开发体验 【免费下载链接】windowsdesktop 项目地址: https://gitcode.com/gh_mirrors/wi/windowsdesktop 在当今数字化转型浪潮中,桌面应用依然是企业级解决方案的核心组成部分。Mic…

张小明 2026/1/3 9:59:16 网站建设

建设银行瓶窑支行网站衡水制作网站

AI大模型架构师是融合软件架构、机器学习和系统设计的高级技术角色,负责设计、实现和优化大规模AI模型系统。该职业需求旺盛但供给不足,薪酬水平高(一线城市月薪中位数超4.2万,资深者年薪80-200万)。需掌握深度学习、分…

张小明 2026/1/3 13:59:21 网站建设