您可以捐助,支持我们的公益事业。

1元 10元 50元





认证码:  验证码,看不清楚?请点击刷新验证码 必填



  求知 文章 文库 Lib 视频 iPerson 课程 认证 咨询 工具 讲座 Model Center 汽车系统工程   模型库  
会员   
   
软件架构设计方法、案例与实践
10月15日-16日 北京+线上
车载系统功能开发方法与实践
10月25日-26日 北京+线上
SysML和EA进行系统设计与建模
11月19-20日 北京+线上
     
   
 订阅
RAG彻底爆了!一文掌握其效果优化的架构设计及核心要点
 
作者:技术方舟
  71   次浏览      5
 2025-9-29
 
编辑推荐:
本文主要介绍了RAG(检索增强生成)技术的核心原理、架构设计、关键组件以及优化策略,希望对你的学习有帮助。
本文来自于技术方舟,由火龙果软件Alice编辑,推荐。

RAG技术全解析:让大模型告别"胡说八道",构建企业级AI知识库的终极指南

你是否遇到过这样的场景:向大模型询问公司最新的产品规格,它却给出了2021年的过时信息?或者让AI助手帮你查找内部文档,它却开始"一本正经地胡说八道"?

根据Stanford的最新研究,即使是GPT-5这样的顶级大模型,在处理特定领域知识时的准确率也仅有47%。而当企业试图将AI应用于实际业务场景时,这个数字更是跌至惊人的23%。问题的根源在于: 大模型的知识是静态的、通用的,而企业需要的是动态的、专属的智能。

这就是RAG(Retrieval-Augmented Generation,检索增强生成)技术诞生的背景。它像是给大模型装上了一个"实时知识库",让AI不仅能说会道,更能言之有物、言之有据。微软、谷歌、阿里等科技巨头纷纷将RAG作为企业AI落地的核心技术路线,Gartner预测,到2025年,超过75%的企业级AI应用将采用RAG架构。

今天,让我们深入剖析RAG技术的方方面面,从基础概念到高级优化,从理论原理到实战案例,帮你构建真正可用的企业级AI知识系统。

一、揭开RAG的神秘面纱:不只是检索+生成那么简单

很多人对RAG的理解停留在"先搜索,后回答"的表面,这就像把汽车理解为"四个轮子加一个发动机"一样肤浅。RAG的本质是认知增强架构,它重新定义了AI处理知识的方式。

传统的大语言模型就像一个博学的学者,虽然读过无数书籍,但所有知识都固化在大脑(参数)里。当你问起最新发生的事,或者某个小众领域的细节,它只能基于"印象"来回答,难免张冠李戴。而RAG则像是给这位学者配了一个随身图书馆和研究助理,每次回答前都能快速查阅最新、最准确的资料。

让我们通过一个真实案例来理解RAG的威力。某金融科技公司需要构建一个合规咨询助手,帮助员工快速了解各国不断更新的金融法规。如果使用传统大模型,不仅无法获取最新法规,还可能因为"幻觉"问题给出错误建议,造成严重合规风险。

而采用RAG架构后,系统能够:

    • 实时同步最新的法规文件和监管通知
    • 精准定位相关条款,避免张冠李戴
    • 提供出处,每个建议都有明确的法规依据
    • 个性化推理,结合公司具体业务场景给出建议

这个系统上线后,合规咨询效率提升了85%,合规风险降低了92%。更重要的是,它让AI从"不可信的参考"变成了"可依赖的专家"。

RAG的核心创新在于三个层面:

1. 知识解耦:将知识存储与推理能力分离,知识可以独立更新而无需重新训练模型。这就像把大脑的"记忆区"和"思考区"分开,记忆可以随时更新,而思考能力保持稳定。

2. 上下文增强:不是简单地把检索结果丢给模型,而是通过精心设计的prompt工程,让模型理解如何使用这些信息。这需要考虑信息的相关性、可信度、时效性等多个维度。

3. 反馈循环:RAG系统能够根据生成结果的质量,不断优化检索策略和生成策略。这是一个自我进化的过程,系统越用越聪明。

二、为什么RAG是企业AI应用的必选项:四大核心价值

在深入技术细节之前,我们需要明确一个关键问题:**为什么几乎所有成功的企业AI项目都选择了RAG?**

答案不仅仅是技术层面的优势,更是商业价值的必然选择。

2.1 解决大模型的"阿喀琉斯之踵"

大语言模型虽然强大,但存在几个致命弱点,而RAG恰好是这些问题的解药:

  1. 幻觉问题( Hallucination ):研究表明,即使是最先进的GPT-5,在没有充分上下文的情况下,仍有15-20%的概率产生事实性错误。对于医疗、金融、法律等高风险领域,这是不可接受的。RAG通过提供准确的参考信息,将幻觉率降低到2%以下。
  2. 知识时效性:大模型的知识截止到训练时间,而商业世界瞬息万变。某电商公司使用纯大模型做客服,结果推荐的都是已下架的商品,客诉率飙升300%。引入RAG后,系统能实时同步商品库存,客诉率降低了87%。
  3. 领域专业性:通用大模型在特定领域的表现往往不尽人意。某医药公司测试发现,GPT-4对罕见病的诊断建议准确率仅为31%,而结合专业医学文献的RAG系统,准确率提升到89%。
  4. 可解释性要求:企业决策需要依据,监管合规需要审计。RAG不仅给出答案,还能提供信息来源,满足可追溯性要求。

2.2 成本效益的最优解

很多企业的第一反应是"训练一个专属大模型",但算算账就会发现这是个天坑:

  • 训练成本:训练一个百亿参数的模型,即使是微调,也需要数百万美元的算力成本
  • 数据需求:高质量训练数据的收集和标注,动辄需要数月时间和大量人力
  • 更新困难:每次知识更新都需要重新训练,成本高昂且周期漫长
  • 效果不确定:即使投入巨大,也无法保证模型不会遗忘旧知识或产生灾难性遗忘

相比之下,RAG的成本优势明显:

真实案例: 他们最初计划投入2000万训练专属模型,用于技术文档问答。后来改用RAG方案,仅花费50万就达到了更好的效果,而且能够每天更新知识库,响应速度从原计划的6个月缩短到3周。

2.3 数据主权与合规安全

在数据就是石油的时代,企业最担心的是数据泄露和失去控制权。RAG架构完美解决了这个问题:

数据不出门: 敏感数据保存在企业私有知识库中,只有检索结果参与模型推理,大大降低了数据泄露风险。某银行通过RAG实现了"数据不出行,智能服务到家"。

细粒度权限控制: 不同员工可以访问不同级别的知识库,实现千人千面的智能服务。CEO看到的是战略分析,一线员工看到的是操作指南。

审计与追踪: 每个回答都有明确的信息来源,满足金融、医疗等行业的强监管要求。某保险公司的RAG系统,每个理赔建议都能追溯到具体的条款和案例。

GDPR 合规: 用户有权要求删除个人数据,在RAG架构下,只需从知识库删除相关文档即可,无需重新训练模型。

2.4 灵活性与可扩展性

企业需求是动态变化的,RAG提供了无与伦比的灵活性:

即插即用: 新的数据源可以随时接入,无需修改核心系统。某电商公司在双十一前临时接入了供应商库存系统,立即提升了客服的问题解决率。

多模态支持: 不仅是文本,图片、表格、代码等多种格式都能被检索和理解。某汽车厂商的RAG系统能够理解技术图纸,工程师用自然语言就能查询复杂的装配流程。

增量学习: 新知识的加入不会影响已有知识,避免了机器学习中的"灾难性遗忘"问题。

场景迁移: 同一套RAG架构可以服务多个业务场景,只需切换知识库即可。某集团公司用一套系统同时支撑了HR问答、IT支持、财务咨询三个场景。

三、RAG工作原理深度剖析:从输入到输出的奇妙旅程

理解RAG的工作原理,就像理解一个精密的瑞士手表,每个组件都有其独特作用,配合起来才能准确报时。让我们跟随一个用户查询,看看RAG系统是如何一步步生成精准答案的。

3.1 查询理解与预处理:让机器真正"听懂"你在问什么

用户的输入往往是模糊的、口语化的、甚至是有歧义的。比如用户问:"最近那个政策怎么说的?"系统需要理解:

"最近"是多久?一周?一个月?

"那个政策"指什么?根据上下文推断

"怎么说的"是要原文还是要解释?

RAG系统的第一步就是查询理解和改写:

这个过程涉及多项 NLP 技术:

意图识别: 判断用户是要查找事实(what)、寻求解释(why)、还是需要指导(how)。不同意图会触发不同的检索策略。某法律咨询系统通过意图识别,将"查条文"和"要案例"区分开,准确率提升了40%。

实体链接: 识别并标准化查询中的实体。"小米手机"、"MI手机"、"米家手机"都会被链接到同一个实体ID,确保检索的完整性。

查询扩展: 基于同义词、上下位词、相关词进行扩展。用户搜索"头疼",系统会自动扩展"头痛"、"偏头痛"、"头部疼痛"等变体。

时间理解: 将"上个月"、"去年"、"最近"等相对时间转换为具体日期范围。某新闻检索系统通过时间归一化,将时效性检索的准确率提升了65%。

3.2 在知识海洋中精准捕鱼

检索不是简单的关键词匹配,而是语义理解和相关性计算的艺术。现代RAG系统采用混合检索策略,综合多种技术确保召回率和准确率:

向量检索(Dense Retrieval): 将查询和文档都转换为高维向量,通过余弦相似度等度量找出语义相似的内容。即使用户说"水果手机",也能检索到"iPhone"相关内容。

关键词检索(Sparse Retrieval): 基于BM25等算法,对精确匹配的关键词给予更高权重。在查找特定型号、法规条款时特别有效。

混合检索(Hybrid Retrieval): 结合向量和关键词的优势,通过加权融合获得最佳效果。研究表明,混合检索比单一方法的性能提升25-30%。

检索优化技巧:

  1. 分块策略(Chunking): 长文档需要切分成合适大小的块。太大会降低精度,太小会丢失上下文。经验值是512-1024 tokens,重叠20%。
  2. 元数据过滤: 利用文档的时间、作者、类型等元数据进行预过滤,大幅提升检索效率。某技术文档库通过版本过滤,查询速度提升10倍。
  3. 负采样训练: 通过困难负样本训练,提升向量模型的区分能力。某电商搜索系统通过负采样,将相似商品的区分准确率从60%提升到85%。
  4. 查询改写: 对模糊查询进行多次改写,提高召回率。"系统很卡"可以改写为"系统响应慢"、"性能问题"、"延迟高"等。

上下文构建:给大模型配备最强"作战情报"

检索到相关文档后,如何组织这些信息供大模型使用,是RAG成功的关键。这不是简单的拼接,而是需要精心设计的上下文工程:

相关性排序: 不是所有检索结果都同等重要。通过重排序模型(如Cross-Encoder),对检索结果进行精排,确保最相关的信息排在前面。

上下文窗口管理: 大模型的上下文窗口有限(GPT-4是128K,Claude是200K),需要在有限空间内放入最有价值的信息。这就像打包行李,空间有限,每件物品都要精挑细选。

信息去重与合并: 多个文档可能包含重复信息,需要智能去重。同时,互补的信息需要合并,形成完整的知识图景。

结构化组织: 将散乱的信息组织成结构化格式,帮助模型理解。比如将产品信息整理成"特性-优势-案例"的结构。

# 上下文构建示例代码
def build_context(retrieved_docs, query, max_tokens=4000):
    """
    构建优化的上下文
    """
    # 1. 重排序
    reranked_docs = rerank_model.sort(query, retrieved_docs)
    
    # 2. 去重
    unique_docs = remove_duplicates(reranked_docs)
    
    # 3. 构建结构化上下文
    context = {
        "核心信息": extract_key_points(unique_docs[:3]),
        "支撑细节": extract_details(unique_docs[3:6]),
        "相关背景": extract_background(unique_docs[6:])
    }
    
    # 4. 压缩到窗口限制内
    compressed = compress_to_limit(context, max_tokens)
    
    # 5. 格式化为prompt
    prompt = f"""
    基于以下信息回答用户问题:
    
    【核心信息】
    {compressed['核心信息']}
    
    【支撑细节】
    {compressed['支撑细节']}
    
    【相关背景】
    {compressed['相关背景']}
    
    用户问题:{query}
    
    请基于上述信息,准确、完整地回答用户问题。
    """
    
    return prompt

3.4 增强生成:让AI有理有据地"说话"

有了精心准备的上下文,接下来就是生成阶段。但这不是让模型自由发挥,而是通过精密的prompt工程,引导模型基于事实生成答案:

Prompt设计原则:

    1. 明确指令: 告诉模型应该如何使用提供的信息
    2. 行为约束 :限制模型不要超出给定信息范围
    3. 格式要求: 指定输出格式,如要点列举、表格对比等
    4. 引用标注 :要求模型标明信息来源

Chain-of-Thought推理: 引导模型逐步思考,而不是直接给出答案。这特别适合复杂问题的推理:

第一步:识别问题的关键点是什么
第二步:从提供的信息中找出相关内容  
第三步:分析这些信息之间的关系
第四步:综合得出结论
第五步:检查答案的逻辑性和完整性

第一步:识别问题的关键点是什么 第二步:从提供的信息中找出相关内容   第三步:分析这些信息之间的关系 第四步:综合得出结论 第五步:检查答案的逻辑性和完整性

多轮对话管理: RAG不是一次性的问答,而是支持连续对话。系统需要:

  • 维护对话历史
  • 理解指代关系("它"、"这个"指什么)
  • 追踪话题转换
  • 适时更新检索策略

某客服系统通过多轮对话管理,将问题解决率从单轮的45%提升到多轮的78%。

四 RAG关键技术栈全景:构建企业级系统的必备组件

构建一个生产级的RAG系统,就像组装一台高性能赛车,每个组件都需要精挑细选,相互配合。让我们深入了解RAG技术栈的各个层次。

4.1 向量数据库:RAG的动力引擎

向量数据库是RAG系统的核心基础设施,负责存储和检索高维向量。选择合适的向量数据库,直接决定了系统的性能上限。

主流向量数据库对比:

向量索引算法深度解析:

不同的索引算法适合不同的场景,理解其原理有助于优化性能:

  1. HNSW(分层导航小世界): 构建多层图结构,查询时从顶层开始逐层下探。优点是召回率高(>95%),缺点是内存占用大。适合要求高精度的场景。
  2. IVF (倒排文件索引): 将向量空间划分为多个簇,查询时只搜索相关簇。优点是内存效率高,缺点是需要训练过程。适合超大规模但精度要求适中的场景。
  3. LSH(局部敏感哈希): 通过哈希函数将相似向量映射到相同桶中。优点是理论保证,缺点是需要大量哈希函数。适合流式数据和在线学习场景。

  某社交媒体公司通过将索引从IVF-Flat升级到HNSW,在保持相同 QPS 的情况下,召回率从82%提升到96%,用户满意度显著提升。

4.2 Embedding模型:将文本转化为"机器DNA"

Embedding模型负责将文本转换为向量表示,是RAG系统的"翻译官"。选择合适的Embedding模型,直接影响检索的准确性。

Embedding优化技巧:

    • 领域适应(Domain Adaptation): 通用Embedding模型在特定领域可能表现不佳。通过对比学习进行领域适应,可以显著提升效果。某医疗公司通过领域适应,将医学术语的检索准确率从65%提升到89%。
    • 多粒度Embedding: 不同粒度的文本(词、句、段落)需要不同的Embedding策略。混合使用多种粒度可以提升召回率。
    • 负采样优化: 通过精心设计的负样本训练,提升模型对相似但不同概念的区分能力。比如区分"苹果手机"和"苹果水果"。
    • Embedding压缩: 通过量化、剪枝等技术减少向量维度,在几乎不损失精度的情况下,大幅提升检索速度和降低存储成本。

4.3 知识库构建:打造AI的"超级大脑"

知识库是RAG系统的根基,其质量直接决定了系统的上限。构建高质量知识库需要系统化的方法论:

文档处理Pipeline:

智能分块策略:

分块(Chunking)是知识库构建的关键环节,需要在保持语义完整性和控制块大小之间找到平衡:

  1. 固定长度分块: 简单但可能破坏语义完整性
  2. 句子边界分块: 保持句子完整,但可能过于碎片化
  3. 语义分块: 基于主题变化进行分割,效果最好但计算成本高
  4. 滑动窗口分块: 重叠分块,提高召回率但增加存储
def semantic_chunking(text, max_tokens=512, overlap=50):
    """
    基于语义的智能分块
    """
    # 1. 句子分割
    sentences = sent_tokenize(text)
    
    # 2. 计算句子embedding
    embeddings = model.encode(sentences)
    
    # 3. 基于相似度聚类
    chunks = []
    current_chunk = []
    current_tokens = 0
    
    for i, sent in enumerate(sentences):
        sent_tokens = len(tokenizer.encode(sent))
        
        # 检查语义相似度
        if i > 0:
            similarity = cosine_similarity(
                embeddings[i-1], embeddings[i]
            )
            
            # 低相似度表示主题转换
            if similarity < 0.7or current_tokens + sent_tokens > max_tokens:
                chunks.append(' '.join(current_chunk))
                current_chunk = [sentences[max(0, i-2):i]]  # 重叠
                current_tokens = sum(len(tokenizer.encode(s)) for s in current_chunk)
        
        current_chunk.append(sent)
        current_tokens += sent_tokens
    
    if current_chunk:
        chunks.append(' '.join(current_chunk))
    
    return chunks

知识库质量保障:

    1. 去重机制: 通过MinHash、SimHash等算法识别重复内容
    2. 更新策略 :增量更新vs全量重建的权衡
    3. 版本控制 :保留历史版本,支持回滚
    4. 质量评分: 基于引用频率、用户反馈等指标评估文档质量

某金融机构通过实施严格的知识库质量管理,将错误信息率从8%降低到0.5%,客户投诉减少了90%。

4.4 评估与优化:让系统越来越聪明

RAG系统不是一次部署就完事,需要持续监控和优化。建立科学的评估体系是关键:

多维度评估指标体系:

A/B测试框架:

classRAGExperiment:
    """
    RAG系统A/B测试框架
    """
    def __init__(self):
        self.control_config = {
            "embedding_model""ada-002",
            "chunk_size"512,
            "top_k"5
        }
        self.treatment_config = {
            "embedding_model""bge-large",
            "chunk_size"768,
            "top_k"8
        }
    
    def run_experiment(self, queries, duration_days=7):
        results = {
            "control": [],
            "treatment": []
        }
        
        for query in queries:
            # 随机分配到实验组
            group = random.choice(["control""treatment"])
            config = self.control_config if group == "control"else self.treatment_config
            
            # 执行查询
            response = self.execute_rag(query, config)
            
            # 收集指标
            metrics = {
                "latency": response.latency,
                "relevance": self.evaluate_relevance(response),
                "user_rating": self.collect_user_feedback(response)
            }
            
            results[group].append(metrics)
        
        # 统计分析
        return self.analyze_results(results)

五、RAG优化进阶:从及格到卓越的修炼之道

基础的RAG系统可以解决80%的问题,但要达到生产级的性能和可靠性,需要掌握高级优化技术。这一章节将分享业界最前沿的优化方法。

5.1 混合检索策略:1+1>2的协同效应

单一的检索方法都有其局限性,混合检索通过组合多种技术,实现优势互补:

三层检索架构:

融合策略对比实验:

# 不同融合策略的效果对比
fusion_strategies = {
    "简单加权": {
        "方法""score = 0.5 * bm25_score + 0.5 * vector_score",
        "MRR"0.72,
        "Recall@10"0.68,
        "优点""简单直观",
        "缺点""权重固定"
    },
    "RRF (Reciprocal Rank Fusion)": {
        "方法""score = Σ(1/(k+rank_i))",
        "MRR"0.78,
        "Recall@10"0.74,
        "优点""无需调参",
        "缺点""忽略原始分数"
    },
    "学习排序 (LambdaMART)": {
        "方法""机器学习模型预测相关性",
        "MRR"0.85,
        "Recall@10"0.82,
        "优点""效果最好",
        "缺点""需要训练数据"
    },
    "自适应融合": {
        "方法""根据查询类型动态调整权重",
        "MRR"0.83,
        "Recall@10"0.80,
        "优点""灵活适应",
        "缺点""实现复杂"
    }
}

查询类型自适应优化:

不同类型的查询需要不同的检索策略:

1、事实型查询 ("特斯拉的创始人是谁")

    • 提高关键词权重
    • 优先精确匹配
    • 返回简短答案

2、 解释型查询 ("为什么会发生通货膨胀")

    • 提高语义相似度权重
    • 返回多个角度的解释
    • 包含因果关系

3、 比较型查询 ("RAG和Fine-tuning的区别")

    • 同时检索两个实体
    • 强调对比维度
    • 结构化展示差异

4、 程序型查询 ("如何配置Redis集群")

    • 按步骤顺序返回
    • 包含代码示例
    • 提供故障排查

5.2 查询改写与扩展:让AI更懂你

用户的查询往往不够精确,通过智能改写可以大幅提升检索效果:

多策略查询改写:

classQueryRewriter:
    """
    多策略查询改写器
    """
    
    def rewrite(self, query, context=None):
        rewrites = []
        
        # 1. 同义词扩展
        synonyms = self.expand_synonyms(query)
        rewrites.extend(synonyms)
        
        # 2. 缩写展开
        expanded = self.expand_abbreviations(query)
        rewrites.append(expanded)
        
        # 3. 错别字纠正
        corrected = self.spell_correct(query)
        if corrected != query:
            rewrites.append(corrected)
        
        # 4. 意图明确化
        clarified = self.clarify_intent(query, context)
        rewrites.append(clarified)
        
        # 5. 实体识别与标准化
        standardized = self.standardize_entities(query)
        rewrites.append(standardized)
        
        # 6. 基于LLM的改写
        llm_rewrites = self.llm_rewrite(query, num_rewrites=3)
        rewrites.extend(llm_rewrites)
        
        # 去重和评分
        unique_rewrites = list(set(rewrites))
        scored_rewrites = self.score_rewrites(query, unique_rewrites)
        
        return scored_rewrites[:5]  # 返回Top-5改写
    
    def llm_rewrite(self, query, num_rewrites=3):
        """
        使用LLM生成查询改写
        """
        prompt = f"""
        请将以下查询改写成{num_rewrites}个不同的版本,保持语义不变:
        
        原始查询:{query}
        
        要求:
        1. 使用不同的表达方式
        2. 补充可能的隐含信息
        3. 使用更专业的术语
        
        改写版本:
        """
        
        response = llm.generate(prompt)
        return parse_rewrites(response)

查询改写效果案例:

5.3 :让知识库保持最新

静态的知识库会快速过时,动态更新机制是RAG系统的生命线:

增量索引架构:

更新策略最佳实践:

1、 优先级队列: 不同类型的更新有不同优先级

    • P0:安全漏洞、法规变更(立即更新)
    • P1:产品信息、价格变动(1小时内)
    • P2:文档优化、格式调整(每日批处理)

2、 版本控制: 保留历史版本,支持回滚

classVersionedDocument:
    def __init__(self, doc_id):
        self.doc_id = doc_id
        self.versions = []
        self.current_version = None
    
    def update(self, content, metadata):
        new_version = {
            "version"len(self.versions) + 1,
            "content": content,
            "metadata": metadata,
            "timestamp": datetime.now(),
            "hash": calculate_hash(content)
        }
        
        # 检测是否真的有变化
        if self.current_version and \
           new_version["hash"] == self.current_version["hash"]:
            return False  # 内容未变化
        
        self.versions.append(new_version)
        self.current_version = new_version
        return True
    
    def rollback(self, version_num):
        if version_num <= len(self.versions):
            self.current_version = self.versions[version_num - 1]
            return True
        return False

3、 蓝绿部署: 无缝切换索引版本

  • 蓝索引:当前在线服务
  • 绿索引:新版本构建和测试
  • 切换:原子操作,瞬间完成
  • 回滚:问题发现后快速恢复

5.4 性能优化:让系统飞起来

当RAG系统面对高并发、大规模数据时,性能优化变得至关重要:

多级缓存架构:

性能优化技巧:

1、批处理: 将多个查询合并处理

2、 异步处理: 利用异步IO提升并发能力

3、 向量量化: 减少内存占用和计算量

    • Float32 → Int8:内存减少75%,速度提升4倍
    • 精度损失:<2%(大多数场景可接受)

4、 索引优化:

    • HNSW参数调优:M=16, ef_construction=200
    • IVF聚类数:sqrt(N),其中N为向量总数
    • GPU加速:使用FAISS-GPU,速度提升10-50倍

总结

RAG技术的出现,不仅解决了大模型的固有缺陷,更为企业级AI应用开辟了一条可行的道路。从金融合规到医疗诊断,从智能制造到教育培训,RAG正在各个领域展现其变革力量。

对于正在考虑采用RAG的企业,我的建议是:

  1. 从小场景开始,选择一个边界清晰、价值明确的应用场景
  2. 重视数据质量,高质量的知识库是成功的一半
  3. 持续迭代优化,RAG系统需要不断调优才能达到最佳效
  4. 关注用户体验,技术最终要服务于人
   
71 次浏览       5
相关文章

基于图卷积网络的图深度学习
自动驾驶中的3D目标检测
工业机器人控制系统架构介绍
项目实战:如何构建知识图谱
 
相关文档

5G人工智能物联网的典型应用
深度学习在自动驾驶中的应用
图神经网络在交叉学科领域的应用研究
无人机系统原理
相关课程

人工智能、机器学习&TensorFlow
机器人软件开发技术
人工智能,机器学习和深度学习
图像处理算法方法与实践

最新活动计划
基于模型的数据治理与中台 11-11[北京]
软件架构设计方法、案例实践 11-13[北京]
OCSMP 认证培训课程 11-18[北京]
UML与面向对象分析设计 11-25[北京]
SysML和EA系统设计与建模 11-19[北京]
车载系统功能开发方法与实践 10-25[北京]
 
 
最新文章
AIGC技术与应用全解析
详解知识图谱的构建全流程
大模型升级与设计之道
自动驾驶和辅助驾驶系统
ROS机器人操作系统底层原理
最新课程
人工智能,机器学习和深度学习
人工智能与机器学习应用实战
人工智能-图像处理和识别
人工智能、机器学习& TensorFlow+Keras框架实践
人工智能+Python+大数据
成功案例
某综合性科研机构 人工智能与机器学习
某银行 人工智能+Python+大数据
北京 人工智能、机器学习& TensorFlow
某领先数字地图提供商 Python数据分析
中国移动 人工智能、机器学习和深度学习