北京时间 2026年4月10日 · 本文约3200字,阅读约12分钟
杭州AI销售助手技术近年来在国内迅速崛起,围绕以RAG(检索增强生成)和Agent(智能体)为核心的双轮驱动架构,正成为企业数字化转型的关键基础设施。不少开发者在实际开发中仍面临一个普遍困境:能调用大模型API写个聊天机器人,却说不出RAG与Agent的区别;能在Coze上拖拽搭建智能体,却讲不清底层检索与执行的协作关系。本文将从痛点切入,系统讲解RAG与Agent的核心概念、代码示例与面试要点,帮助你建立从原理到落地的完整知识链路。

一、痛点切入:传统销售问答系统为什么不够用?
先看一段传统的销售问答系统的伪代码实现:

传统方案:基于关键词匹配 + 预定义FAQ def traditional_sales_query(user_question: str): 将问题与预定义的FAQ进行关键词匹配 for qa in faq_list: if any(keyword in user_question for keyword in qa["keywords"]): return qa["answer"] return "抱歉,这个问题我暂时无法回答,请转接人工客服。"
这段代码暴露出的问题非常明显:
1. 扩展性差:每新增一个产品型号,就要手动添加一条FAQ,SKU上千时维护成本爆炸。
2. 语义理解能力弱:用户问“预算1万以内适合新手的轻薄本”,传统系统只能匹配孤立的关键词“预算”“轻薄本”,完全无法理解“新手”对应的入门级定位与“1万以内”的价格筛选逻辑。
3. 无法复用企业知识库:公司已有的产品手册、历史金牌话术、竞品分析文档等宝贵资产,只能靠人工筛选后逐条录入FAQ,效率低下且容易遗漏。
正是这些痛点,催生了以RAG和Agent为核心的杭州AI销售助手技术体系。
二、核心概念讲解:RAG(检索增强生成)
标准定义
RAG是Retrieval-Augmented Generation的缩写,中文为“检索增强生成”——一种将外部知识库与大模型结合的技术范式。其核心流程是:先将文档切块并向量化存入数据库,用户提问时从数据库中检索出相关片段,再与问题一起送入大模型生成答案-8。
关键词拆解
检索(Retrieval) :不依赖大模型内部训练的知识,而是从外部“实时查资料”
增强(Augmented) :用查到的资料给大模型“开卷考试”,限定回答范围
生成(Generation) :大模型基于检索结果进行自然语言组织
生活化类比
想象你是一名开卷考试的学生:
大模型 = 你的大脑,聪明但不可能记住所有教材
向量数据库 = 你手边的参考书,按章节分类
检索 = 你快速翻阅目录,定位到相关段落
生成 = 你用自己语言把参考内容组织成答案
没有RAG的大模型就像闭卷考试,遇到没学过的题只能“编答案”——这就是大模型“幻觉”的根源。RAG的核心价值正是让模型能够回答训练数据之外的问题,同时大幅降低幻觉-8。
三、关联概念讲解:Agent(智能体)
标准定义
AI Agent(人工智能智能体)是一个能够感知环境、自主规划、调用工具并执行任务的智能系统。与大模型问答不同,Agent具备“目标导向”的执行能力:理解意图 → 分解任务 → 调用工具 → 反馈结果,形成完整的闭环-。
核心能力拆解
一个成熟的AI销售智能体通常具备三个底层逻辑-5:
记忆逻辑(Memory) :通过RAG整合品牌知识库、产品手册、FAQ,保证回答专业且一致
规划逻辑(Planning) :通过Workflow编排任务,引导客户完成“咨询→留资→下单”的销售漏斗
执行逻辑(Execution) :通过API插件连接库存系统、CRM、支付接口,将对话转化为真实业务动作
Agent vs RAG:区别一目了然
| 维度 | RAG | Agent |
|---|---|---|
| 定位 | 知识检索与增强生成 | 自主规划与多步执行 |
| 输入输出 | 单轮问答 | 多轮对话 + 工具调用 |
| 核心流程 | 检索 → 生成 | 思考 → 规划 → 调用 → 反馈 |
| 典型场景 | FAQ问答、文档查询 | 自动跟进客户、调用CRM更新 |
一句话总结:RAG是Agent的“知识库外挂”,让Agent知道“该说什么”;Agent是RAG的“执行大脑”,让RAG知道“下一步该做什么”。
四、代码示例:从零搭建一个极简RAG销售助手
以下是一个基于Python和本地向量库的极简RAG示例,展示了完整的检索→生成流程:
import numpy as np from sentence_transformers import SentenceTransformer 1. 加载本地Embedding模型 model = SentenceTransformer('paraphrase-multilingual-MiniLM-L12-v2') 2. 产品知识库(模拟待检索的数据) products = [ {"name": "智能客服机器人", "desc": "24小时在线响应,支持多轮对话与自动转人工"}, {"name": "销售数据分析平台", "desc": "实时追踪销售漏斗,AI自动生成商机洞察报告"}, {"name": "RAG知识库引擎", "desc": "支持向量检索与全文检索混合查询,精准召回"} ] 3. 将产品描述向量化 product_embeddings = model.encode([p["desc"] for p in products]) 4. 用户提问与检索 def rag_query(question: str): Step 1: 向量化用户问题 q_emb = model.encode([question])[0] Step 2: 计算余弦相似度,检索最相关产品 similarities = np.dot(product_embeddings, q_emb) best_idx = np.argmax(similarities) retrieved = products[best_idx] Step 3: 构造prompt,引导模型基于检索结果生成 prompt = f""" 基于以下产品信息回答用户问题,不要编造信息: 产品名称:{retrieved['name']} 产品描述:{retrieved['desc']} 用户问题:{question} 回答:""" 实际使用时调用大模型API(此处用print模拟) print(f"✅ 检索到:{retrieved['name']}") print(f"📝 Prompt:{prompt}") 测试 rag_query("有没有能自动分析销售数据的工具?")
执行流程说明:
用户问“有没有能自动分析销售数据的工具”
系统将问题向量化,与三条产品描述的向量逐一比对
“销售数据分析平台”的描述与问题相似度最高,被检索命中
最终将检索结果与问题一起送入大模型,生成专业回答
在实际工业级实现中,企业还会引入双层知识库并行检索(通用知识库与商品知识库同时召回)、rerank重排序以及Milvus向量数据库来进一步提升召回准确率-6。
五、底层原理支撑:RAG与Agent的技术基石
RAG和Agent的高效运转依赖几个关键底层技术:
Embedding模型:将文本转化为高维向量,核心任务是捕捉语义相似度。常用的有
text-embedding-3系列、paraphrase-multilingual等向量数据库:存储和检索Embedding向量,典型产品包括Milvus、Faiss、Pinecone、Qdrant等
LLM推理引擎:负责生成阶段的自然语言输出,如通义千问、Llama、GPT系列
工具调用框架:Agent通过Function Calling机制调用外部API,LangChain、AutoGen等是主流编排框架-
六、高频面试题与参考答案
Q1:RAG为什么能解决大模型“幻觉”问题?
A:大模型幻觉源于闭卷生成——模型只能依赖训练数据中的知识。RAG通过实时检索外部知识库,将检索到的相关信息与问题一起作为Prompt输入,相当于“开卷考试”,约束模型在证据范围内生成答案,从而显著降低幻觉。
Q2:Agent与普通大模型问答有什么区别?
A:普通大模型问答是“问→答”的单轮被动响应。Agent则具备目标导向的执行能力,核心流程为“理解意图→分解任务→调用工具→反馈结果”。具体差异在于:Agent能做多步规划(如主动询问预算→推荐产品→调用CRM创建线索),而大模型问答只能回答当前问题。
Q3:在电商销售场景中,向量检索与全文检索如何配合使用?
A:全文检索基于关键词匹配和倒排索引,适合精确查找(如“HP21-K6”找特定商品);向量检索基于语义相似度,适合模糊匹配(如“适合老人的取暖器”)。实际架构中,两者并行检索后通过rerank重排序,向量检索与全文检索互为补充,兼顾精确与泛化-6。
Q4:杭州AI销售助手在技术选型上有哪些主流方向?
A:当前主流技术栈包括:Embedding模型采用通义、BGE等多语言方案;向量数据库以Milvus为标配;LLM层面通义千问、Llama系列均有成熟落地;Agent编排框架以LangChain和自研Workflow引擎为主,部分企业已采用Graph-RAG和Agentic RAG等进阶范式-8。
七、总结回顾
本文围绕杭州AI销售助手的核心技术体系,梳理了以下要点:
RAG = 检索 + 增强 + 生成,核心价值是“开卷考试”,解决大模型幻觉
Agent = 记忆 + 规划 + 执行,核心价值是“自主行动”,完成多步任务闭环
二者的关系:RAG是Agent的知识模块,Agent是RAG的执行驱动
技术落地需要Embedding模型、向量数据库、LLM推理引擎的协同配合
杭州本地已有完整的AI销售助手产业链,从招聘岗位到落地产品均有丰富实践-
关键误区提示:不要混淆“RAG”与“Agent”的概念边界——RAG侧重于“怎么查知识”,Agent侧重于“怎么执行任务”。面试时能清晰区分二者关系,并给出一个完整的“用户问→检索→规划→调用”流程描述,就是高分答案。
本系列下一篇文章将深入讲解Agentic RAG技术——当检索不再是RAG的一次性前置步骤,而是融入Agent执行循环的动态过程时,AI销售助手的能力将获得质的飞跃-8。