bge-large-zh-v1.5(中文最优,一体机预装)DeepSeek-R1、LinSeer 等(一体机预装)bge-large-zh-v1.5(默认预装)DeepSeek-R1-32B)| 字段 | 填写示例 | 说明 |
|---|---|---|
| 知识库名称 | 杨柳青测试 | 自定义,唯一标识 |
| 知识库分类 | 技术文档 / 内部制度 | 用于分类管理,可选 |
| 描述 | 地球站知识库 | 备注说明,可选 |
| 字段 | 推荐值 | 说明 |
|---|---|---|
| 默认召回条数 | 5-10 | 一般设 5-10,太多会冗余,太少信息不足 |
| 召回文本块大小 | 500-1024 | 中文场景 500-800 最佳,平衡语义完整性和检索精度 |
| 未命中处理策略 | 正常模式 | 未检索到内容时,用 LLM 直接回答;选「拒绝模式」则直接提示无答案 |
| 是否返回文件信息 | 返回 | 回答时附带来源文档,方便溯源 |
| 同义词库 | 可选 | 有行业专属术语时绑定,否则留空 |
| 检索阈值 | 0.7-0.8 | 相似度阈值,0.8 适合精准检索,0.7 适合泛化检索 |
| 推理总结(Prompt) | 你截图的模板可直接用,优化版如下: | 核心 Prompt,决定回答质量 |
| 开启提问理解 | 开启 | 自动优化用户问题,提升检索准确率 |
| 开启多轮会话 | 开启 | 支持上下文关联问答 |
已知信息:{context}
根据上述已知信息,回答用户的问题。请注意:
1. 答案必须严格基于已知信息,不得添加猜测、编造内容
2. 完整覆盖关键信息,不遗漏核心要点
3. 答案使用中文,语言通顺、逻辑清晰
4. 若无法从已知信息中得到答案,请直接回答「根据已知信息无法回答该问题」,无需额外说明
问题是:{question}
| 问题 | 原因 | 解决方法 |
|---|---|---|
| 上传文档后索引失败 | 文档格式损坏 / 过大 | 拆分大文档,修复损坏文件 |
| 检索不到内容 | 阈值过高 / 文本块过大 | 降低阈值(0.7),调小文本块 |
| 回答不基于知识库 | Prompt 错误 / 模型未绑定 | 检查 Prompt 模板,重新绑定 LLM 模型 |
| 会话卡顿 | 模型 GPU 资源不足 | 减少并发,调整模型实例 GPU 分配 |
参考:https://www.h3c.com/cn/Service/Document_Software/Document_Center/AIGC/Catalog/SNPT/LXSN/Configure/User_Manual/H3C_AppBuilder_UM_E0501-28746/?CHID=1211952
在新华三灵犀一体机上配置RAG知识库,主要是在其软件平台(LinSeer Hub)的“模型推理”模块中,通过“RAG模型配置”和“挂载知识库”这两个步骤完成的。
配置知识库前,需要先确保大模型服务已就绪。
模型部署:在平台的“模型推理” -> “模型部署”页面,完成大模型的部署。
服务发布:模型部署成功后,在“服务发布”页面将其发布为可用的推理服务。
服务确认:在“模型服务”页面,可以看到已发布的推理服务列表,并在此进行后续的增强配置
这部分是配置的关键,分为“配置RAG模型”和“挂载知识库”两个前后依赖的步骤。
RAG(检索增强生成)模型负责处理知识库中的文档,并将其转化为大模型可以理解的向量数据。在“模型服务”页面,选择目标推理服务。点击“RAG模型配置”或类似选项,选择或配置用于知识库增强的模型。
完成RAG模型配置后,即可进行知识库挂载。同样在“模型服务”页面,找到知识库挂载的功能入口。
点击“挂载知识库”或“添加知识库”按钮。
选择需要挂载的知识库。如果还没有知识库,平台通常也支持在此步骤中上传文档来创建新的知识库。
确认挂载,使大模型在回答问题时能参考这些私有知识。
主要就是推理部署> 新增这一步 选择服务类型为向量化或者排序时不知道部署类型是选择基础模型还是模型API 如果选择基础模型那么灵犀推理平台的部署的模型只能给向量化或者排序其中一个使用 选择模型API的话不知道这个模型API该如何调用
主要就是推理部署> 新增这一步 选择服务类型为向量化或者排序时不知道部署类型是选择基础模型还是模型API 如果选择基础模型那么灵犀推理平台的部署的模型只能给向量化或者排序其中一个使用 选择模型API的话不知道这个模型API该如何调用
亲~登录后才可以操作哦!
确定你的邮箱还未认证,请认证邮箱或绑定手机后进行当前操作
举报
×
侵犯我的权益
×
侵犯了我企业的权益
×
抄袭了我的内容
×
原文链接或出处
诽谤我
×
对根叔社区有害的内容
×
不规范转载
×
举报说明