如果你这是一个专为希望减少代码编写、通过图形化工具完成 RAG 搭建的方案。我们将使用 LangChain 图形化工具 结合 Ollama 模型管理界面,实现从环境准备到问答交互的全流程,只需少量配置文件修改,无需编写复杂脚本。
一、前期准备:安装基础工具(3 个核心软件)
1. 安装 Python(必要运行环境)
1. 访问 Python 官网,下载 Python 3.11.x 版本
2. 安装时务必勾选 “Add Python to PATH”,然后点击 “Install Now”
3. 验证:按下 Win + R 输入 cmd,执行 python –version,显示版本号即成功
2. 安装 Ollama(本地大模型管理)
1. 访问 Ollama 官网,点击 “Download for Windows”
2. 双击安装包,按提示完成安装(默认路径即可)
3. 启动 Ollama 图形化界面(桌面会生成快捷方式)
4. 在界面中搜索并下载中文模型:
o 推荐 qwen:7b(阿里通义千问,适合中文场景)
o 点击 “Pull” 等待下载完成(约 4GB,需耐心等待)
3. 安装 LangChain 图形化工具(RAG 流程管理)
1. 打开命令提示符(Win + R → cmd)
2. 执行以下命令安装 LangChain Server(带图形化界面):
bash
pip install “langchain[server]” chromadb sentence-transformers pypdf
3. 验证安装:执行 langchain serve,看到 “Uvicorn running on http://0.0.0.0:8000” 即成功
4. 按 Ctrl + C 暂时关闭服务,准备后续配置
二、配置 RAG 核心组件(仅需修改 1 个配置文件)
1. 创建项目文件夹
1. 在 D 盘新建文件夹 D:my_rag
2. 在该文件夹中创建两个子文件夹:
o documents:用于存放你的知识库文档(PDF/Word 等)
o chroma_db:用于存储向量数据
2. 编写配置文件(关键步骤,复制粘贴即可)
1. 在 D:my_rag 中新建文本文件,重命名为 rag_config.yaml
2. 复制以下内容(已优化中文支持):
yaml
# RAG 配置文件(适配 Ollama + Chroma + LangChain)
version: 1
components:
# 1. 向量数据库配置(Chroma)
– name: vectorstore
type: vectorstore
config:
type: chroma
persist_directory: D:/my_rag/chroma_db # 向量库存储路径
embedding:
type: huggingface
model_name: m3e-base # 中文优化的嵌入模型
# 2. 文档加载器配置
– name: document_loader
type: document_loader
config:
type: directory
path: D:/my_rag/documents # 文档存放路径
glob: “**/*” # 加载所有文件
loader_kwargs:
recursive: true
# 3. 文本拆分配置
– name: text_splitter
type: text_splitter
config:
type: recursive_character
chunk_size: 1000
chunk_overlap: 200
# 4. 大模型配置(Ollama)
– name: llm
type: llm
config:
type: ollama
model: qwen:7b # 已下载的模型名称
temperature: 0.7 # 回答灵活性(0-1)
# 5. RAG 链配置
– name: rag_chain
type: chain
config:
type: retrieval_qa
llm:
$ref: llm
retriever:
$ref: vectorstore.as_retriever
search_kwargs:
k: 3 # 检索相关片段数量
三、启动 RAG 系统并导入文档(图形化操作)
1. 启动 LangChain 服务
1. 打开命令提示符,切换到项目目录:
bash
cd D:my_rag
2. 执行命令启动服务(加载配置文件):
bash
langchain serve –config rag_config.yaml
3. 打开浏览器,访问 http://localhost:8000,进入 LangChain 图形化界面
2. 导入知识库文档
1. 将你的文档(PDF/Word/TXT 等)复制到 D:my_ragdocuments 文件夹
2. 在 LangChain 界面左侧菜单中点击 “Document Loaders”
3. 找到你配置的 document_loader,点击 “Load” 按钮
4. 系统会自动完成:
o 文档加载 → 文本拆分 → 向量化 → 存入 Chroma 数据库
o 进度完成后会显示 “Loaded X documents”
四、使用 RAG 问答(图形化交互)
1. 启动问答界面
1. 在 LangChain 界面左侧菜单中点击 “Chains”
2. 找到配置的 rag_chain,点击进入问答界面
2. 开始提问
1. 在输入框中输入问题(例如):
o “文档中提到的核心观点是什么?”
o “总结第三部分的主要内容”
2. 点击 “Run” 按钮,系统会:
o 从 Chroma 数据库检索相关文档片段
o 调用 Ollama 的 qwen:7b 模型生成回答
o 显示回答结果及引用的文档来源(文件名和位置)
五、日常使用与维护(全图形化)
1. 添加新文档
1. 将新文档复制到 D:my_ragdocuments
2. 在 LangChain 界面的 “Document Loaders” 中再次点击 “Load”
3. 系统会自动增量更新向量库(无需重建整个知识库)
2. 更换模型
1. 在 Ollama 图形化界面中下载新模型(如 llama3:8b)
2. 编辑 rag_config.yaml,将 model: qwen:7b 改为新模型名称
3. 重启 LangChain 服务(Ctrl + C 终止后重新执行 langchain serve –config rag_config.yaml)
3. 调整检索精度
1. 打开 rag_config.yaml,修改 search_kwargs: k: 3 中的数字:
o 数值越大(如 5):检索结果越全面,但回答速度稍慢
o 数值越小(如 2):回答速度快,但可能遗漏部分信息
2. 重启服务使配置生效
六、常见问题解决(图形化操作)
|
问题现象 |
解决方法 |
|
文档加载失败 |
检查文档是否加密 / 损坏,确保路径无特殊字符(如空格、中文括号) |
|
回答不包含文档内容 |
确认文档已成功加载,尝试增加 k 值(如改为 5) |
|
服务启动失败 |
检查 rag_config.yaml 中路径是否正确(用 / 而非 ) |
|
模型调用超时 |
关闭其他占用内存的程序,或换用更小的模型(如 qwen:4b) |
总结
这个方案通过 LangChain 图形化界面 和 Ollama 可视化管理,将代码编写量降到最低(仅需复制粘贴配置文件),核心操作均通过界面完成。你可以:
· 零代码实现文档加载、向量存储和检索增强
· 灵活更换模型和调整参数
· 完全本地化部署,保护数据隐私
适合希望快速搭建 RAG 知识库,又不想深入编写代码的用户。后续如需扩展功能,可逐步学习修改配置文件或尝试简单脚本。


