Win11 搭建 RAG 知识库(Ollama + Chroma + LangChain)图形化方案

内容分享4天前发布
0 0 0

如果你这是一个专为希望减少代码编写、通过图形化工具完成 RAG 搭建的方案。我们将使用 LangChain 图形化工具 结合 Ollama 模型管理界面,实现从环境准备到问答交互的全流程,只需少量配置文件修改,无需编写复杂脚本。

一、前期准备:安装基础工具(3 个核心软件)

1. 安装 Python(必要运行环境)

1. 访问 Python 官网,下载 Python 3.11.x 版本

2. 安装时务必勾选 “Add Python to PATH”,然后点击 “Install Now”

3. 验证:按下 Win + R 输入 cmd,执行 python –version,显示版本号即成功

2. 安装 Ollama(本地大模型管理)

1. 访问 Ollama 官网,点击 “Download for Windows”

2. 双击安装包,按提示完成安装(默认路径即可)

3. 启动 Ollama 图形化界面(桌面会生成快捷方式)

4. 在界面中搜索并下载中文模型:

o 推荐 qwen:7b(阿里通义千问,适合中文场景)

o 点击 “Pull” 等待下载完成(约 4GB,需耐心等待)

3. 安装 LangChain 图形化工具(RAG 流程管理)

1. 打开命令提示符(Win + R → cmd)

2. 执行以下命令安装 LangChain Server(带图形化界面):

bash

pip install “langchain[server]” chromadb sentence-transformers pypdf

3. 验证安装:执行 langchain serve,看到 “Uvicorn running on http://0.0.0.0:8000即成功

4. 按 Ctrl + C 暂时关闭服务,准备后续配置

二、配置 RAG 核心组件(仅需修改 1 个配置文件)

1. 创建项目文件夹

1. 在 D 盘新建文件夹 D:my_rag

2. 在该文件夹中创建两个子文件夹:

o documents:用于存放你的知识库文档(PDF/Word 等)

o chroma_db:用于存储向量数据

2. 编写配置文件(关键步骤,复制粘贴即可)

1. 在 D:my_rag 中新建文本文件,重命名为 rag_config.yaml

2. 复制以下内容(已优化中文支持):

yaml

# RAG 配置文件(适配 Ollama + Chroma + LangChain)

version: 1

components:

# 1. 向量数据库配置(Chroma)

name: vectorstore

type: vectorstore

config:

type: chroma

persist_directory: D:/my_rag/chroma_db # 向量库存储路径

embedding:

type: huggingface

model_name: m3e-base # 中文优化的嵌入模型

# 2. 文档加载器配置

name: document_loader

type: document_loader

config:

type: directory

path: D:/my_rag/documents # 文档存放路径

glob: “**/*” # 加载所有文件

loader_kwargs:

recursive: true

# 3. 文本拆分配置

name: text_splitter

type: text_splitter

config:

type: recursive_character

chunk_size: 1000

chunk_overlap: 200

# 4. 大模型配置(Ollama)

name: llm

type: llm

config:

type: ollama

model: qwen:7b # 已下载的模型名称

temperature: 0.7 # 回答灵活性(0-1)

# 5. RAG 链配置

name: rag_chain

type: chain

config:

type: retrieval_qa

llm:

$ref: llm

retriever:

$ref: vectorstore.as_retriever

search_kwargs:

k: 3 # 检索相关片段数量

三、启动 RAG 系统并导入文档(图形化操作)

1. 启动 LangChain 服务

1. 打开命令提示符,切换到项目目录:

bash

cd D:my_rag

2. 执行命令启动服务(加载配置文件):

bash

langchain serve –config rag_config.yaml

3. 打开浏览器,访问 http://localhost:8000,进入 LangChain 图形化界面

2. 导入知识库文档

1. 将你的文档(PDF/Word/TXT 等)复制到 D:my_ragdocuments 文件夹

2. 在 LangChain 界面左侧菜单中点击 “Document Loaders”

3. 找到你配置的 document_loader,点击 “Load” 按钮

4. 系统会自动完成:

o 文档加载 → 文本拆分 → 向量化 → 存入 Chroma 数据库

o 进度完成后会显示 “Loaded X documents”

四、使用 RAG 问答(图形化交互)

1. 启动问答界面

1. 在 LangChain 界面左侧菜单中点击 “Chains”

2. 找到配置的 rag_chain,点击进入问答界面

2. 开始提问

1. 在输入框中输入问题(例如):

o “文档中提到的核心观点是什么?”

o “总结第三部分的主要内容”

2. 点击 “Run” 按钮,系统会:

o 从 Chroma 数据库检索相关文档片段

o 调用 Ollama 的 qwen:7b 模型生成回答

o 显示回答结果及引用的文档来源(文件名和位置)

五、日常使用与维护(全图形化)

1. 添加新文档

1. 将新文档复制到 D:my_ragdocuments

2. 在 LangChain 界面的 “Document Loaders” 中再次点击 “Load”

3. 系统会自动增量更新向量库(无需重建整个知识库)

2. 更换模型

1. 在 Ollama 图形化界面中下载新模型(如 llama3:8b)

2. 编辑 rag_config.yaml,将 model: qwen:7b 改为新模型名称

3. 重启 LangChain 服务(Ctrl + C 终止后重新执行 langchain serve –config rag_config.yaml)

3. 调整检索精度

1. 打开 rag_config.yaml,修改 search_kwargs: k: 3 中的数字:

o 数值越大(如 5):检索结果越全面,但回答速度稍慢

o 数值越小(如 2):回答速度快,但可能遗漏部分信息

2. 重启服务使配置生效

六、常见问题解决(图形化操作)

问题现象

解决方法

文档加载失败

检查文档是否加密 / 损坏,确保路径无特殊字符(如空格、中文括号)

回答不包含文档内容

确认文档已成功加载,尝试增加 k 值(如改为 5)

服务启动失败

检查 rag_config.yaml 中路径是否正确(用 / 而非

模型调用超时

关闭其他占用内存的程序,或换用更小的模型(如 qwen:4b

总结

这个方案通过 LangChain 图形化界面Ollama 可视化管理,将代码编写量降到最低(仅需复制粘贴配置文件),核心操作均通过界面完成。你可以:

· 零代码实现文档加载、向量存储和检索增强

· 灵活更换模型和调整参数

· 完全本地化部署,保护数据隐私

适合希望快速搭建 RAG 知识库,又不想深入编写代码的用户。后续如需扩展功能,可逐步学习修改配置文件或尝试简单脚本。

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...