qmd-chinese

🐉 QMD-Chinese (QMD 中文语义版)

QMD-Chinese 是专为中文语境深度改造的本地 RAG (检索增强生成) 命令行检索引擎。本分支在原版的基础上,彻底重写了中文分词与分块逻辑,并全面替换了最顶尖的中文开源大模型,旨在为 OpenClaw 等 AI 代理提供最极致的本地中文私有知识库支持。

👏 特别鸣谢 (Credits)

本项目基于卓越的开源项目 [QMD (https://github.com/tobi/qmd)] 进行本地化改造。 核心的 RRF (倒数秩融合) 排序算法、CLI 架构及底层的向量混合检索逻辑均归功于原作者的出色工作。本分支仅针对中文 NLP 场景与模型依赖进行了深度重构与优化。向原作者致以最诚挚的感谢!

🚀 核心特性与模型组合

摒弃了原版对英文主导模型的依赖,本分支使用了当前地表最强的本地中文处理流水线:

💻 硬件与运行环境建议

⚠️ 【强烈警告】:非常不建议在常规 VPS (如 1核1G / 2核4G 的云服务器) 上运行本项目。 多模型并发推理会瞬间耗尽 VPS 的内存并导致进程被系统 OOM 杀掉。

推荐运行环境:

📦 安装指南

由于包含原生编译模块,请确保你的系统已安装 Node.js (推荐 v20+) 以及 git

执行以下命令全局安装:

npm install -g @gmvp3/qmd-chinese

⚙️ OpenClaw 集成与配置 将 QMD-Chinese 作为 OpenClaw 的本地记忆后端,请在 OpenClaw 的 Settings -> Memory 中参考以下截图进行精确配置:

  1. 基础挂载设置

Memory Backend: 必须选择 qmd。

QMD Binary: 必须填入本程序的绝对路径 (可通过在终端执行 which qmd 获取,例如 /home/xxx/.nvm/versions/node/v24.14.0/bin/qmd)。

Include Default Memory: 开启 (绿色)。

qmd1

  1. 检索模式与记忆留存 QMD Search Mode: 必须选择 query (此模式才会触发 Qwen2.5 扩写流水线)。

QMD Session Indexing: 开启 (绿色),允许索引日常对话。

QMD Session Retention (days): 强烈建议设置为 30 或 60 天,定期清理无用废话,保持向量数据库的信噪比。

qmd2

🛠️ CUDA 硬件加速状态验证与排错 安装完成后,在终端运行以下命令检查运行状态: qmd status

✅ 成功的状态: 如果你看到 Device 区域显示 GPU: cuda (offloading: yes) 并且正确识别了你的显卡型号(如下图的 RTX 5070 Ti),说明 CUDA 加速已完美开启!

cuda

❌ 失败的排错指南: 如果显示使用的是 CPU 或者提示缺少 CUDA,请检查以下几点:

Cmake 是否缺失: 底层的原生模块需要编译环境。请在终端执行 sudo apt-get install cmake build-essential (Ubuntu/Debian) 来安装必备工具。

驱动与 Toolkit: 确保 WSL2 或 Linux 系统内已正确安装 NVIDIA 驱动及 CUDA Toolkit。

耐心等待编译: 第一次 npm install 时,底层的 llama.cpp 需要根据你的显卡架构实时编译 CUDA 驱动代码,这可能会消耗几分钟到十几分钟的时间,请耐心等待编译完成。