ZNDS智能电视网 推荐当贝市场

TV应用下载 / 资源分享区

软件下载 | 游戏 | 讨论 | 电视计算器

综合交流 / 评测 / 活动区

交流区 | 测硬件 | 网站活动 | Z币中心

新手入门 / 进阶 / 社区互助

新手 | 你问我答 | 免费刷机救砖 | ROM固件

查看: 2456|回复: 3
[交流&讨论]

如何让Molili节省10倍Token消耗?本地部署qmd节省token积分消耗

[复制链接]
发表于 2026-3-3 16:34 | 显示全部楼层 |阅读模式 | 未知
最近在深度使用Molili的时候,相信很多人都已经感受到了极其恐怖的Token消耗素度。要稍微挂载多一点本地文件,没谈几轮对话下来就直接提示hit limit触及限制了。而且很多时候Molili的agent会非常暴力地塞一堆完全无关的历史信息进context上下文里,这样不仅极其费钱,还会严重影响AI回复的精准度。那么有没有办法让Molili的agent做到“精准回忆”,同时又能完全零成本运行呢?答案是有的。今天给大家分享一个外挂神器:qmd。这是一个可以本地运行、免费永久且检索精准度高达95%以上的终极解决方案。

如何让Molili节省10倍Token消耗?本地部署qmd节省token积分消耗

如何让Molili节省10倍Token消耗?本地部署qmd节省token积分消耗

qmd是由Shopify创始人Tobi专门为AI Agent开发的本地运行语义搜索引擎,底层基于Rust语言编写。它的核心功能包括了非常强大的混合搜索(BM25全文检索+向量语义+LLM重排序),因为是完全本地运行的机制,所以API调用成本为零,并且完美支持MCP集成,可以说是为Molili量身定制的插件。

如何让Molili节省10倍Token消耗?本地部署qmd节省token积分消耗

如何让Molili节省10倍Token消耗?本地部署qmd节省token积分消耗

废话不多说,直接上这篇Molili节省Token消耗的保姆级教程,只需3步配置,大约10分钟就能彻底搞定。

第1步:安装qmd环境

首先你的电脑上需要先配置好Bun环境,安装好Bun之后,直接在终端CMD执行以下命令:

bun install -g github:tobi/qmd

注意一点:首次运行这个命令会自动从网络下载必须的Embedding模型和Reranker模型。根据你的网络情况稍微等一会,下载完成后即可完全离线本地运行,后续再怎么折腾都不会消耗一点流量了。

第2步:创建Molili记忆库并生成embeddings

进入你的Workspace,也就是你平时存放Molili对话历史的地方,我们需要索引你的memory文件夹。让Molili依次执行以下代码:

如何让Molili节省10倍Token消耗?本地部署qmd节省token积分消耗

如何让Molili节省10倍Token消耗?本地部署qmd节省token积分消耗

#创建记忆库
qmd collection add memory --name daily-logs --mask "**/*.md"

#生成embeddings
qmd embed
实测这里的索引速度极快,而且全部都是在你自己的电脑本地运行不联网,所以完全不用担心个人隐私数据泄露的问题。

第3步:测试qmd搜索效果

数据跑完之后,你可以自己先在命令行测一下检索能力看看准不准:


#混合搜索(推荐,也是日常最精准的模式)
qmd query "你的搜索关键词"

#纯语义搜索
qmd vsearch "你的搜索关键词"

进阶玩法:配置MCP集成

想要让Molili的AI agent直接全自动调用qmd,我们就需要修改MCP配置文件。在你的mcporter.json文件里加上下面这段配置代码:

JSON
{
  "mcpServers": {
    "qmd": {
      "command": "/Users/你的用户名/.bun/bin/qmd",
      "args": ["mcp"]
    }
  }
}
新手提醒:如果是Windows用户,请务必把command里的路径换成你电脑对应的Bun安装绝对路径)

这段MCP集成配置好并且重启Molili后,你会发现agent已经学会主动从庞大的历史log文件中寻找最相关的段落了。它可以完美实现跨文件精准回忆,再也不用靠你手动发Prompt去提醒它之前说过什么设定。

实际效果总结

场景1:回忆用户偏好。以前Molili要回忆一个设定,可能需要把整个长达2000个Token的MEMORY.md文件全塞进上下文。现在有了qmd加持,它只会提取并返回最相关的200个Token片段,既省钱又精准,大幅度降低了Molili不必要的Token消耗。

场景2:跨文件本地知识检索。它可以自动从你所有的memory文件中精准定位并找出最相关段落,准确率极高,彻底解决了长文本检索经常出现AI幻觉或者迷失的问题。

总之,如果你在用Molili觉得Token烧得实在心疼,或者觉得Molili记忆力不佳经常前言不搭后语,强烈建议赶紧按照这个教程把qmd折腾起来,绝对能大幅提升你的日常工作效率。


上一篇:Molili每日新闻简报自动推送教程指南:定时任务配置方法
下一篇:Molili远程浏览器使用指南,怎么让Molili远程控制浏览器
发表于 2026-3-3 19:58 | 显示全部楼层 | 来自广西
我记得OpenClaw它自己就有一个memory search的功能吧?好像是有嵌入模型在里面的,需要。相比之下,这个QMD有多大的提升呢?
回复 支持 反对

使用道具 举报

发表于 2026-3-3 19:58 | 显示全部楼层 | 未知
项目不错,但是要注意,这里面需要自己缓存向量模型,模型大小两个G,包括重排模型和分块模型.如果用的是远程的小主机根本跑不起来。并不适合Openclaw来跑
回复 支持 反对

使用道具 举报

发表于 2026-3-3 19:58 | 显示全部楼层 | 来自四川
收藏,试试看
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐 上一条 /1 下一条

Archiver|新帖|标签|软件|Sitemap|ZNDS智能电视网 ( 苏ICP备2023012627号 )

网络信息服务信用承诺书 | 增值电信业务经营许可证:苏B2-20221768 丨 苏公网安备 32011402011373号

GMT+8, 2026-3-15 20:01 , Processed in 0.068368 second(s), 14 queries , Redis On.

Powered by Discuz!

监督举报:report#znds.com (请将#替换为@)

© 2007-2026 ZNDS.Com

快速回复 返回顶部 返回列表