社区在发布后数小时内发现了真实问题,我们直接回应。
我们做错的地方:
仍然真实且可复现的:
存储一切,让它可查找。不是让 AI 决定什么值得记住。
古希腊演说家通过将想法放置在想象建筑的房间中来记住整篇演讲。MemPalace 将同样的原则应用于 AI 记忆:你的对话被组织成翼(人与项目)、厅(记忆类型)和房间(具体想法)。
没有 AI 来决定什么重要——你保留每一个字,结构为你提供可导航的地图。
MemPalace 将你的实际对话存储在 ChromaDB 中,不进行摘要或提取。96.6% 的 LongMemEval 成绩正是来自这种原始模式。
我们不会消耗 LLM 来决定什么"值得记住"——我们保留一切,让语义搜索来找到它。
一种有损缩写方言,用于在大规模场景下将重复实体压缩到更少的 token 中。任何能读取文本的 LLM 都能阅读——Claude、GPT、Gemini、Llama、Mistral——无需解码器。
MemPalace 完全在你的机器上运行,使用你本地的任何数据,不使用任何外部 API 或服务。它已在对话上经过测试——但可以适配不同类型的数据存储。
这就是我们开源它的原因。MIT 许可证。
决策现在发生在对话中。不在文档里。不在 Jira 里。在与 AI 的对话中——会话结束就消失。
六个月的日常 AI 使用 = 1950 万 token
每一个决策、每一次调试、每一场架构讨论。化为乌有。
| 方法 | 加载的 token | 年度成本 |
|---|---|---|
| 粘贴全部 | 1950 万——放不进任何上下文窗口 | 不可能 |
| LLM 摘要 | ~65 万 | ~$507/年 |
| MemPalace 唤醒 | ~170 token | ~$0.70/年 |
| MemPalace + 5 次搜索 | ~13,500 token | ~$10/年 |
三步开始使用 MemPalace
三种挖掘模式:项目(代码和文档)、对话(对话导出)和通用(自动分类为决策、偏好、里程碑、问题和情感上下文)。
一次性设置后,你不需要手动运行 MemPalace 命令。你的 AI 会替你使用它。
兼容 MCP 的工具,AI 自动调用搜索。
"上个月我们对认证做了什么决定?"
→ Claude 自动调用 mempalace_search,获取逐字结果
MemPalace 也原生支持 Gemini CLI
Llama、Mistral 或任何离线 LLM。
方法 1:唤醒命令
约 170 token 的关键事实,在提问之前就加载
方法 2:CLI 搜索
布局相当简单,尽管花了很多时间才达到这个效果。
┌─────────────────────────────────────────────────────────────┐ │ 翼:人物 │ │ │ │ ┌──────────┐ ──厅── ┌──────────┐ │ │ │ 房间 A │ │ 房间 B │ │ │ └────┬─────┘ └──────────┘ │ │ │ │ │ ▼ │ │ ┌──────────┐ ┌──────────┐ │ │ │ 壁橱 │ ───▶ │ 抽屉 │ │ │ └──────────┘ └──────────┘ │ └─────────┼──────────────────────────────────────────────────┘ │ 隧道 │ ┌─────────┼──────────────────────────────────────────────────┐ │ 翼:项目 │ │ │ │ │ ┌────┴─────┐ ──厅── ┌──────────┐ │ │ │ 房间 A │ │ 房间 C │ │ │ └────┬─────┘ └──────────┘ │ │ │ │ │ ▼ │ │ ┌──────────┐ ┌──────────┐ │ │ │ 壁橱 │ ───▶ │ 抽屉 │ │ │ └──────────┘ └──────────┘ │ └─────────────────────────────────────────────────────────────┘
一个人或项目。需要多少有多少。
一个翼内的特定主题。认证、计费、部署——无尽的房间。
同一翼内相关房间之间的连接。
翼之间的连接。自动交叉引用同一主题。
指向原始内容的摘要。
原始逐字文件。精确的字词,绝不摘要。
已做出的决策
会话、里程碑
突破、新洞察
习惯、喜好
建议和解决方案
同一个房间出现在不同翼中时,隧道自动交叉引用:
同一个房间。三个翼。隧道连接它们。
在 22,000+ 真实对话记忆上测试:
翼和房间不是装饰性的。宫殿结构就是产品本身。
你的 AI 以 L0 + L1(约 170 token)唤醒,了解你的世界。搜索只在需要时触发。
这个 AI 是谁?
团队、项目、偏好
近期会话、当前项目
跨所有壁橱的语义查询
时序实体-关系三元组——类似 Zep 的 Graphiti,但使用 SQLite 而不是 Neo4j。本地且免费。
| 特性 | MemPalace | Zep (Graphiti) |
|---|---|---|
| 存储 | SQLite(本地) | Neo4j(云端) |
| 成本 | 免费 | $25/月+ |
| 时序有效性 | 是 | 是 |
| 自托管 | 始终 | 仅企业版 |
创建专注于特定领域的智能体。每个智能体在宫殿中获得自己的翼和日记。添加 50 个智能体,你的配置大小保持不变。
有焦点
它关注什么
记日记
用 AAAK 编写,跨会话持久化
建立专长
阅读自己的历史以在其领域保持敏锐
Letta 对智能体管理记忆收取 $20–200/月。MemPalace 用一个翼就做到了。
一个独立的工具可以对照实体事实检查断言。事实对照知识图谱检查——年龄、日期和任期动态计算。
"Soren 完成了认证迁移"
AUTH-MIGRATION:归因冲突——Maya 被分配了,不是 Soren
"Kai 已经在这里 2 年了"
KAI:错误任期——记录显示 3 年(2023-04 入职)
"冲刺在周五结束"
SPRINT:过时日期——当前冲刺在周四结束
在标准学术基准测试上测试——可复现、已发布的数据集。
| 基准测试 | 模式 | 得分 | API 调用 |
|---|---|---|---|
| LongMemEval R@5 | 原始(仅 ChromaDB) | 96.6% | 零 |
| LongMemEval R@5 | 混合 + Haiku 重排序 | 100% (500/500) | ~500 |
| LoCoMo R@10 | 原始,会话级别 | 60.3% | 零 |
| 个人宫殿 R@10 | 启发式基准 | 85% | 零 |
| 宫殿结构影响 | 翼+房间过滤 | +34% R@10 | 零 |
| 系统 | LongMemEval R@5 | 需要 API | 成本 |
|---|---|---|---|
| MemPalace(混合) | 100% | 可选 | 免费 |
| Supermemory ASMR | ~99% | 是 | — |
| MemPalace(原始) | 96.6% | 否 | 免费 |
| Mastra | 94.87% | 是 (GPT) | API 成本 |
| Mem0 | ~85% | 是 | $19–249/月 |
| Zep | ~85% | 是 | $25/月+ |
96.6% 的原始得分是已发布的最高 LongMemEval 结果,不需要 API 密钥、不需要云端、在任何阶段都不需要 LLM。
claude mcp add mempalace -- python -m mempalace.mcp_server
mempalace_status 宫殿概览mempalace_list_wings 翼及计数mempalace_list_rooms 翼内房间mempalace_get_taxonomy 完整分类树mempalace_search 语义搜索mempalace_check_duplicate 归档前检查mempalace_get_aaak_spec AAAK 参考mempalace_add_drawer 归档逐字内容mempalace_delete_drawer 按 ID 删除mempalace_kg_query 实体关系mempalace_kg_add 添加事实mempalace_kg_invalidate 标记已结束mempalace_kg_timeline 按时间故事mempalace_kg_stats 图谱概览mempalace_traverse 跨翼遍历mempalace_find_tunnels 查找连接mempalace_graph_stats 连通性概览mempalace_diary_write 写入 AAAK 日记mempalace_diary_read 读取日记条目AI 从 mempalace_status 响应中自动学习 AAAK 和记忆协议。无需手动配置。
所有命令都接受 --palace <path> 来覆盖默认位置。
每 15 条消息,触发一次结构化保存。主题、决策、引述、代码变更。同时重新生成关键事实层。
在上下文压缩之前触发。窗口缩小前的紧急保存。
无需 API 密钥。安装后无需互联网。一切本地。
pip install mempalace