快讯
Supermemory:让 AI 拥有记忆
Supermemory 是 AI 记忆引擎,在三大基准测试取得 SOTA。它用知识图谱自动处理信息更新、矛盾消解和过期遗忘,混合 RAG + Memory 搜索,延迟低于 300ms。
Ross · 2026.03.31
Supermemory:让 AI 拥有记忆
大型语言模型有一个天然缺陷——遗忘。每一次对话都是独立的上下文,AI 无法像人类一样积累和保留长期信息。Supermemory 正是为解决这一问题而生的记忆引擎。
核心定位
Supermemory 是 AI 的记忆和上下文层,主打 slogan:"Your AI forgets everything between conversations. Supermemory fixes that."
它在三个主流基准测试中取得 SOTA 成绩:LongMemEval、LoCoMo、ConvoMem。
技术架构
核心组件
Your app / AI tool
↓
Supermemory
│
├── Memory Engine # 提取事实、追踪更新、解决矛盾、自动遗忘
├── User Profiles # 静态事实 + 动态上下文
├── Hybrid Search # RAG + Memory 一次查询
├── Connectors # Google Drive, Gmail, Notion, GitHub 实时同步
└── File Processing # PDF、图片、视频、代码 → 可搜索块
关键创新:知识图谱关系
Supermemory 不仅存储记忆,还理解记忆之间的关系:
| 关系类型 | 作用 | 示例 |
|---|---|---|
| updates | 处理矛盾和修正 | "我搬到 SF 了" 更新 "我住在 NYC" |
| extends | 补充新细节 | "在 Stripe 担任 PM" + "负责支付基础设施" |
| derives | 推理二阶信息 | "是 PM" + "讨论支付 API" → 推断"负责核心支付产品" |
双层时间戳
每个记忆都带两个时间属性:
- 失效日期:临时事实自动过期(如"明天有考试",过后天自动忘记)
- 使用日期:用于时间推理和知识更新
处理流水线
| 阶段 | 描述 |
|---|---|
| Queued | 等待处理 |
| Extracting | 提取内容 |
| Chunking | 创建记忆块 |
| Embedding | 生成向量 |
| Indexing | 构建关系 |
| Done | 可搜索 |
Memory vs RAG
传统 RAG 的问题:无状态,对所有人返回相同结果。
Supermemory 的不同:有状态,理解"我刚搬到 SF" 替换 "我住在 NYC"。
# 添加记忆
await client.add({
content: "Alex 刚加入 Stripe"
})
# 搜索
await client.search({
query: "Alex 在哪里工作?"
})
# → 返回 Stripe(最新),保留 Google(历史)集成生态
官方支持 TypeScript、Python SDK,REST API,以及 Vercel AI SDK、LangChain、LangGraph、CrewAI、OpenAI SDK、Mastra、Zapier、n8n、Claude Code、OpenClaw、OpenCode 等。
工程视角的利弊
优点:
- 开箱即用的记忆层
- 知识图谱自动处理矛盾和时间衰减
- 延迟低(<300ms)
- 连接器生态丰富
局限:
- 闭源商业服务,有 vendor lock-in 风险
- 自托管版本开发中
- 遗忘策略目前无法细粒度控制
适用场景
AI 助手、Agent、SaaS 产品需要个性化上下文和多轮对话记忆的场景。