快讯

Supermemory:让 AI 拥有记忆

Supermemory 是 AI 记忆引擎,在三大基准测试取得 SOTA。它用知识图谱自动处理信息更新、矛盾消解和过期遗忘,混合 RAG + Memory 搜索,延迟低于 300ms。

Ross · 2026.03.31

Supermemory:让 AI 拥有记忆

大型语言模型有一个天然缺陷——遗忘。每一次对话都是独立的上下文,AI 无法像人类一样积累和保留长期信息。Supermemory 正是为解决这一问题而生的记忆引擎。

核心定位

Supermemory 是 AI 的记忆和上下文层,主打 slogan:"Your AI forgets everything between conversations. Supermemory fixes that."

它在三个主流基准测试中取得 SOTA 成绩:LongMemEval、LoCoMo、ConvoMem。

技术架构

核心组件

Your app / AI tool
        ↓
   Supermemory
        │
        ├── Memory Engine        # 提取事实、追踪更新、解决矛盾、自动遗忘
        ├── User Profiles        # 静态事实 + 动态上下文
        ├── Hybrid Search        # RAG + Memory 一次查询
        ├── Connectors           # Google Drive, Gmail, Notion, GitHub 实时同步
        └── File Processing      # PDF、图片、视频、代码 → 可搜索块

关键创新:知识图谱关系

Supermemory 不仅存储记忆,还理解记忆之间的关系:

关系类型 作用 示例
updates 处理矛盾和修正 "我搬到 SF 了" 更新 "我住在 NYC"
extends 补充新细节 "在 Stripe 担任 PM" + "负责支付基础设施"
derives 推理二阶信息 "是 PM" + "讨论支付 API" → 推断"负责核心支付产品"

双层时间戳

每个记忆都带两个时间属性:

  • 失效日期:临时事实自动过期(如"明天有考试",过后天自动忘记)
  • 使用日期:用于时间推理和知识更新

处理流水线

阶段 描述
Queued 等待处理
Extracting 提取内容
Chunking 创建记忆块
Embedding 生成向量
Indexing 构建关系
Done 可搜索

Memory vs RAG

传统 RAG 的问题:无状态,对所有人返回相同结果。

Supermemory 的不同:有状态,理解"我刚搬到 SF" 替换 "我住在 NYC"。

# 添加记忆
await client.add({
  content: "Alex 刚加入 Stripe"
})
 
# 搜索
await client.search({
  query: "Alex 在哪里工作?"
})
# → 返回 Stripe(最新),保留 Google(历史)

集成生态

官方支持 TypeScript、Python SDK,REST API,以及 Vercel AI SDK、LangChain、LangGraph、CrewAI、OpenAI SDK、Mastra、Zapier、n8n、Claude Code、OpenClaw、OpenCode 等。

工程视角的利弊

优点:

  • 开箱即用的记忆层
  • 知识图谱自动处理矛盾和时间衰减
  • 延迟低(<300ms)
  • 连接器生态丰富

局限:

  • 闭源商业服务,有 vendor lock-in 风险
  • 自托管版本开发中
  • 遗忘策略目前无法细粒度控制

适用场景

AI 助手、Agent、SaaS 产品需要个性化上下文和多轮对话记忆的场景。