
YC CEO 开源自己搭建OpenClaw/Hermes Agent 配置GBrain,如果你希望你的 OpenClaw 或 Hermes Agent 能够完美地记住所有 10,000 多个 markdown 文件,GBrain 可以帮到你。
YC总裁Garry Tan刚刚开源了他的第二大脑系统GBrain,简单来说GBrain 解决的是怎么用 AI 管理你脑子里的知识。
这套系统的核心思路是:让AI agent拥有一个持续成长的知识库,在每次回答问题前先读取它,对话结束后再写入新内容。
GBrain是什么
GBrain是一个AI agent的知识底座。它把你的会议记录、邮件、推文、日历事件、语音通话、原始想法统统汇入一个可检索的知识库,agent在每次回答前会先读取这个知识库,对话结束后再写入新信息。每一轮对话都让agent变得更聪明一些。
从安装到完整运行,约需30分钟。数据库初始化只需2秒,使用PGLite,无需任何服务器。
Garry Tan本人的部署规模:10000多个Markdown文件、3000多份人物档案、13年的日历数据、280多份会议记录、300多个原始想法。
目前支持Claude Opus 4.6和GPT-5.4 Thinking,不适合在小模型上运行。
复利效应
GBrain的核心逻辑是一个循环:
信号到来(会议、邮件、推文、链接)→ agent识别实体(人物、公司、想法)→ 先读取知识库 → 带着完整上下文回答 → 把新信息写回知识库 → 同步索引,供下次检索使用
这个循环每转一圈,知识库就积累一层。你跟某人开了个会,agent给他建一个档案页,关联到他的公司,打上相关标签。下周另一个人在完全不同的话题里提到这家公司,agent已经有了完整背景:你跟谁谈过、谈了什么、还有哪些待处理的线索。你什么都不用做。
没有这个循环,agent每次都从零开始。有了它,每次对话都在已有基础上累积。差距每天都在拉大。
GBrain能回答的问题示例:
-
• 谁同时认识Pedro和Diana,适合邀请来一起吃晚饭?(在3000多个人物档案构成的社交图谱里交叉检索) -
• 我之前怎么看待"羞耻感和创始人表现之间的关系"?(搜索你自己的思考记录,不是搜互联网) -
• 30分钟后要跟Jordan开会,帮我准备一下。(调取档案、共同历史、最近动态、未完事项)
这套东西是怎么来的
Garry Tan在配置自己的OpenClaw agent时,开始维护一个Markdown知识库:每人一页,每家公司一页,顶部是已整理的核心信息,底部是只追加不修改的时间线。随着持续写入,agent变得越来越有用,他也就一直在喂它。
一周内,他就建起了10000多个文件。
他的agent在他睡觉时也在运行。所谓"梦境循环":扫描每一次对话,补充缺失实体,修复断开的引用,整合记忆。他醒来,知识库比他睡前更完整。详细的定时任务配置见 https://github.com/garrytan/gbrain 中的cron schedule指南。
知识模型
GBrain里每一页都遵循"已整理事实 + 时间线"的结构:
分隔线上方是已整理事实,即你当前对某件事的最佳理解,新证据出现时会整体重写。分隔线下方是时间线,只追加,永不修改。
已整理事实是答案,时间线是证据。
搜索怎么工作
查询一个问题时,系统先用Claude Haiku做多查询扩展,把这个问题改写成多种表达方式,然后同时跑向量搜索(HNSW余弦相似度)和关键词搜索(tsvector),再用RRF融合排名,最后经过四层去重:每页只保留最优分块、余弦相似度超过0.85的合并、类型多样性上限60%、每页分块数量上限。
纯关键词搜索会漏掉概念性匹配。比如"无视常规做法"搜不到标题叫"天才的公交车票理论"的文章,但这篇文章的核心恰好就是讲这件事。纯向量搜索在精确短语上表现会变差。RRF融合两者兼顾,多查询扩展则覆盖你没想到的表达方式。
不需要服务器起步
gbrain init 默认使用PGLite,这是通过WASM运行的嵌入式Postgres 17.5。无需Supabase账号,无需Docker,无需连接字符串。一条命令就能获得完整的Postgres知识库,含pgvector、混合搜索和全部37个操作。
当知识库规模超出本地能力(1000个文件以上),gbrain migrate --to supabase 一键迁移到托管Postgres。Supabase免费层(500MB)装不下大规模知识库,需要Pro版(25美元/月,8GB)。
以7500页规模的知识库为例,总存储约750MB,其中嵌入向量134MB,HNSW索引开销270MB。初始嵌入成本约4到5美元(通过OpenAI text-embedding-3-large)。
三种使用路径
不一定非要配合OpenClaw或Hermes Agent,GBrain支持三种接入方式:
独立命令行:全局安装后直接在终端使用,gbrain query 即可检索笔记。
MCP服务器:对接Claude Code、Cursor、Windsurf等,GBrain通过stdio暴露30个MCP工具,包括get_page、put_page、search、query、add_link、traverse_graph、sync_brain等。配置方式:
{
"mcpServers": {
"gbrain": {
"command": "gbrain",
"args": ["serve"]
}
}
}
远程MCP服务器:部署到Supabase Edge Functions后,可以从任何设备、任何AI客户端访问,支持Claude Desktop、Perplexity、Cowork等。ChatGPT的OAuth 2.1支持尚未实现,自托管方案(Tailscale Funnel、ngrok)在文档中有说明。
数据接入
GBrain自带多种集成方案,由agent读取配置文件后向你索取API密钥并自动完成配置:
|
|
|
|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
技能文件
GBrain的agent行为通过技能文件定义,本质上是一批Markdown文档,告诉agent如何使用知识库,而不是把逻辑硬编码进二进制文件:
-
• ingest:如何导入会议、文档、文章,更新已整理事实,追加时间线,建立交叉引用 -
• query:三层搜索(关键词 + 向量 + 结构化),带来源引用,不知道的事直接说不知道 -
• maintain:定期健康检查,发现矛盾内容、过期已整理事实、孤立页面、失效链接 -
• enrich:从外部API补充页面内容 -
• briefing:每日简报,包含今日会议参与者背景、活跃交易及截止日期、近期变化 -
• migrate:从Obsidian、Notion、Logseq等迁移过来
工具本身不够,agent还需要行动手册:何时读取,何时写入,如何识别实体,如何把所有内容关联起来。


