1 分•作者: vvoruganti•17 天前
Hey HN,
我是 Plastic Labs 的 Vineeth。我们一直在构建 Honcho,一个用于有状态 AI 智能体的开源记忆库。
大多数记忆系统都只是向量搜索——存储事实,检索事实,然后塞进上下文。我们采取了不同的方法:将记忆视为推理。(我们在博客上经常谈到这一点)
我们构建了 Neuromancer,一个专门为 AI 原生记忆训练的模型。Neuromancer 不仅仅是简单的事实提取,它还对对话进行形式逻辑推理,以构建随时间演变的表征。它既便宜(每百万个 token 2 美元的摄入成本,无限次检索),又节省 token,而且是 SOTA:LongMem (90.4%)、LoCoMo (89.9%) 和 BEAM。在 BEAM 10M 上——这超出了每个模型的上下文窗口——我们达到了 0.409,而之前的 SOTA 是 0.266,每次查询仅使用了 0.5% 的上下文。
Github: <a href="https://github.com/plastic-labs/honcho" rel="nofollow">https://github.com/plastic-labs/honcho</a>
评估: <a href="https://evals.honcho.dev" rel="nofollow">https://evals.honcho.dev</a>
Neuromancer 模型卡片: <a href="https://plasticlabs.ai/neuromancer" rel="nofollow">https://plasticlabs.ai/neuromancer</a>)
将记忆视为推理的方法: <a href="https://blog.plasticlabs.ai/blog/Memory-as-Reasoning" rel="nofollow">https://blog.plasticlabs.ai/blog/Memory-as-Reasoning</a>
阅读更多关于我们最近的更新: <a href="https://blog.plasticlabs.ai/blog/Honcho-3" rel="nofollow">https://blog.plasticlabs.ai/blog/Honcho-3</a>
很乐意回答关于架构、基准测试或一般智能体记忆模式的问题。