2作者: _as_text17 天前
我总是记不住 `ln -s x y` 的操作数顺序,现在我终于明白了原因:这个命令支持两种同时的解析方式。 `(ln -s) (x y)` — 预期的解读。`-s` 代表 "symbolic"(符号链接),参数顺序与 `cp x y` 相同。很好,但我不相信这种类比——在经历了 `find`、`dd` 或 `tar` 之后。 而且,很奇怪的是,我们一开始将符号链接命名为 `x y`,但后来如果 `ls -l y`,我们会看到 `y -> x`。为什么会颠倒呢?使用 `ln -s` 使得 `-s` 无法强制执行约定:只有链接本身被定义为符号链接,而我们需要自己去弄清楚这对操作数意味着什么。 `ln (-s x) y` — 我的解读。`-s` 代表 "source"(源)。你将 x 声明为新名称 y 的内容来源。 “等等,在符号链接术语中,x 被称为 ‘target’(目标)!” 这就是我的困惑所在。我一直将 "source" 和 "target" 视为反义词,所以这个助记符总是失效。但 x 既是:链接的目标,也是内容的来源。¹ 所有指向资源的符号链接构成一个以原始文件为根的树: v1/ ← 原始文件 ├── v2 (ln -s v1 v2) │ └── v3 (ln -s v2 v3) └── v4 (ln -s v1 v4) 每个带有 `-s` 的 `ln` 都会扩展一个分支。偏序关系 `x < y`(当且仅当 `ln -s x y`)甚至可以通过 `st_birthtime` 来见证——文件系统记录了 Hasse 图的构建历史。 总结:`ln -s old new` 将 `new` 推入一个以 `old` 为根的堆栈。`-s` 代表 "source"(源),而不仅仅是 "symbolic"(符号链接)。 --- ¹ 就像拓扑学学生最终意识到一个集合既可以是闭集也可以是开集一样——这些词并不是反义词,只是独立的属性。我想知道什么样的形式拓扑结构可以让 "source" 和 "target" 对应于 "open"(开集)和 "closed"(闭集)。
1作者: vvoruganti17 天前
Hey HN, 我是 Plastic Labs 的 Vineeth。我们一直在构建 Honcho,一个用于有状态 AI 智能体的开源记忆库。 大多数记忆系统都只是向量搜索——存储事实,检索事实,然后塞进上下文。我们采取了不同的方法:将记忆视为推理。(我们在博客上经常谈到这一点) 我们构建了 Neuromancer,一个专门为 AI 原生记忆训练的模型。Neuromancer 不仅仅是简单的事实提取,它还对对话进行形式逻辑推理,以构建随时间演变的表征。它既便宜(每百万个 token 2 美元的摄入成本,无限次检索),又节省 token,而且是 SOTA:LongMem (90.4%)、LoCoMo (89.9%) 和 BEAM。在 BEAM 10M 上——这超出了每个模型的上下文窗口——我们达到了 0.409,而之前的 SOTA 是 0.266,每次查询仅使用了 0.5% 的上下文。 Github: <a href="https://github.com/plastic-labs/honcho" rel="nofollow">https://github.com/plastic-labs/honcho</a> 评估: <a href="https://evals.honcho.dev" rel="nofollow">https://evals.honcho.dev</a> Neuromancer 模型卡片: <a href="https://plasticlabs.ai/neuromancer" rel="nofollow">https://plasticlabs.ai/neuromancer</a>) 将记忆视为推理的方法: <a href="https://blog.plasticlabs.ai/blog/Memory-as-Reasoning" rel="nofollow">https://blog.plasticlabs.ai/blog/Memory-as-Reasoning</a> 阅读更多关于我们最近的更新: <a href="https://blog.plasticlabs.ai/blog/Honcho-3" rel="nofollow">https://blog.plasticlabs.ai/blog/Honcho-3</a> 很乐意回答关于架构、基准测试或一般智能体记忆模式的问题。