1作者: vvoruganti17 天前
Hey HN, 我是 Plastic Labs 的 Vineeth。我们一直在构建 Honcho,一个用于有状态 AI 智能体的开源记忆库。 大多数记忆系统都只是向量搜索——存储事实,检索事实,然后塞进上下文。我们采取了不同的方法:将记忆视为推理。(我们在博客上经常谈到这一点) 我们构建了 Neuromancer,一个专门为 AI 原生记忆训练的模型。Neuromancer 不仅仅是简单的事实提取,它还对对话进行形式逻辑推理,以构建随时间演变的表征。它既便宜(每百万个 token 2 美元的摄入成本,无限次检索),又节省 token,而且是 SOTA:LongMem (90.4%)、LoCoMo (89.9%) 和 BEAM。在 BEAM 10M 上——这超出了每个模型的上下文窗口——我们达到了 0.409,而之前的 SOTA 是 0.266,每次查询仅使用了 0.5% 的上下文。 Github: <a href="https://github.com/plastic-labs/honcho" rel="nofollow">https://github.com/plastic-labs/honcho</a> 评估: <a href="https://evals.honcho.dev" rel="nofollow">https://evals.honcho.dev</a> Neuromancer 模型卡片: <a href="https://plasticlabs.ai/neuromancer" rel="nofollow">https://plasticlabs.ai/neuromancer</a>) 将记忆视为推理的方法: <a href="https://blog.plasticlabs.ai/blog/Memory-as-Reasoning" rel="nofollow">https://blog.plasticlabs.ai/blog/Memory-as-Reasoning</a> 阅读更多关于我们最近的更新: <a href="https://blog.plasticlabs.ai/blog/Honcho-3" rel="nofollow">https://blog.plasticlabs.ai/blog/Honcho-3</a> 很乐意回答关于架构、基准测试或一般智能体记忆模式的问题。
1作者: yol17 天前
现有的提示词管理方案让我很头疼,它们似乎与编程最佳实践背道而驰:提示词模板与它们的依赖项完全分离存储,而且没有定义使用它们的接口。这就像调用一个可以接受任意参数的函数(提示词模板),当参数与它的内部实现不匹配时,却可能默默地返回垃圾数据。 因此,我根据我认为提示词管理应该如何工作的方式创建了这个项目——在代码中定义强类型接口;提示词模板与其依赖项位于同一个代码库中;并且为开发者体验提供了类型提示和验证。这样做也带来了额外的益处:因为变量在编译时就已强类型化,所以支持带有 if/else/for 控制循环的复杂提示词模板,并具有完全的类型安全性是安全的。 我很想知道这是否也引起了其他人的共鸣,或者这仅仅是我的个人烦恼。
16作者: ulyssepence17 天前
背景介绍: 我一直以来都在自学计算机图形学,已经好几年了,从图像/视频的变形和拉伸中获得了极大的乐趣。我希望您也能通过Fuzzy Studio获得一些乐趣! 试试给您的摄像头添加特效吧!我和我的室友们用这些奇怪的特效制作表情,笑得前仰后合! 所有操作都在浏览器中完成,不会向服务器发送任何数据!我们能做到这一点真是太棒了。我只在 macOS 上测试过……如果您的浏览器/操作系统尚未支持,请见谅。
1作者: jonnyhere17 天前
我订阅了大量的 AI 服务。ChatGPT、Claude、Perplexity、Gemini。我的工作流程是:先问 Claude,然后把同样的问题复制到 ChatGPT 里进行核对,如果需要参考资料,可能会再问 Perplexity。需要同时打开五个标签页,不停地复制粘贴。<p>Council 的功能就是同时将你的提问发送给多个模型,并将它们的回答并排显示出来,仅此而已。<p>在构建 Council 的过程中,我注意到了一些事情:<p>1. 模型之间的观点差异比我预想的要大得多。问一些稍微主观或者近期发生的事情,你就会得到截然不同的答案。这让我对把任何单一的回答当成“标准答案”这件事,变得更加怀疑。<p>2. 不同的模型有不同的“失败模式”。Claude 倾向于谨慎和保守。GPT 即使错了也很有自信。Perplexity 会提供参考资料,但有时会误读。把它们放在一起看,这些模式就一目了然了。<p>3. 对于代码,我实际上更喜欢得到 2-3 种不同的方法。即使其中一种明显更好,看到备选方案也能帮助我理解其中的权衡取舍。<p>技术栈:Next.js,使用 OpenRouter 访问模型,并行流式传输响应。最烦人的部分是处理当模型以不同速度响应时的 UI——你肯定不希望布局跳来跳去。<p>无需登录即可试用。欢迎提供反馈,特别是关于哪些地方有问题或令人不满意的地方。<p><a href="https:&#x2F;&#x2F;usecouncil.app&#x2F;" rel="nofollow">https:&#x2F;&#x2F;usecouncil.app&#x2F;</a>
1作者: victordg17 天前
ChatGPT 应用 SDK 学习曲线陡峭,尤其是 OAuth,你作为提供方,而 ChatGPT 是客户端(而非相反)。这很容易让你陷入困境。 这个技能教 Claude Code 如何正确构建 ChatGPT 应用: ``` - MCP 服务器设置 (Node.js/Python) - 使用 PKCE 和动态客户端注册的 OAuth - 使用 window.openai API 进行组件开发 - 20 多个需要注意的陷阱及修复方法 ``` 如何安装: `npx skills add https://github.com/vdel26/skills` GitHub: https://github.com/vdel26/skills 欢迎大家反馈在构建 ChatGPT / MCP 应用时遇到的遗漏的陷阱。