1作者: Pmopgar3 天前
MemoryStack - 永不遗忘的AI智能体记忆层 问题:如今的AI智能体都患有“金鱼记忆”。它们在每次会话后都会忘记,无法追踪偏好变化,也无法从过去的对话中学习。 现有解决方案的不足: * 仅向量搜索:在复杂查询上的失败率高达40% * 全上下文方法:成本高昂、速度慢、准确性较低 MemoryStack通过多阶段记忆检索解决了这个问题。 在LongMemEval上的结果: * MemoryStack:92.8% * 最佳商业解决方案:71.2% * 全上下文:60.2% 最大改进: * 偏好追踪:93.3% vs 56.7% * 知识更新:97.4% vs 83.3% * 多会话:89.5% vs 64% 立即体验:[https://memorystack.app](https://memorystack.app) 完全开源 我今天将发布所有内容: * 完整的源代码(MIT许可证) * 完整的调研方法和论文 * SDK(Python, TypeScript) * MCP集成,适用于Claude、cursor、kiro * 基准测试套件和评估工具 OpenClaw/Clawdbot插件 使用MemoryStack增强OpenClaw的记忆功能 访问:[https://github.com/memorystack-labs/Memorystack](https://github.com/memorystack-labs/Memorystack) 研究论文:[https://memorystack.app/research](https://memorystack.app/research)
3作者: ogig3 天前
大家好; 周末我用 Claude Code 做了这个。它是一个听觉训练应用,旨在教像我这样不太有天赋的音乐家音准和音程。我弹了多年吉他,但对音准到底是什么没有清晰的认识。直到做了一些调弦练习后,我才真正理解了它。频率滑入正确的位置,并感受到那种准确性。我希望这个应用能帮助其他人第一次体验到这种感觉,或者提高对不常见音程的辨识能力。欢迎大家提出反馈意见。
1作者: PrismShadow3 天前
嗨,Hacker News!我们开发了 Context9,旨在减少由过时文档引发的大语言模型(LLM)幻觉。它是一个基于知识 MCP 构建的开源工具。 使用它的理由: * **实时同步:** 将最新的本地文档/私有代码库馈送给智能体。告别过时语境。 * **减少幻觉:** 让智能体基于您当前的文档,而非过时的训练数据。 * **隐私优先:** 所有数据均保存在本地。无第三方索引或数据泄露风险。 * **无需 RAG 额外开销:** 避免复杂的向量数据库设置。它原生支持智能体,速度快。 * **完全免费:** 开源且本地优先。 Context9 尤其适用于快速发展的项目,静态 MCP 服务器难以跟上其变化。
4作者: hermet3 天前
嗨,HN。<p>我们刚刚发布了 ThorVG 1.0,这标志着该引擎走向成熟的一个里程碑。早期版本侧重于功能增长;而本次发布则强调稳定性、后端对等性以及跨平台(包括 Web)一致的渲染行为。<p>ThorVG 是一个开源、可嵌入的 C++ 2D 矢量图形引擎,用于 SVG 风格的图形和 Lottie。<p>[1.0 的意义]<p>此版本更侧重于引擎的就绪状态,而非新功能: - 提升渲染性能和引擎优化<p>- 改进混合精度和文本排版行为<p>- WebGL 后端现已正式支持<p>- WebGPU 后端升级至生产就绪状态<p>- 引入了适用于浏览器环境的轻量级 WebCanvas 路径<p>- 扩大了 Lottie 规范的覆盖范围,以支持更复杂的动画<p>- 新增交互支持,包括边界框查询和命中检测<p>- 更加可预测的 API 行为,便于集成<p>ThorVG 旨在作为一个小型渲染层,适用于引擎、UI 系统、嵌入式设备以及注重尺寸和确定性性能的工具。<p>发布说明:<a href="https:&#x2F;&#x2F;www.thorvg.org&#x2F;post&#x2F;thorvg-v1-0-a-new-generation-released" rel="nofollow">https:&#x2F;&#x2F;www.thorvg.org&#x2F;post&#x2F;thorvg-v1-0-a-new-generation-rel...</a><p>乐于回答技术问题。
1作者: LutumVeritas3 天前
上周,我将我的开源深度研究工具与 ChatGPT、Perplexity 和 Gemini 进行了基准测试。我发现 OpenAI 捏造了 4-5 个不存在的引用。Gemini 将真实的风险比降低了 30-40%。 因此,我构建了 ASK 模式:每个答案都会自动针对第二轮来源进行验证。每个声明都标记为 [OK]、[??] 或 [NO]。 - 约 400 个已验证的答案,花费 1 美元 - 每次查询 2-3 分钟 - 没有 RLHF 保姆机制 - 它会回答你所问的问题 - 每次回复都附带完整的验证报告 聊天(未经验证,过时的训练数据)和深度研究(20 分钟以上)之间的差距需要弥合。 基准测试证明:[https://veritas--test-neocities-org.translate.goog/?_x_tr_sl=de&_x_tr_tl=en&_x_tr_hl=de&_x_tr_pto=wapp](https://veritas--test-neocities-org.translate.goog/?_x_tr_sl=de&_x_tr_tl=en&_x_tr_hl=de&_x_tr_pto=wapp) GitHub: [https://github.com/IamLumae/Project-Lutum-Veritas](https://github.com/IamLumae/Project-Lutum-Veritas)