2 分•作者: MBCook•3 天前
返回首页
最新
1 分•作者: Pmopgar•3 天前
MemoryStack - 永不遗忘的AI智能体记忆层
问题:如今的AI智能体都患有“金鱼记忆”。它们在每次会话后都会忘记,无法追踪偏好变化,也无法从过去的对话中学习。
现有解决方案的不足:
* 仅向量搜索:在复杂查询上的失败率高达40%
* 全上下文方法:成本高昂、速度慢、准确性较低
MemoryStack通过多阶段记忆检索解决了这个问题。
在LongMemEval上的结果:
* MemoryStack:92.8%
* 最佳商业解决方案:71.2%
* 全上下文:60.2%
最大改进:
* 偏好追踪:93.3% vs 56.7%
* 知识更新:97.4% vs 83.3%
* 多会话:89.5% vs 64%
立即体验:[https://memorystack.app](https://memorystack.app)
完全开源
我今天将发布所有内容:
* 完整的源代码(MIT许可证)
* 完整的调研方法和论文
* SDK(Python, TypeScript)
* MCP集成,适用于Claude、cursor、kiro
* 基准测试套件和评估工具
OpenClaw/Clawdbot插件
使用MemoryStack增强OpenClaw的记忆功能
访问:[https://github.com/memorystack-labs/Memorystack](https://github.com/memorystack-labs/Memorystack)
研究论文:[https://memorystack.app/research](https://memorystack.app/research)
2 分•作者: joneldominic•3 天前
3 分•作者: ogig•3 天前
大家好;
周末我用 Claude Code 做了这个。它是一个听觉训练应用,旨在教像我这样不太有天赋的音乐家音准和音程。我弹了多年吉他,但对音准到底是什么没有清晰的认识。直到做了一些调弦练习后,我才真正理解了它。频率滑入正确的位置,并感受到那种准确性。我希望这个应用能帮助其他人第一次体验到这种感觉,或者提高对不常见音程的辨识能力。欢迎大家提出反馈意见。
31 分•作者: JumpCrisscross•3 天前
3 分•作者: michal-stlv•3 天前
40 分•作者: JumpCrisscross•3 天前
1 分•作者: mooreds•3 天前
1 分•作者: samuel-freeman•3 天前
1 分•作者: csmantle•3 天前
1 分•作者: jampa•3 天前
1 分•作者: PrismShadow•3 天前
嗨,Hacker News!我们开发了 Context9,旨在减少由过时文档引发的大语言模型(LLM)幻觉。它是一个基于知识 MCP 构建的开源工具。
使用它的理由:
* **实时同步:** 将最新的本地文档/私有代码库馈送给智能体。告别过时语境。
* **减少幻觉:** 让智能体基于您当前的文档,而非过时的训练数据。
* **隐私优先:** 所有数据均保存在本地。无第三方索引或数据泄露风险。
* **无需 RAG 额外开销:** 避免复杂的向量数据库设置。它原生支持智能体,速度快。
* **完全免费:** 开源且本地优先。
Context9 尤其适用于快速发展的项目,静态 MCP 服务器难以跟上其变化。
1 分•作者: purplekohav•3 天前
4 分•作者: hermet•3 天前
嗨,HN。<p>我们刚刚发布了 ThorVG 1.0,这标志着该引擎走向成熟的一个里程碑。早期版本侧重于功能增长;而本次发布则强调稳定性、后端对等性以及跨平台(包括 Web)一致的渲染行为。<p>ThorVG 是一个开源、可嵌入的 C++ 2D 矢量图形引擎,用于 SVG 风格的图形和 Lottie。<p>[1.0 的意义]<p>此版本更侧重于引擎的就绪状态,而非新功能:
- 提升渲染性能和引擎优化<p>- 改进混合精度和文本排版行为<p>- WebGL 后端现已正式支持<p>- WebGPU 后端升级至生产就绪状态<p>- 引入了适用于浏览器环境的轻量级 WebCanvas 路径<p>- 扩大了 Lottie 规范的覆盖范围,以支持更复杂的动画<p>- 新增交互支持,包括边界框查询和命中检测<p>- 更加可预测的 API 行为,便于集成<p>ThorVG 旨在作为一个小型渲染层,适用于引擎、UI 系统、嵌入式设备以及注重尺寸和确定性性能的工具。<p>发布说明:<a href="https://www.thorvg.org/post/thorvg-v1-0-a-new-generation-released" rel="nofollow">https://www.thorvg.org/post/thorvg-v1-0-a-new-generation-rel...</a><p>乐于回答技术问题。
1 分•作者: ColinWright•3 天前
1 分•作者: jruohonen•3 天前
1 分•作者: LutumVeritas•3 天前
上周,我将我的开源深度研究工具与 ChatGPT、Perplexity 和 Gemini 进行了基准测试。我发现 OpenAI 捏造了 4-5 个不存在的引用。Gemini 将真实的风险比降低了 30-40%。
因此,我构建了 ASK 模式:每个答案都会自动针对第二轮来源进行验证。每个声明都标记为 [OK]、[??] 或 [NO]。
- 约 400 个已验证的答案,花费 1 美元
- 每次查询 2-3 分钟
- 没有 RLHF 保姆机制 - 它会回答你所问的问题
- 每次回复都附带完整的验证报告
聊天(未经验证,过时的训练数据)和深度研究(20 分钟以上)之间的差距需要弥合。
基准测试证明:[https://veritas--test-neocities-org.translate.goog/?_x_tr_sl=de&_x_tr_tl=en&_x_tr_hl=de&_x_tr_pto=wapp](https://veritas--test-neocities-org.translate.goog/?_x_tr_sl=de&_x_tr_tl=en&_x_tr_hl=de&_x_tr_pto=wapp)
GitHub: [https://github.com/IamLumae/Project-Lutum-Veritas](https://github.com/IamLumae/Project-Lutum-Veritas)
1 分•作者: wordsaboutcode•3 天前
1 分•作者: angelina200•3 天前
1 分•作者: kirushik•3 天前