156 分•作者: ericdanielski•7 天前
返回首页
最新
14 分•作者: speckx•7 天前
17 分•作者: ahlCVA•7 天前
7 分•作者: signa11•7 天前
22 分•作者: speckx•7 天前
51 分•作者: signa11•7 天前
57 分•作者: wicket•7 天前
1 分•作者: _pdp_•7 天前
1 分•作者: noelwelsh•7 天前
2 分•作者: firesteelrain•7 天前
3 分•作者: MindBreaker2605•7 天前
1 分•作者: lexokoh•7 天前
我开发这个工具,是因为作为一名移动端开发者,在使用 AI API 时反复遇到同样的问题。最佳实践建议不要在移动应用中直接嵌入 API 密钥,但唯一的替代方案就是搭建一个后端服务器,专门用于将请求转发给 OpenAI。这种服务器会增加成本、复杂性、扩展工作量和维护负担,仅仅是为了转发请求和隐藏密钥。我反复地重建这个“无用”的后端,最终意识到:既然无论如何都必须拥有一个后端,它就应该做一些有价值的事情。<p>正是这个想法促使我开发了一个简单、安全的 AI 代理,它负责密钥管理、速率限制、使用控制、促销和升级。这样,移动端开发者就可以保持前端的简洁性,而无需管理定制的后端基础设施。
1 分•作者: causalzap•7 天前
1 分•作者: northlondoner•7 天前
注意到 C# 被低估了。关于 C# 的内存安全。引入像 Rust 这样的多范式内存安全方法有多难?例如,所有权模型,是否可以通过某种元框架来强制执行这种实践?
1 分•作者: lifeisstillgood•7 天前
1 分•作者: gztomas•7 天前
我们正在推出一种执行模型,介于 LLM 代码生成和自主智能体之间。<p>LLM 仅生成两个确定性接口之间的粘合逻辑:
- 前端知道如何渲染的 UI 模式
- 后端公开的受限运行时接口,从 `list_comments` 等特定函数到 `restricted http_call` 等更广泛的基元<p>这两个接口都是固定的、类型化的和可检查的。LLM 无法创建 UI 组件或后端功能。它只能组合已存在的内容。<p>这与 A2UI 类似,但切入点不同。A2UI 将智能体操作渲染到 UI 中。在这里,UI 和运行时是一流的,LLM 生成组合逻辑,没有开放式的操作循环。<p>你也可以把它想象成 MVC,其中 View 和 Model 是固定的,而 Controller 是按需生成的。<p>文章和简短演示视频:
<a href="https://cased.com/blog/2025-12-11-how-we-build-generative-ui/" rel="nofollow">https://cased.com/blog/2025-12-11-how-we-build-generative-ui...</a><p>对失败模式、约束和相关现有技术的反馈感兴趣。
1 分•作者: dboon•7 天前
我注意到 Claude Code 添加了 /stats 命令,并且统计数据缓存在 $HOME/.claude 中,所以我用 Bun + WASM 写了一个有趣的程序,它会提取这些统计数据(非敏感、不可识别),将它们发布到数据库中,并让你了解你的使用情况。
WASM 部分是一个非常有趣的射线步进 SDF 渲染器,它可以在你的终端中渲染一个特别的冬季版 Claude。如果你只对这部分感兴趣,它也可以在浏览器中渲染。我给他起了个名字叫 Santa Claude。
代码在这里[^1],如果你对渲染代码感兴趣,或者想确认我没有窃取你的信用卡信息,可以查看。
[^1]: <a href="https://github.com/tspader/claude-wrapped/" rel="nofollow">https://github.com/tspader/claude-wrapped/</a>
7 分•作者: alphabetting•7 天前
2 分•作者: hy_wondercoms•7 天前
2 分•作者: haneboxx•7 天前
嗨!我一直在寻找类似Obsidian的终端用户界面(TUI),但一无所获。所以,我自己在终端里做了一个Obsidian的替代品。