1作者: lexokoh7 天前
我开发这个工具,是因为作为一名移动端开发者,在使用 AI API 时反复遇到同样的问题。最佳实践建议不要在移动应用中直接嵌入 API 密钥,但唯一的替代方案就是搭建一个后端服务器,专门用于将请求转发给 OpenAI。这种服务器会增加成本、复杂性、扩展工作量和维护负担,仅仅是为了转发请求和隐藏密钥。我反复地重建这个“无用”的后端,最终意识到:既然无论如何都必须拥有一个后端,它就应该做一些有价值的事情。<p>正是这个想法促使我开发了一个简单、安全的 AI 代理,它负责密钥管理、速率限制、使用控制、促销和升级。这样,移动端开发者就可以保持前端的简洁性,而无需管理定制的后端基础设施。
1作者: northlondoner7 天前
注意到 C# 被低估了。关于 C# 的内存安全。引入像 Rust 这样的多范式内存安全方法有多难?例如,所有权模型,是否可以通过某种元框架来强制执行这种实践?
1作者: gztomas7 天前
我们正在推出一种执行模型,介于 LLM 代码生成和自主智能体之间。<p>LLM 仅生成两个确定性接口之间的粘合逻辑: - 前端知道如何渲染的 UI 模式 - 后端公开的受限运行时接口,从 `list_comments` 等特定函数到 `restricted http_call` 等更广泛的基元<p>这两个接口都是固定的、类型化的和可检查的。LLM 无法创建 UI 组件或后端功能。它只能组合已存在的内容。<p>这与 A2UI 类似,但切入点不同。A2UI 将智能体操作渲染到 UI 中。在这里,UI 和运行时是一流的,LLM 生成组合逻辑,没有开放式的操作循环。<p>你也可以把它想象成 MVC,其中 View 和 Model 是固定的,而 Controller 是按需生成的。<p>文章和简短演示视频: <a href="https:&#x2F;&#x2F;cased.com&#x2F;blog&#x2F;2025-12-11-how-we-build-generative-ui&#x2F;" rel="nofollow">https:&#x2F;&#x2F;cased.com&#x2F;blog&#x2F;2025-12-11-how-we-build-generative-ui...</a><p>对失败模式、约束和相关现有技术的反馈感兴趣。
1作者: dboon7 天前
我注意到 Claude Code 添加了 /stats 命令,并且统计数据缓存在 $HOME/.claude 中,所以我用 Bun + WASM 写了一个有趣的程序,它会提取这些统计数据(非敏感、不可识别),将它们发布到数据库中,并让你了解你的使用情况。 WASM 部分是一个非常有趣的射线步进 SDF 渲染器,它可以在你的终端中渲染一个特别的冬季版 Claude。如果你只对这部分感兴趣,它也可以在浏览器中渲染。我给他起了个名字叫 Santa Claude。 代码在这里[^1],如果你对渲染代码感兴趣,或者想确认我没有窃取你的信用卡信息,可以查看。 [^1]: <a href="https://github.com/tspader/claude-wrapped/" rel="nofollow">https://github.com/tspader/claude-wrapped/</a>