28 分•作者: treebrained•6 天前
返回首页
最新
1 分•作者: TMWNN•6 天前
1 分•作者: nikolaitarasov•6 天前
嗨,HN,
我是 LocaFlow 的开发者。以下是它的背景故事:
过去几年里,我开发了几款 iOS 应用。但每一款都只支持英语,因为我非常害怕本地化流程。典型的流程是这样的:
1. 打开 Localizable.strings 文件作为源代码
2. 手动将字符串片段复制粘贴到 ChatGPT 或 Claude
3. 复制粘贴翻译结果
4. 测试一切
5. 针对每种语言和每次应用更新重复以上步骤
这会让我每款应用花费 8 个小时以上。我一直拖延着不做。
上个季度,我终于决定本地化我的其中一款应用。在花了整个周六的一半时间后,我心想:“我是一名开发者……为什么我要手动做这件事?”
所以我开发了 LocaFlow。
它的功能:
* 选择你电脑上的应用项目
* AI 翻译成 50 多种语言
* 只需几分钟,而不是几小时/几天
与众不同之处:
* 没有“自带 API 密钥”的麻烦(我负责翻译 API 费用)
* 保留格式(变量、复数、特殊字符)
* 简单的定价:每月 19 美元(或慷慨的免费套餐)
* 由一位为自己的应用使用它的开发者构建
技术细节:
* 使用 AI 进行翻译(比 Google 翻译更好地理解上下文)
* 在翻译前后验证字符串格式
* 处理 iOS 复数形式、Android 字符串数组等
* 可以批量翻译(一次处理整个应用)
很乐意回答关于实现、定价、路线图或任何其他问题。
试用一下:[https://locaflow.dev](https://locaflow.dev)(提供免费套餐,无需信用卡)
1 分•作者: Agreed3750•6 天前
1 分•作者: kelseyfrog•6 天前
1 分•作者: kumar_abhirup•6 天前
2 分•作者: 1vuio0pswjnm7•6 天前
1 分•作者: jumpocelot•6 天前
1 分•作者: agairola•6 天前
Hi HN,
自从 2023 年的 AutoGPT 问世以来,我对完全无人值守的 AI 智能体一直感到不安。我看到了生产力的提升,但“启动它然后走开”感觉风险很高。
最近,“Ralph Wiggum 循环”模式开始流行起来。这个想法很简单:
一个自主编码智能体反复运行,直到所有 PRD(产品需求文档)项完成,每次循环都有新的上下文,状态存储在模型之外,例如 Git、JSON 等。
让我感到困扰的是这一点:当我不在线时,什么来保护系统?
如今传统的 AI 辅助开发流程是这样的:
AI 编写代码 → 人工审查 → CI 扫描 → 人工修复
而我想要的流程是:
AI 编写代码 → 立即进行安全扫描 → AI 修复问题 → 重复,直到安全 → 陷入困境时升级
所以我构建了一个原型,将安全扫描直接嵌入到智能体循环中。智能体在其自己的会话中运行 Semgrep、Grype、Checkov 等工具,查看结果,并在提交任何内容之前迭代地修复它们。
循环流程如下:
PRD → 智能体 → 扫描 → 通过? → 提交
失败 → 修复 → 重试 (3 次) → 升级给人工
几个重要的设计原则:
* 基线差异:预先存在的问题被单独跟踪。只有新的发现会阻止提交。
* 沙盒约束:禁止网络访问,禁止 sudo,禁止破坏性命令。
* 人工覆盖:没有任何东西是完全自主的。你可以在任何时候介入。
这是否万无一失?绝对不是。
它是否已准备好投入生产?没有。
但这只是将 DevSecOps 思维应用于自主智能体,而不是信任“AI 魔法”的起点。
代码库链接:[https://github.com/agairola/securing-ralph-loop](https://github.com/agairola/securing-ralph-loop)
欢迎大家对正在试验智能体循环、安全自动化或 AI 辅助开发失败的案例提出反馈。
乐于迭代。
1 分•作者: todsacerdoti•6 天前
1 分•作者: Brajeshwar•6 天前
1 分•作者: benjushi•6 天前
一个月前,OpenAI 在没有任何通知的情况下禁用了我的 ChatGPT 账号。三年多的对话记录——全没了。<p>我尝试了一切办法。给所有能找到的 OpenAI 邮箱都发了邮件。他们的回复是?“使用我们的数据导出工具。” 问题是?你需要一个活跃的账号才能导出你的数据。<p>经典操作。<p>所以我开发了一个浏览器扩展程序,可以让我一键保存来自 ChatGPT、Claude 或 Gemini 的任何对话。Markdown 格式,保存在一个地方。<p>结果它解决了另一个我没想到的问题:我经常向这三个 AI 提同样的问题,然后忘记了哪个给我的答案最好。现在它们都在一个地方了。<p>目前它只是我的个人工具。没什么花哨的——只是为了解决我自己的问题。如果有兴趣,我会考虑发布它。也可以很容易地扩展到其他 AI 助手。<p>现在还有人担心他们的 AI 聊天记录吗?
1 分•作者: bfollington•6 天前
1 分•作者: memalign•6 天前
1 分•作者: armadyl•6 天前
1 分•作者: TasselHat•6 天前
1 分•作者: jithin_g•6 天前
1 分•作者: walterbell•6 天前
2 分•作者: salkahfi•6 天前
1 分•作者: spamfilter247•6 天前
需要一种通用格式来共享与 AI 的对话,该格式可以在一个对话流中捕获来自多个来源的 token。<p>早在 2024 年,当大多数 LLM API 还是补全端点时,唯一可见的实体是 `system`、`user` 和 `assistant`。<p>推理模型增加了思维 token,这些 token 可能对用户不可见,但却是 LLM 推理(推理时计算)的思维轨迹。<p>现在,随着 agent 进行工具调用,还有其他实体也参与并影响着对话的流程。<p>我尝试为这个目的编写了一个 `SKILLS.md` 文件,其双重目的是为了跨 agent 协作和人工审计。
- Agent 可以将其整个“意识流”交给其他 agent 来拾取并继续,这在多 agent 协作中效果极佳。
- 人类不仅可以审查 agent 系统的输入/输出,还可以真正深入了解影响输出的思维过程和其他工具依赖关系。