4作者: qbacode4 天前
上周,我们用 AI 助手重命名了一个服务中的字段。结果导致另外三个服务在生产环境中崩溃。代码审查时没人发现这个问题,因为这些依赖关系不在代码里,而是在大家脑子里。<p>我们公司正推动我们用更少的开发人员交付更多产品,大家都用 Claude Code。它在单个服务内的开发速度方面表现出色。但对于微服务呢?这就像把电锯交给一个看不见墙的人。AI 的行动速度远超团队追踪依赖关系的能力。<p>你们是怎么处理这个问题的?还是大家每次部署前都在祈祷?
1作者: trillionclues4 天前
大家好,我是 Excel,正在开发 Mockline,一个基于 OpenAPI 规范构建隔离的、由 Docker 驱动的模拟 API 服务器的工具。 问题: 每个迭代周期,我都会开始针对一个尚未存在的 API 进行开发。选择很糟糕:要么一直被阻塞,直到后端上线;要么针对硬编码的 JSON 进行开发,而一旦有任何改动,这些 JSON 就会漂移;或者维护一个本地模拟,但没人使用。 令人沮丧的是——规范通常是存在的,只是你无法运行它。我相信质量保证(QA)团队在编写针对尚未上线的端点的集成测试时也面临同样的挑战。而且这种情况持续的时间越长,测试就会越集中在迭代周期的最后 48 小时内。 Mockline 的作用: 上传一个 OpenAPI 3.0 规范(YAML/JSON 或远程 URL)。Mockline 构建一个内置了 Contour CLI(https://contour.trillionclues.dev)的 Docker 镜像,启动一个容器,并分配一个公共 URL——在 3-7 秒内提供带有真实 HTTP 响应的实时模拟服务器。 此外,每个模拟都针对每个规范版本进行隔离。您可以运行契约测试来验证模拟是否与规范匹配,并比较两个版本以在上线前发现破坏性更改。 目前已实现的功能: * 规范上传和版本控制 * 模拟服务器配置公共 URL * 启动/停止/删除控制 * 契约测试和模式差异 * 内置 API 客户端,可在仪表板中实时访问端点 说实话,我非常希望得到关于以下几点的反馈: 1. “上传规范,获取实时模拟” 这种抽象是否正确,还是团队更希望使用类似 Postman 的手动响应定义方式? 2. 您会在 CI 中使用它进行集成测试吗?3-7 秒的冷启动时间是否太慢? 3. 有人正在基于 gRPC 或 GraphQL 规范进行构建吗?这在路线图上,但我希望知道这是否确实是一个阻碍因素。 非常感谢任何反馈——尤其是来自质量保证工程师或任何尝试过以不同方式解决此问题的人。 mockline.xyz — 候补名单在 mockline.xyz/waitlist
4作者: mjashanks4 天前
大家好,我是 Budibase 的 Mike。<p>继我们现有的开源应用构建和自动化工具之后,我们最近推出了 AI Agents 的 Beta 版。<p>我们构建 Budibase Agents 是为了帮助团队在实际工作流程中利用 AI,使用他们自己的 LLM、数据和 API。因此,我们的 Agents 可以由任何具有 OpenAI 兼容 API 的 LLM 提供支持,包括开源和本地托管的模型。这意味着您可以构建连接到现有工具栈的 Agents,并在您自己的环境中运行。<p>更多详细信息: - Agents 的行为在现有的 Budibase 工作区中使用自然语言指令进行配置。 - 您可以明确控制 Agent 可以访问哪些数据源、API 和自动化。 - 最终用户可以通过 Budibase Chat 或使用现有的聊天工具(如 Slack 和 Discord)与您的 Agents 交互。 - Agents 可以从 Automations 中调用,反之亦然,从而实现复杂的工作流程,包括与最终用户应用程序交互以进行手动人工审批。<p>Budibase Agents Beta 版现已向所有自托管和云用户开放。<p>由于这是 Beta 版发布,我们正在积极寻求关于如何改进 Agents 的意见和反馈,包括在实际工作流程中使用 AI 进行构建的体验和功能方面。<p>欢迎通过我们的 GitHub 讨论区告诉我们:<a href="https:&#x2F;&#x2F;github.com&#x2F;budibase&#x2F;budibase&#x2F;discussions" rel="nofollow">https:&#x2F;&#x2F;github.com&#x2F;budibase&#x2F;budibase&#x2F;discussions</a>