2作者: ghostinit9 天前
2023年初,一家小型金融科技初创公司。截止日期:4个月内上线。工程团队实际上只有3个人。我担任架构师,外加两个开发人员。我们一切就绪。架构已设计好,基础设施在云端运行,后端框架也已准备就绪。<p>开发人员正在构建功能。我们按部就班。然后到了第二个月,管理层开始招聘。来了一堆经理。然后他们请来了一位Scrum Master。第一周,这家伙就想实施完整的敏捷仪式。<p>每日站会、Sprint计划、回顾会议、Backlog梳理。一整套流程。他的理由是:“你需要流程来扩展。” 我们还剩8周时间。<p>我们不是想扩展,我们是想完成任务。我已经见过这种模式多次上演了。小团队交付产品。管理层对缺乏可见性感到不安,他们聘请了流程人员。流程人员需要证明他们的价值,仪式被实施,一切都慢了下来。<p>让我抓狂的是时机。我们正在工作。离截止日期还有8周的时候,为什么要修复没有坏的东西?我真的很想知道,为什么管理层就不能放过正在工作的团队呢?这真的是出于对可持续性的担忧,还是仅仅是对没有控制机制感到不安?<p>你对此有什么经验?
6作者: lcastricato9 天前
在过去的几周里,世界模型开始首次展现出真实感。你可以看到连贯的环境、长时间的演变过程以及越来越逼真的视觉效果。与此同时,大多数此类系统难以运行、难以集成,并且为了规模而牺牲了交互性。 我们创建 Overworld 的初衷是,我们更关注于构建你可以真正进入的世界,而不是制作令人印象深刻的视频。这意味着低延迟、持续控制,以及每次你行动时都会响应的系统,而不是每条提示只响应一次。 上周,我们发布了 Waypoint 1,这是一个实时扩散世界模型的研发预览版,可在本地运行。下周,我们将发布 Waypoint 1.1 Small,它设计用于在现代消费级 GPU 上运行,并且易于构建和修改。 Waypoint 从头开始构建,而不是从大型视频模型进行微调。我们针对控制频率、稀疏注意力以及快速推理进行了大量优化,以便系统能够保持持久的世界状态,并以游戏级别的帧率响应输入。我们的目标是让开发者今天就可以集成它,而不仅仅是观看演示。 我们认为,一旦世界模型遵循与大型语言模型(LLM)类似的路径,即本地执行、开放工具和快速的社区驱动迭代,这个领域的发展速度将会最快。Genie 和类似的系统展示了大规模的可能性。我们的重点是让这个未来变得本地化和可访问。 我们在一篇最近的博文中详细阐述了“沉浸感差距”,为什么交互性比单纯的视觉效果更重要,以及我们如何优化模型。 代码、演示和发布详情请见:https://over.world/blog/the-immersion-gap
1作者: sensecall9 天前
我一直在用 AI 解决“用这些食材能做什么”的问题,但想找个更快、更有条理的方案,于是我开发了 Spud (spud.recipes)。它能将你的食材转化为一份可烹饪食谱的简短列表。欢迎提供反馈。
1作者: Ohans_favour9 天前
嗨,HN, 我们构建了 Bluebag,一个运行时环境,允许您从 skills.sh 导入 Agent Skills,并在您的生产 AI 代理中使用它们。 演示:[https://www.bluebag.ai/playground](https://www.bluebag.ai/playground) 博客:[https://www.bluebag.ai/blog/import-skills-sh-into-bluebag](https://www.bluebag.ai/blog/import-skills-sh-into-bluebag) 文档:[https://bluebag.ai/docs](https://bluebag.ai/docs) 问题:skills.sh 拥有 100 多个开源 Agent Skills(PDF 处理、代码审查、数据提取等)。它们在 Claude 和 Cursor 中运行良好。但如果您想在自己的代理中使用它们,例如使用 Vercel AI SDK 或 LangChain,您需要构建沙盒、依赖项管理、文件存储等。 我们构建了什么:导入一个技能,获得工具。我们处理基础设施。 ```javascript import { Bluebag } from "@bluebag/ai-sdk"; const bluebag = new Bluebag({ apiKey: process.env.BLUEBAG_API_KEY }); const config = await bluebag.enhance({ model, messages }); const result = streamText(config); ``` 要导入一个技能,只需替换 URL: ``` skills.sh/owner/skill → bluebag.ai/owner/skill ``` 就是这样。该技能在隔离的沙盒中运行,并预先安装了依赖项。 技术栈:每个租户使用隔离的虚拟机,技能加载到 /skills/{name},自动注入用于 bash/代码执行/文件访问的工具。 兼容:Vercel AI SDK、LangChain、任何模型(Claude、GPT-4、Gemini、Llama)。 欢迎反馈,特别是您希望在生产中运行哪些技能。
5作者: cadabrabra9 天前
我无法举出一个由人工智能提出的软件应用或软件功能的例子。一个都没有。以 Excel 为例。人工智能不仅未能完全取代 Excel,也未能取代它的任何功能。人工智能仅仅以智能聊天机器人的形式被添加为一个附加功能。整个行业都是这种趋势,这也是为什么人工智能未能从根本上改变我们现有的任何软件应用的原因。<p>你可能会问:那么 AI 原生应用呢?事实证明,它们中的大多数本质上是现有软件的克隆,只是在顶部添加了一个聊天机器人。由于人工智能容易出错的特性,任何利用它的应用程序也必须提供所有用于覆盖其所有决策的控件。所以,最终你得到的是一个传统的软件应用加上人工智能。<p>人工智能曾承诺要改变甚至取代软件应用,但它所做的只是用一个不可靠的聊天机器人来增强它们。所有旧的字段和按钮仍然存在,但现在多了一个你可以输入文本并寄希望于结果的文本框。
3作者: eriam9 天前
AI 不仅仅提高生产力:它创造了*过度效率*。 个人和小团队现在能够比现有组织更快地生成决策、选项和计划,而这些组织的设计目的正是为了验证、协调或吸收这些内容。瓶颈已经从执行转移到治理。 当过剩的生产能力在没有吸收层的情况下积累时,组织不会逐渐适应。从历史上看,它们会冻结:更严格的规则、集中化、禁令、脱钩。 我们在 COVID 期间看到了类似的反应:当系统无法在本地吸收冲击时,它们在全球范围内关闭。 似乎被讨论不足的是*吸收*:不是“我们能生产多快”,而是*一个组织在不采取防御性关闭措施的情况下,能够消化多少决策、选项和变化*。 两种机制似乎相关但理论研究不足:(1)小的、局部的流程更改,重新分配协调和决策负荷;(2)持续的技能和角色转变,人们围绕仍然需要被决策、维护和验证的内容重新定位。 我一直在尝试将此问题视为一种“传导”问题,即人类决策和合法性如何与几代人、AI 和人类一起流动。 如果你看到过组织很好地处理了这个问题(或严重失败),我会很感兴趣:是什么真正让系统能够吸收 AI 驱动的过度效率,而不会退回到控制、排名、裁员或关闭?