3 分•作者: jsheard•2 天前
返回首页
一周热榜
3 分•作者: soneca•2 天前
3 分•作者: getfoundry•5 天前
3 分•作者: ishiooon•6 天前
嗨,Hacker News!我构建了 codex.nvim,一个为 Codex 打造的 IDE 风格的 Neovim 集成。<p><pre><code>亮点:
- 适用于 OpenAI Codex 计划(无需 API 密钥)
- 完全集成在 Neovim 中(嵌入式终端工作流程)
- 右下角的状态指示器显示忙碌/等待状态
- 快速将选中的内容或文件树上下文发送给 Codex
仓库:
https://github.com/ishiooon/codex.nvim
我为什么构建它:
我希望在 Neovim 中舒适地使用 Codex,而无需依赖 API。
欢迎提出反馈和想法!</code></pre>
3 分•作者: mikaelaast•5 天前
在推特上,Claude Code 的创建者 Boris Cherny 最近表示,Claude Code 中近乎 100% 的代码都是由 Claude Code 编写的,他个人已经几个月没有写过代码了。另一条来自 OpenAI 员工的推文写道:“编程一直很糟糕 [...] 我很高兴它结束了。”
这种“终于摆脱了”的态度真的让我很恼火。它把编程框定为一个我们终于可以摆脱的必要之恶。
具有讽刺意味的是,我的目标与此类似,只是原因不同。我也想少写代码。
少写代码是因为代码等于责任。少写代码是因为“代码越多,问题越多”。因为糟糕的代码就是技术债务。因为错误是不可避免的。少写代码是因为活动部件越少,出错的可能性就越小。
我坦诚地说,我喜欢删除代码胜过编写代码。所以,我对释放一个人工智能代理来生成我没有机会完全理解的大量代码持怀疑态度,这也许并不令人惊讶。
对我来说,编程本质上是关于构建知识的。软件开发是知识工作:发现我们不知道我们不知道什么,识别我们知道我们不知道什么,弄清楚真正的问题是什么,并解决它。
而这些知识必须存在于某个地方。
当有人说“我不再写代码了”时,我听到的意思是:“我把知识工作塞进了一个黑盒子里。”
对我来说,两者之间存在真正的区别:
- 用语言表达的知识(人工智能可以无限量地生成),和
- 在人脑中凝固为联系的知识。
后者不是一个文本文件。它不是你的“技能”或“珠子”。它不是数百行 Markdown 垃圾。不。它是一个心智模型:系统是什么,为什么是这样,哪些是可以安全更改的,抽象提供了什么杠杆作用,以及脆弱的假设在哪里。
我一直带着我正在使用的代码库的心智模型。在我脑海中,它不是“代码”,不是语言和语法意义上的。它更像是一个“思维宫殿”,我可以走进其中,打开门,关上门,翻新,拆掉一堵墙,增加一个新的侧翼。它发生在直觉和智力融合的层面。
我并不反对进步。最近,随着发生的一切,我开始将代码分为两类:
- 我不需要在大脑中建模的代码(低风险,遵循既定惯例,可预测,易于验证),和
- 我忍不住要在大脑中建模的代码(业务关键,新颖,实验性,或引入新模式)。
我很乐意将前者委托给人工智能代理。后者是领域知识和系统理解真正形成的地方。这就是它变得有趣的地方。这是有趣的部分。而我的“思维宫殿”渴望与它保持同步。
你是否担心理解代码在某种程度上是可选的这种新兴观念?
3 分•作者: mediumdeviation•5 天前
3 分•作者: cf100clunk•2 天前
3 分•作者: ogig•2 天前
大家好;
周末我用 Claude Code 做了这个。它是一个听觉训练应用,旨在教像我这样不太有天赋的音乐家音准和音程。我弹了多年吉他,但对音准到底是什么没有清晰的认识。直到做了一些调弦练习后,我才真正理解了它。频率滑入正确的位置,并感受到那种准确性。我希望这个应用能帮助其他人第一次体验到这种感觉,或者提高对不常见音程的辨识能力。欢迎大家提出反馈意见。
3 分•作者: fortran77•6 天前
3 分•作者: abraham•5 天前
在首页看到 HTTP 猫的图片,让我想起了几个月前做的一个小项目。它每天都会从 Unsplash 上展示一张不同的猫咪照片,如果你选择加入,还会向你发送通知。
3 分•作者: Anon84•5 天前
3 分•作者: divbzero•6 天前
3 分•作者: amenghra•2 天前
3 分•作者: speckx•7 天前
3 分•作者: mesmertech•2 天前
之前看到了 Remotion Claude 技能的发布,说实话,尽管我对一些结果的质量感到惊讶,但我最终还是没有用 Claude Code 尝试,因为我知道我需要设置 Remotion、打包器等等。如果我都要做这些了,我想我不如把它变成一个网站,让任何人都可以写消息并获得视频,而无需任何先决条件。
我也知道并非每个人都有 Claude Code,而且设置 Remotion 也很麻烦。从这次经历中,我学到的最大教训之一是,即使有了这些技能,Opus 在设计任务方面实际上也不是那么好,我正在用 Gemini 来做 Framecall,甚至 Flash(快速模式)有时也能产生比 Opus 更好的结果,考虑到成本差异,这真是令人难以置信。
我学到的其他一些东西是,动态视频与编写优秀代码或使用 Claude Code 作为氛围编码器,而不是了解他们所使用框架的人一样,存在着同样的“问题”。如果你只是说“制作一个关于 X 的精彩视频”,最终结果是否好通常是一个赌注,就像你用 Claude Code 说“为我制作 x 应用程序”一样。你需要对设计有良好的鉴赏力,并掌握一些术语,才能确切地知道你想要实现什么。
K2.5、ZLM 和大多数开源模型在制作视频方面都很糟糕,即使有了这些技能,所以我最终没有把它们作为选项添加。
之所以有定价,是因为事实证明,为每个动画输出 2-5k+ 个代码 token,再加上 1-2k 个用于 Remotion 技能的输入 token,成本有点高。我很想免费提供这个产品,因为我本来就是为了好玩才做的,但唉,就这样吧。
3 分•作者: difc•2 天前
我一直在构建 Nucleus,因为大多数“代理安全”仍然仅仅是基于策略的:一个配置文件,告诉你“不要做坏事”,而代理仍然可以做坏事。
Nucleus 是一个开源实验项目,它将一个小型、可组合的权限模型与运行时强制相结合:*副作用只能通过一个强制执行工具代理*,在 Firecracker 微型虚拟机内部实现。这个“信封”是*不可升级的*:它只能收紧或终止,永远不会悄无声息地放松。
目前可用的功能:
* MCP 工具代理,具有*读/写/运行*权限(在微型虚拟机内部强制执行)
* Linux 上默认拒绝出口 + DNS 白名单 + iptables 漂移检测(故障关闭)
* 时间 + 预算限制强制执行
* 哈希链审计日志 + HMAC 批准令牌(限定范围、过期)用于门控操作
缺失的功能(坦诚说明):
* Web/搜索工具存在于模型中,但尚未连接到 MCP
* 远程追加式审计存储 + 证明仍在规划中
* 早期/粗糙阶段;目标是“安全地运行于敏感代码库”,而不是“取代你的本地终端”
大部分代码是用 Anthropic 工具编写的;我一直在依靠测试/模糊测试/属性测试来确保其可靠性。
欢迎提供关于以下方面的反馈:(1) 除了致命三要素之外,哪些危险的能力组合,(2) 你希望首先弥补哪些强制执行方面的差距,(3) 你会如何评估它与仅网关方法的对比。
3 分•作者: MohskiBroskiAI•5 天前
LLM 的问题不在于智能,而在于失忆和不诚实。 大家好,我在过去的几个月里一直在构建 Remember-Me,这是一个开源的“主权大脑”堆栈,旨在完全离线地在消费级硬件上运行。 核心论点很简单:不要租用你的认知。
大多数 RAG(检索增强生成)实现只是“grep 嵌入”。 它们很混乱、不精确,并且容易产生幻觉。 我想在架构层解决“上下文完整性”问题。
技术堆栈(工作原理):
QDMA(量子梦境记忆架构):它使用分层投影引擎,而不是扁平的向量数据库。 它将“热” (回忆) 与“冷” (存储) 记忆分开,允许通过压缩有效地管理无限的上下文窗口。
CSNP(上下文切换神经协议)- 幻觉终结者:这是最重要的部分。 每个记忆片段都被哈希成一个默克尔链。 当 LLM 检索上下文时,系统会根据不可变的账本进行密码学验证。
如果哈希值与链不匹配:检索将被拒绝。
结果:人工智能在视觉上无法“编造”关于你过去的事情,因为它在数学上受到账本的约束。 本地推理:基于 llama.cpp 服务器构建。 它在本地运行 Llama-3(或任何 GGUF)。 无需 API 密钥。 没有数据离开你的机器。
特点:
零依赖:只需 Python 和 GPU(或 CPU)即可在 Windows/Linux 上运行。
可视化界面:包括一个基于 Streamlit 的“认知界面”来可视化记忆状态。 开源:MIT 许可证。 这试图将“自主权”归还给用户。 我认为,如果我们想要 AGI,它需要由我们拥有,而不是通过 API 租用。
存储库:[https://github.com/merchantmoh-debug/Remember-Me-AI](https://github.com/merchantmoh-debug/Remember-Me-AI)
我很想听听您对 Merkle 验证方法的反馈。 限制上下文窗口是否有效地解决了您的“信任”问题?
它完全有效 - 经过全面测试。 如果您之前尝试过 Git 克隆但没有成功 - 由于这并不是我第一次在 Show HN 上展示这个项目 - 欢迎再次尝试。
致所有讨厌 AI 垃圾的人; 贪婪的公司以及他们的私人数据被困在云服务器上。
不客气。
干杯,Mohamad
3 分•作者: mmarian•2 天前
3 分•作者: eriam•5 天前
AI 不仅仅提高生产力:它创造了*过度效率*。
个人和小团队现在能够比现有组织更快地生成决策、选项和计划,而这些组织的设计目的正是为了验证、协调或吸收这些内容。瓶颈已经从执行转移到治理。
当过剩的生产能力在没有吸收层的情况下积累时,组织不会逐渐适应。从历史上看,它们会冻结:更严格的规则、集中化、禁令、脱钩。
我们在 COVID 期间看到了类似的反应:当系统无法在本地吸收冲击时,它们在全球范围内关闭。
似乎被讨论不足的是*吸收*:不是“我们能生产多快”,而是*一个组织在不采取防御性关闭措施的情况下,能够消化多少决策、选项和变化*。
两种机制似乎相关但理论研究不足:(1)小的、局部的流程更改,重新分配协调和决策负荷;(2)持续的技能和角色转变,人们围绕仍然需要被决策、维护和验证的内容重新定位。
我一直在尝试将此问题视为一种“传导”问题,即人类决策和合法性如何与几代人、AI 和人类一起流动。
如果你看到过组织很好地处理了这个问题(或严重失败),我会很感兴趣:是什么真正让系统能够吸收 AI 驱动的过度效率,而不会退回到控制、排名、裁员或关闭?
3 分•作者: chrismoos•5 天前
大家好,
我在寒假期间花了一些时间,构建了这个 Apple II 模拟器。我之前做过一个 C64 的模拟器,但不知怎么地,我接触到了 Apple II,并决定把它作为一个有趣的的项目。
我花了很多时间在 Disk II 的实现上——它涉及很多东西,因为软件可以直接控制控制器固件通常会做的事情。处理复制保护方案以及围绕它的所有时序问题,确实带来了一些挑战。
有一个 WASM 版本可以在网上试用,请去看看吧!
[https://emu.chrismoos.com/](https://emu.chrismoos.com/)