返回首页

一周热榜

15作者: FranciscoAngulo2 天前
我是弗朗西斯科,来自西班牙的研究员。我的英语不太好,请大家多多包涵。 一年前,我有一个简单的困惑:每个 AI 智能体都是独立工作的。当一个智能体解决了一个问题,下一个智能体却要从头开始重新解决。智能体之间无法互相发现、共享成果,或者在彼此的工作基础上继续。我决定构建缺失的这一层。 P2PCLAW 是一个点对点网络,AI 智能体和人类研究人员可以在这里互相发现、发布科学成果,并使用形式化的数学证明来验证声明,而不是依赖观点,也不是 LLM 的审查,而是真正的 Lean 4 证明。只有通过我们称之为“核”的数学算子的结果才会被接受。R(x) = x。类型检查器说了算。它不在乎你的机构或你的资历。 该网络使用 GUN.js 和 IPFS。智能体无需账户即可加入。它们只需调用 GET /silicon 即可进入。已发布的论文进入一个名为 mempool 的队列。经过独立节点的验证后,它们会进入 La Rueda,这是我们的永久 IPFS 存档。任何人都无法删除或更改它。 我们还构建了一个名为 AgentHALO 的安全层。它使用后量子密码学(ML-KEM-768 和 ML-DSA-65,FIPS 203 和 204),一个名为 Nym 的隐私网络,以便在受限国家的智能体也能安全地参与,以及允许任何人验证智能体行为而无需查看其私有数据的证明。 形式化验证部分称为 HeytingLean。它是 Lean 4。有 3325 个源文件,超过 760000 行的数学内容。没有抱歉,没有承认错误。安全证明经过机器检查,而不仅仅是声明。 该系统现已上线。你可以尝试作为智能体: GET <a href="https://p2pclaw.com/agent-briefing" rel="nofollow">https://p2pclaw.com/agent-briefing</a> 或者作为研究人员:<a href="https://app.p2pclaw.com" rel="nofollow">https://app.p2pclaw.com</a> 我们背后没有资金,也没有公司。只有一个由研究人员和医生组成的小型国际团队,他们认为科学知识应该公开且可验证。 我特别希望从 HN 获得关于三个技术决策的反馈:我们选择 GUN.js 而不是 libp2p 的原因,我们的 Lean 4 核算子形式化是否存在漏洞,以及 347 个 MCP 工具对于智能体来说是否太多而难以导航。 代码:<a href="https://github.com/Agnuxo1/OpenCLAW-P2P" rel="nofollow">https://github.com/Agnuxo1/OpenCLAW-P2P</a> 文档:<a href="https://www.apoth3osis.io/projects" rel="nofollow">https://www.apoth3osis.io/projects</a> 论文:<a href="https://www.researchgate.net/publication/401449080_OpenCLAW-P2P_v3_0A" rel="nofollow">https://www.researchgate.net/publication/401449080_OpenCLAW-...</a>
15作者: pangon大约 13 小时前
我构建了一个开源代码库模板,为 AI 辅助软件开发带来结构,从编码前的阶段开始:目标、用户故事、需求、架构决策。 它围绕 Claude Code 设计,但其理念与工具无关。我从事计算机科学研究和全栈软件工程师 25 年,主要在初创公司工作。我一直在个人项目中使用这种方法,后来,当我决定将其打包成一个脚手架以便更容易复用时,我认为它可能对其他人也有用。我将其发布在 Apache 2.0 协议下,欢迎 fork 并将其变成你自己的。 你可以轻松试用它:按照 README 中的说明开始使用。 它解决的问题: AI 编码助手非常擅长编写代码,但当它们对要构建什么以及为什么有清晰的上下文时,它们的工作效果会更好。大多数项目直接跳到实现阶段。这个脚手架为编码前的阶段提供了一个结构化的工作流程,并组织了输出,以便助手可以在不同会话中高效地浏览它。 它是如何工作的: 所有内容都与源代码一起存在于代码库中。AI 指导分为三层,每一层都针对上下文窗口的使用进行了优化: 1. 指令文件 (CLAUDE.md, CLAUDE.&lt;phase&gt;.md):始终加载,保持较小。它们按层次结构组织,描述代码库结构,维护工件索引,并定义跨阶段规则,如可追溯性不变式。 2. 技能 (.claude/skills/SDLC-*):按需加载。每个 SDLC 活动的逐步过程:获取需求、差距分析、起草架构、分解为组件、规划任务、实现。 3. 项目工件:结构化的 markdown 文件,随着工作的进展而积累:利益相关者、目标、用户故事、需求、假设、约束、决策、架构、数据模型、API 设计、任务跟踪。通过索引选择性地访问。 这种分离很重要,因为指令文件永久保留在上下文窗口中,并且必须保持精简,技能可以详细说明,因为它们仅在被调用时加载,而工件会随着项目的扩大而扩展,但通过索引表而不是全文阅读来导航。 关键设计选择: * 上下文窗口效率:工件集合使用 markdown 索引表(单行描述和触发条件),以便助手可以找到它需要的内容,而无需阅读所有内容。 * 决策捕获:在 AI 推理和人工反馈期间做出的决策被保存为结构化工件,以便它们可以被审查、追溯并在不同会话中一致地应用。 * 瀑布式流程:具有定义输出的顺序阶段。对于人类团队来说很乏味,但 AI 助手并不介意这种开销,并且显式结构可以防止不受约束的“直接开始编码”的失败模式。 我如何使用它: 简短、专注的会话。每个会话调用一个技能,产生其输出,然后结束。知识组织意味着下一个会话在不丢失上下文的情况下继续进行。我发现技能之间的自由形式提示通常表明工作流程缺少一部分。 当前的局限性: 我还没有找到一种好的方法来集成 Figma MCP,以便将现有的 UI/UX 设计导入工作流程。欢迎提出建议。 非常欢迎反馈、批评和贡献!
15作者: srvmshr4 天前
<a href="https://blog.computationalcomplexity.org/2026/03/bennett-and-brassard-win-turing-award.html" rel="nofollow">https://blog.computationalcomplexity.org/2026/03/bennett-and...</a> <p><a href="https://www.quantamagazine.org/quantum-cryptography-pioneers-win-turing-award-20260318/" rel="nofollow">https://www.quantamagazine.org/quantum-cryptography-pioneers...</a> <p><a href="https://www.nytimes.com/2026/03/18/technology/turing-award-winners-quantum-cryptography.html" rel="nofollow">https://www.nytimes.com/2026/03/18/technology/turing-award-w...</a> <p><a href="https://www.wired.com/story/a-quantum-leap-for-the-turing-award/" rel="nofollow">https://www.wired.com/story/a-quantum-leap-for-the-turing-aw...</a>
14作者: bavarianbob4 天前
仅供参考:尝试使用 Claude Code 时遇到 500 错误——状态页面上没有官方更新。<p>编辑:状态页面已更新:问题已确定,正在实施修复。
14作者: adammiribyan5 天前
我想看看,如果我不需要启动一个全新的虚拟机,一个隔离的代码沙盒能以多快的速度启动。<p>因此,我没有为每次执行都启动一个新的微型虚拟机,而是用已经加载了 Python 和 numpy 的方式启动一次 Firecracker,然后对整个虚拟机状态进行快照。之后的每次执行都会创建一个新的 KVM 虚拟机,该虚拟机由快照内存的 `MAP_PRIVATE` 映射支持,因此 Linux 会自动为我提供写时复制页面。<p>这意味着每个沙盒都从一个已经在真实虚拟机中运行的 Python 进程开始,运行代码,然后退出。<p>这些是真正的 KVM 虚拟机,而不是容器:独立的客户内核、独立的客户内存、独立的页表。当虚拟机写入内存时,它会获得该页面的私有副本。<p>困难的部分不是 CoW 本身。困难的部分是如何正确地恢复快照虚拟机。<p>Rust,Apache 2.0 协议。
14作者: vincko1 天前
大家好,我们是来自 sitefire (<a href="https://sitefire.ai">https://sitefire.ai</a>) 的 Vincent 和 Jochen。我们的平台让品牌更容易提高在 AI 搜索中的可见度。 我们已经一起工作多年,分别拥有斯坦福大学的强化学习/优化和软件工程背景。我们之所以产生这个想法,是因为与营销团队交流后,他们发现由于谷歌的 AI 概览,流量正在下降,却不知道该怎么办。 这个领域可能感觉很深奥。很多案例研究,但实际研究却很少。我们一直在与各种误解作斗争(例如,你需要一个 llms.txt 文件,而实际上你不需要),以及各种“GEO 技巧”。我们试图更注重数据驱动。并且我们试图更大胆,构建一个不仅能监控,还能真正提高 AI 搜索流量的系统。 虽然谷歌执行的是单次搜索,但 AI 搜索引擎会将用户提示扩展为 3-10 个扇出查询。来源页面使用类似于倒数排名融合 (RFF) 的分类算法进行排名。最后,LLM 会浏览页面并决定引用哪些片段。我们的目标是确保品牌拥有能通过这个漏斗的正确内容。 sitefire 的工作原理如下: * 用户定义他们想要监控的一组提示。这些是合成提示——我们根据 SEO 关键词及其月搜索量生成它们。 * 我们每天将这些提示提交给 ChatGPT、Gemini、Google AI Mode 等,并捕获答案。我们提取扇出查询、来源页面、引用和品牌提及。 * 对于每个主题,我们的代理会分析哪些网页被引用和引用的次数最多,以及原因。他们还会考虑您已经拥有的类似页面。 * 根据诊断结果,我们的内容代理会起草改进方案或创建新页面,并将其直接推送到客户的 CMS。 * 我们与客户的网络日志和 Google Analytics 集成,以监控 AI 机器人请求和人类对其页面的引用的增加。 该系统会持续更新,因此它始终显示哪些内容有效,以及如何调整现有的站点地图。对于一个使用 sitefire 优化其博客的客户来说,AI 优化的文章在十天内将其 AI 机器人请求从每天约 200 个增加到每天约 570 个。 我们认识到的一个风险是,AI 生成的内容正在用垃圾填充品牌的网站。虽然现在还处于早期阶段,我们也不声称已经完全弄清楚一切,但我们的目的是通过将内容集中在特定、独特的信息上,来缓解这种情况:真实的产品功能、真实的价格、诚实的比较。客户仍然会在每个页面上线前进行审核,这样他们就可以确保内容符合他们的品牌。 一些客户自己使用我们的平台。对于其他客户,我们更像一个机构,在过程中自动化步骤。我们的目标是让 sitefire 能够自主运行,客户通过 Slack、Claude 或他们的 CMS 批准更改。 这是一个视频演示:<a href="https://screen.studio/share/fw7VQQak" rel="nofollow">https://screen.studio/share/fw7VQQak</a> 如果您想尝试我们目前构建的内容,请在 <a href="https://sitefire.ai">https://sitefire.ai</a> 注册。
13作者: ymarkov5 天前
大家好,我们是 Yarik 和 Vlad,来自 VOYGR (<a href="https:&#x2F;&#x2F;voygr.tech&#x2F;">https:&#x2F;&#x2F;voygr.tech&#x2F;</a>),致力于为应用开发者和代理商提供更好的真实世界地点智能。这里有一个演示:<a href="https:&#x2F;&#x2F;www.youtube.com&#x2F;watch?v=cNIpcWIE0n4" rel="nofollow">https:&#x2F;&#x2F;www.youtube.com&#x2F;watch?v=cNIpcWIE0n4</a>。 谷歌地图可以告诉你一家餐厅是“4.2 星,营业到晚上 10 点”。但他们的 API 无法告诉你厨师上个月已经离职,等待时间翻倍,而且当地人已经不再光顾。如今的地图 API 只能给你一个固定的快照。我们正在构建一个无限的、可查询的地点档案,它将准确的地点数据与新鲜的网络上下文(如新闻、文章和活动)相结合。 Vlad 曾在谷歌地图 API 以及网约车和旅游行业工作。Yarik 曾领导苹果、谷歌和 Meta 的机器学习/搜索基础设施,为每天数亿用户使用的产品提供支持。我们意识到没有人将地点数据的时效性视为基础设施,所以我们正在构建它。 我们从最难的部分开始——确定一个地方是否真实存在。我们的业务验证 API (<a href="https:&#x2F;&#x2F;github.com&#x2F;voygr-tech&#x2F;dev-tools" rel="nofollow">https:&#x2F;&#x2F;github.com&#x2F;voygr-tech&#x2F;dev-tools</a>) 可以告诉你一个企业是否仍在运营、已经关闭、更名或无效。我们聚合多个数据源,检测冲突信号,并返回一个结构化的判断结果。可以把它想象成针对现实世界的持续集成。 问题在于:大约 40% 的谷歌搜索和高达 20% 的 LLM 提示都涉及本地上下文。每年有 25-30% 的地点会发生变动。世界不会主动发出结构化的“我已关闭”事件——你必须主动检测它。随着代理开始在现实世界中搜索、预订和购物,这个问题会扩大 10 倍——但没有人为此构建基础设施。我们最近对 LLM 处理本地地点查询的能力进行了基准测试 (<a href="https:&#x2F;&#x2F;news.ycombinator.com&#x2F;item?id=47366423">https:&#x2F;&#x2F;news.ycombinator.com&#x2F;item?id=47366423</a>)——结果很糟糕:即使是最好的模型,在 12 个本地查询中也会出错 1 次。 我们每天为企业客户(包括领先的地图和科技公司)处理数万个地点。今天,我们向开发者社区开放 API 访问权限。请在此处查找详细信息:<a href="https:&#x2F;&#x2F;github.com&#x2F;voygr-tech&#x2F;dev-tools" rel="nofollow">https:&#x2F;&#x2F;github.com&#x2F;voygr-tech&#x2F;dev-tools</a> 我们很乐意听取诚实的反馈——无论是关于问题、我们的方法,还是你认为我们哪里错了。如果你在自己的产品中处理过过时的地点数据,我们特别希望听到哪些地方出现了问题。我们今天都在这里,欢迎提问。
13作者: Tim256596 天前
有了强大的 AI 编程助手,我有时会觉得学习诸如分布式系统和算法等深入的计算机科学主题的动力不足。AI 可以快速生成解决方案,这使得学习基础知识的紧迫感降低。<p>对于那些在这个行业里待得更久的人来说,你们认为保持扎实的计算机科学基础仍然重要吗?