13作者: adilhafeez8 个月前
大家好,我们是 Arch(<https://github.com/katanemo/archgw>)背后的团队,Arch 是一个用 Rust 编写的开源 LLM 代理。今天,我们发布了 Arch-Router(<https://huggingface.co/katanemo/Arch-Router-1.5B>),一个用于基于偏好的路由的 15 亿参数路由器模型,现已集成到代理中。随着团队集成多个 LLM——每个模型都有不同的优势、风格或成本/延迟情况——将正确的提示路由到正确的模型成为应用程序设计的关键部分。但这仍然是一个未解决的问题。大多数路由系统分为两类: * 基于嵌入的路由器使用意图分类器——将提示标记为“支持”、“SQL”或“数学”,然后路由到匹配的模型。这适用于简单的任务,但在真实的对话中会崩溃。用户在对话中途改变话题,任务边界模糊,产品更改需要重新训练分类器。 * 基于性能的路由器根据 MMLU 或 MT-Bench 等基准测试,或根据延迟或成本曲线来选择模型。但基准测试通常会忽略生产中重要的事情:特定领域的质量或主观偏好,例如“法律部门会接受这个条款吗?” Arch-Router 采用了不同的方法:通过用通俗易懂的语言编写的偏好进行路由。您可以编写类似“合同条款 → GPT-4o”或“快速旅行提示 → Gemini Flash”的规则。路由器使用轻量级的 15 亿参数自回归模型将提示(和对话上下文)映射到这些规则。无需重新训练,无需脆弱的 if/else 链。我们是在 Twilio 和 Atlassian 团队的参与下构建的。它处理意图漂移,支持多轮对话,并允许您通过对路由策略进行一行更改来替换模型。完整细节请参阅我们的论文(<https://arxiv.org/abs/2506.16655>),但这里有一个概览: 规格: * 15 亿参数——在单个 GPU(或用于测试的 CPU)上运行 * 无需重新训练——将其指向任何 LLM 组合 * 成本和延迟感知——将繁重的任务路由到昂贵的模型,将轻量级任务路由到更快/更便宜的模型 * 在我们的对话路由基准测试中,优于更大的闭源模型(详情请参阅论文) 链接: * Arch 代理(开源):<https://github.com/katanemo/archgw> * 模型 + 代码:<https://huggingface.co/katanemo/Arch-Router-1.5B> * 论文:<https://arxiv.org/abs/2506.16655>
5作者: AllanSavageDev8 个月前
我刚被锁定了我的领英账户,震惊地发现,重新登录的唯一方法是通过一个名为 Persona 的第三方服务提交政府颁发的身份证明和自拍视频。 他们不提供任何其他方法——没有电子邮件验证,没有人工审核,什么都没有。要么: 提交生物识别面部识别,要么 失去对你账户的访问权限(在许多情况下,也包括你的职业人脉)。 我住在美国(印第安纳州/德克萨斯州),并调查了相关的法律影响。虽然有一些关于生物识别数据的法律,但没有实际可行的方法可以选择退出或要求替代方案。 对于一个职业社交平台来说,这似乎是一个巨大的权力扩张。 并非所有人都愿意将面部扫描和身份证明交给第三方供应商,仅仅是为了继续使用他们的个人资料。 尤其是在标记原因不明确,并且没有申诉途径的情况下。 有没有其他人遇到过这种情况? 其他平台现在也这样做吗? 我很想知道是否有任何解决方法,或者是否有人成功地对此进行了抗争。
1作者: samuelgursky8 个月前
在过去的 15 年里,我曾担任 AE/剪辑师、DIT、调色师、线上剪辑师和后期制作主管。基于我的经验,我开发了一款工具,希望对你们中的一些人有所帮助! 它是一款电影计算器(宽高比、目标帧率、目标比特率等),名为 CineMath,可在 Apple App Store 免费下载。 我非常感谢任何反馈,并希望它能帮助大家的工作流程!
3作者: julkali8 个月前
我为我妈妈创建了一个小插件,用于从她工作中使用的第三方在线网络应用程序中提取数据。<p>除了她以外,没有人会使用这个插件,但它确实对她的工作流程有很大帮助。它很小,大约有 50 行代码。<p>现在,正如标题所说,我发现为了在 Release 版本中安装插件,你_必须_对插件进行签名,也就是说,让 Mozilla 审查它(就我的情况而言,这是不可能的,因为涉及第三方集成)[1]。在我看来,她无法在自己的电脑上安装这个插件(而无需切换到 Nightly 或 Developer 版本,她不应该这样做),并使用它,这简直太疯狂了,而且坦白说,Mozilla 像这样对他们的软件进行门禁控制,非常像 Google 的风格。<p>如果这是为了通过 Mozilla 商店分发插件的要求,我完全可以理解,但这太过分了。<p>关于这个问题的两年前的帖子被忽略了 [2]。<p>你对此有什么看法?<p>[1] https:&#x2F;&#x2F;wiki.mozilla.org&#x2F;Add-ons&#x2F;Extension_Signing [2] https:&#x2F;&#x2F;connect.mozilla.org&#x2F;t5&#x2F;ideas&#x2F;allow-manually-permanently-installed-unsigned-extensions&#x2F;idi-p&#x2F;26583
10作者: Manik_agg8 个月前
我一直遇到同样的问题,每个 AI 应用都以各自独立的方式“记住”我。ChatGPT 知道我的项目细节,Cursor 却忘记了,Claude 又从头开始…… 结果我每天都要在这些应用之间反复解释几十次。<p>更深层的问题<p>1. 不可移植 – 上下文被供应商锁定;信息无法在不同工具间传递。<p>2. 非关系型 – 大多数记忆系统只存储最新的事实(“便利贴”),没有历史记录或来源信息。<p>3. 不属于你 – 你的 AI 记忆是敏感的第一方数据,但你无法控制它存储在哪里或如何被查询。<p>演示视频:<a href="https:&#x2F;&#x2F;youtu.be&#x2F;iANZ32dnK60" rel="nofollow">https:&#x2F;&#x2F;youtu.be&#x2F;iANZ32dnK60</a><p>代码库:<a href="https:&#x2F;&#x2F;github.com&#x2F;RedPlanetHQ&#x2F;core">https:&#x2F;&#x2F;github.com&#x2F;RedPlanetHQ&#x2F;core</a><p>我们构建了什么<p>- CORE(面向上下文的关系引擎):一个开源、可共享的知识图谱(你的记忆库),允许任何 LLM(ChatGPT、Cursor、Claude、SOL 等)共享和查询相同的持久上下文。<p>- 时间 + 关系型:每个事实都有完整的版本历史(谁、何时、为什么),当你更改它时,任何信息都不会被抹去——只是被打上时间戳并被存档。<p>- 本地优先或托管:在 Docker 中离线运行,或使用我们的托管实例。你可以选择哪些记忆同步,哪些保持私密。<p>试用<p>- 托管免费层(HN 发布):<a href="https:&#x2F;&#x2F;core.heysol.ai">https:&#x2F;&#x2F;core.heysol.ai</a><p>- 文档:<a href="https:&#x2F;&#x2F;docs.heysol.ai&#x2F;core&#x2F;overview">https:&#x2F;&#x2F;docs.heysol.ai&#x2F;core&#x2F;overview</a>