2作者: hhuytho3 天前
我们使用了 PrismML 发布的 Bonsai 1.7B 三元模型(<a href="https:&#x2F;&#x2F;github.com&#x2F;PrismML-Eng&#x2F;Bonsai-demo" rel="nofollow">https:&#x2F;&#x2F;github.com&#x2F;PrismML-Eng&#x2F;Bonsai-demo</a>),并对其进行了 6 小时的智能体演化搜索,以优化 Metal 内核。整个搜索过程是完全自主进行的。 在相同的 Bonsai/Q2_0 提交版本下,使用相同的 M4 Max 硬件,与未经修改的 llama.cpp 相比,性能提升如下: - tg128:309.82 → 442.42 tokens/秒 (+42.0%) - pp512:4250.32 → 4622.63 tokens/秒 (+8.8%)
1作者: mavdol043 天前
我一直觉得现有的 Bash 并不适合 Agent。它给予了过多的自由度,而没有提供足够的反馈来丰富每个命令执行后的上下文信息。 最终,我构建了这个基于 TypeScript 的沙盒 Bash。如果将其与其他替代方案进行比较,它被分成了两层: - 核心层,包含所有 Bash 命令和操作逻辑。 - 运行时层,一个可插拔的部分,负责管理沙盒中的代码执行。目前有一个基于我几个月前启动的 Rust 运行时 [1] 的 Wasm 运行时可用。 实际上,核心层调用运行时来执行代码,并从沙盒中获取结构化信息,包括确切的文件系统更改(创建、修改或删除的内容)以及标准输出中的直接反馈。 我添加了常用的命令,包括 `python3 -c` 和 `node -e`,但如果你发现当前命令无法满足的边缘情况,请告诉我。 GitHub: [https://github.com/capsulerun/bash](https://github.com/capsulerun/bash) -- [1]: [https://news.ycombinator.com/item?id=46871387](https://news.ycombinator.com/item?id=46871387)