返回首页

一周热榜

1作者: nicholast4 天前
这是一个为 LLM 聊天服务设计的模板默认提示注入方案。其前提是,由于消费者 AI 门户网站通常缺乏针对不同声音的代理设置,我们可以将一些默认声音硬编码到原生提示注入中,以便在聊天会话期间通过关键词进行访问。这可能有助于在快节奏的环境中快速访问,以支持不同类型的交互议程。
1作者: nedhuang3 天前
我是 Ned,Birthday Invitation AI 的创始人。 作为一名家长,我深知筹备生日派对的喜悦(和压力!)。找到与孩子兴趣相符的完美邀请函、管理几十个同学的回复、确保每个人都知道派对的细节——除了其他事情之外,这需要处理很多事情。 这就是我创建 Birthday Invitation AI 的原因。 我们的 AI 了解您的需求——无论是为您 3 岁的孩子举办的粉红猪小妹派对,还是为您妈妈举办的 60 岁优雅晚宴——并在不到一分钟的时间内创建出精美、个性化的邀请函。无需设计技能。只需用任何语言描述您想要的,我们的 AI 就会将您的愿景变为现实。 每张邀请函都包含一个二维码,让回复变得轻而易举。客人扫描、确认,您就可以实时查看所有信息。不再需要追逐回复或跟踪谁会来。 通过这项终身优惠,您不仅仅是获得一个工具——您正在为您的家人未来的每一次生日庆祝活动获得安心。 感谢您参与我们的旅程! Ned Huang 创始人,Birthday Invitation AI
1作者: oliveskin3 天前
嗨,HN, 我开发了 Tinman,因为在生产环境中发现 LLM 故障太麻烦了。传统的测试会检查你已经想到的东西。Tinman 试图发现你还没想到的东西。 它是一个自主研究代理,可以: - 生成关于潜在故障模式的假设 - 设计并运行实验来测试这些假设 - 对故障进行分类(推理错误、工具使用、上下文问题等) - 提出干预措施并通过模拟进行验证 核心循环持续运行。每个周期为下一个周期提供信息。 为什么是现在:随着 OpenClaw/ClawdBot 等工具赋予代理对系统的实际访问权限,故障面比“糟糕的聊天机器人回复”大得多。Tinman 有一个网关适配器,可以连接到 OpenClaw 的 WebSocket 流,以便在请求流经时进行实时分析。 三种模式: - LAB:针对开发环境的无限制研究 - SHADOW:观察生产环境,标记问题 - PRODUCTION:需要人工批准 技术: - Python,全程异步 - 可扩展的 GatewayAdapter ABC,适用于任何代理/网关 - 用于跟踪已知信息的记忆图 - 适用于 OpenAI、Anthropic、Ollama、Groq、OpenRouter、Together ``` pip install AgentTinman tinman init && tinman tui ``` GitHub: [https://github.com/oliveskin/Agent-Tinman](https://github.com/oliveskin/Agent-Tinman) 文档: [https://oliveskin.github.io/Agent-Tinman/](https://oliveskin.github.io/Agent-Tinman/) OpenClaw 适配器: [https://github.com/oliveskin/tinman-openclaw-eval](https://github.com/oliveskin/tinman-openclaw-eval) Apache 2.0 许可证。无遥测,无付费层级。欢迎反馈和贡献。