返回首页

一周热榜

1作者: bysyd4 天前
对话似乎总是围绕着寻找联合创始人或融资展开。这其实只是表层问题,本质上是结果。作为创始人,是什么阻碍了你?如果能深入挖掘,而不是停留在表面,那就太好了。
1作者: adrianvi4 天前
一个简化构建 RAG 系统时 LLM 调用、数据库检索、重新排序、对话存储和嵌入的 Python 小型库。 该库有意仅公开跨提供商通用的功能,以避免特定于提供商的参数。 像 LangChain 这样的库提供了许多集成,但通常依赖于许多抽象、大量使用关键字参数以及难以定制的复杂代码。 功能: - 同步和异步 API - LLM 调用:调用和流式传输(温度,推理级别) - 响应元数据:答案、token 使用情况、停止原因 - RAG 文档:检索、重新排序、嵌入 - 聊天历史:对话存储 - 跨提供商的通用错误处理 - 提供商:OpenAI、Anthropic、Google、AWS 重试逻辑留给用户处理(参见 README)。 暂不支持 Agent 功能。
1作者: Heer_J4 天前
我厌倦了我的 AI 智能体因为 LLM 幻觉 JSON 键或传递字符串而不是整数而崩溃。所以我构建了 ToolGuard——它使用边缘情况(空值、缺失字段、类型不匹配、10MB 负载)对你的 Python 工具函数进行模糊测试,并给你一个 100 分的可靠性评分。<p>运行测试不需要 LLM。它读取你的类型提示,生成一个 Pydantic 模式,并确定性地破坏事物。<p>pip install py-toolguard<p>GitHub: <a href="https:&#x2F;&#x2F;github.com&#x2F;Harshit-J004&#x2F;toolguard" rel="nofollow">https:&#x2F;&#x2F;github.com&#x2F;Harshit-J004&#x2F;toolguard</a><p>如果你正在构建复杂的工具链,如果你查看该仓库,我将感到非常荣幸。 强烈欢迎对架构进行严厉的反馈!
1作者: rishavmitra4 天前
我们在 Zalor 发布了一项新功能:用于 Agent 测试的自定义数据集。<p>现在您可以: • 上传包含真实输入和预期输出的 CSV 文件 • 针对这些数据集运行您的 Agent • 从现有测试用例中生成新的测试用例,以涵盖边缘情况<p>这使得测试您之前手动测试的场景以及在 Agent 更改时捕获回归问题变得更加容易。<p>演示如下。欢迎任何构建 Agent 的人提供反馈。