1 分•作者: kpapa05•8 天前
返回首页
最新
1 分•作者: ilamont•8 天前
1 分•作者: petethomas•8 天前
1 分•作者: y1n0•8 天前
2 分•作者: Gaishan•8 天前
2 分•作者: y1n0•8 天前
1 分•作者: y1n0•8 天前
1 分•作者: simontlbt•8 天前
1 分•作者: nikodunk•8 天前
3 分•作者: RedsonNgwira•8 天前
1 分•作者: wglb•8 天前
2 分•作者: absqueued•8 天前
1 分•作者: Heer_J•8 天前
我厌倦了我的 AI 智能体因为 LLM 幻觉 JSON 键或传递字符串而不是整数而崩溃。所以我构建了 ToolGuard——它使用边缘情况(空值、缺失字段、类型不匹配、10MB 负载)对你的 Python 工具函数进行模糊测试,并给你一个 100 分的可靠性评分。<p>运行测试不需要 LLM。它读取你的类型提示,生成一个 Pydantic 模式,并确定性地破坏事物。<p>pip install py-toolguard<p>GitHub: <a href="https://github.com/Harshit-J004/toolguard" rel="nofollow">https://github.com/Harshit-J004/toolguard</a><p>如果你正在构建复杂的工具链,如果你查看该仓库,我将感到非常荣幸。 强烈欢迎对架构进行严厉的反馈!
1 分•作者: mcdoolz•8 天前
2 分•作者: joguel96•8 天前
Hi HN,
我一直在开发一种数据序列化格式,旨在通过消除重复的键冗余并优化整体结构,使其比 JSON 轻量得多。今天,我开源了 JavaScript SDK (lytok-js)。
在我们使用 WASM 引擎的最新基准测试中,Lytok 实现了:
* 有效载荷减少 64.77%。
* 网络和解析速度提高 50.19%。
* 将复杂结构输入 AI 模型时,LLM 节省 49.51% 的 token。
核心思想是通过定义映射来提炼结构(您可以在 Lab 中进行测试)。这使得引擎能够处理繁重的工作,从而使瘦客户端和高流量网络不会被冗余数据饱和。
GitHub 仓库:[https://github.com/lytok/lytok-js](https://github.com/lytok/lytok-js)
交互式 Lab:[https://lytoklab.netlify.app/](https://lytoklab.netlify.app/)
我很乐意听取您的想法、架构批评或优化建议。
1 分•作者: PaulHoule•8 天前
1 分•作者: adrianvi•8 天前
一个简化构建 RAG 系统时 LLM 调用、数据库检索、重新排序、对话存储和嵌入的 Python 小型库。
该库有意仅公开跨提供商通用的功能,以避免特定于提供商的参数。
像 LangChain 这样的库提供了许多集成,但通常依赖于许多抽象、大量使用关键字参数以及难以定制的复杂代码。
功能:
- 同步和异步 API
- LLM 调用:调用和流式传输(温度,推理级别)
- 响应元数据:答案、token 使用情况、停止原因
- RAG 文档:检索、重新排序、嵌入
- 聊天历史:对话存储
- 跨提供商的通用错误处理
- 提供商:OpenAI、Anthropic、Google、AWS
重试逻辑留给用户处理(参见 README)。 暂不支持 Agent 功能。
2 分•作者: WorldPeas•8 天前
2 分•作者: KenRuf•8 天前
1 分•作者: bysyd•8 天前
对话似乎总是围绕着寻找联合创始人或融资展开。这其实只是表层问题,本质上是结果。作为创始人,是什么阻碍了你?如果能深入挖掘,而不是停留在表面,那就太好了。