1 分•作者: tensorpoet•9 个月前
返回首页
最新
5 分•作者: geox•9 个月前
30 分•作者: alexcos•9 个月前
7 分•作者: Metalnem•9 个月前
202 分•作者: pseudolus•9 个月前
1 分•作者: ohjeez•9 个月前
1 分•作者: danielschreber•9 个月前
1 分•作者: Bluestein•9 个月前
1 分•作者: Bluestein•9 个月前
2 分•作者: Bogdanp•9 个月前
1 分•作者: xalaa•9 个月前
我厌倦了无休止地滚动浏览类名和类型定义,所以我构建了一个 VS Code 扩展,用表情符号来装饰你的代码。最棒的是?它不会将任何内容注入到你的实际文本中,因此不会出现编译错误或语法高亮显示问题。
非常适合:
- 让代码审查更有趣
- 快速识别不同类型的类/组件
- 为你的代码库增添个性
1 分•作者: khaledaka•9 个月前
1 分•作者: horsellama•9 个月前
3 分•作者: uptown•9 个月前
1 分•作者: adwmayer•9 个月前
2 分•作者: mrqjr•9 个月前
我最近构建了一个小型开源工具,用于基准测试不同的 LLM API 端点——包括 OpenAI、Claude 和自托管模型(如 llama.cpp)。
它运行可配置数量的测试请求,并报告两个关键指标:
* 首个 token 延迟(毫秒):第一个 token 出现所需的时间
* 输出速度(token/秒):整体输出流畅度
演示:[https://llmapitest.com/](https://llmapitest.com/)
代码:[https://github.com/qjr87/llm-api-test](https://github.com/qjr87/llm-api-test)
目标是提供一种简单、直观且可复现的方式,来评估不同 LLM 提供商的性能,包括越来越多的第三方“代理”或“廉价 LLM API”服务。
它支持:
* 与 OpenAI 兼容的 API(官方 + 代理)
* Claude(通过 Anthropic)
* 本地端点(自定义/自托管)
您也可以使用 docker-compose 自行托管它。
配置清晰,添加新的提供商只需一个简单的插件式添加。
欢迎提供反馈、PR,甚至您正在使用的 API 的测试报告。特别感兴趣的是一些鲜为人知的服务之间的比较。
14 分•作者: kelindar•9 个月前
14 分•作者: vitali•9 个月前
2 分•作者: raulfdm•9 个月前
1 分•作者: MilnerRoute•9 个月前