1 分•作者: chalmovsky•2 天前
返回首页
最新
1 分•作者: CharlesW•2 天前
1 分•作者: zokrezyl•2 天前
1 分•作者: ashergill•2 天前
1 分•作者: fmfamaral•2 天前
1 分•作者: Stanislaw_•2 天前
1 分•作者: terracatta•2 天前
1 分•作者: reconnecting•2 天前
1 分•作者: 1vuio0pswjnm7•2 天前
87 分•作者: donohoe•2 天前
80 分•作者: ck2•2 天前
1 分•作者: wahnfrieden•2 天前
1 分•作者: kreyenborgi•2 天前
1 分•作者: pinewurst•2 天前
1 分•作者: poniko•2 天前
13 分•作者: beklein•2 天前
1 分•作者: justvugg•2 天前
我们为 Polymcp 增加了对 Ollama 的一流支持,让运行大型语言模型变得简单——无论您是在本地工作还是在云端部署。
通过使用 Ollama 作为后端提供商,Polymcp 可以以最少的配置协调 MCP 服务器和模型。这让您可以专注于构建代理,而不是搭建基础设施。
```python
from polymcp.polyagent import PolyAgent, OllamaProvider
agent = PolyAgent(
llm_provider=OllamaProvider(model="gpt-oss:120b"),
mcp_servers=["http://localhost:8000/mcp"]
)
result = agent.run("法国的首都是什么?")
print(result)
```
这带来的好处:
* 干净的编排:Polymcp 管理 MCP 服务器,而 Ollama 处理模型执行。
* 相同的流程,随处可用:在您的笔记本电脑或云端运行相同的设置。
* 灵活的模型选择:适用于 gpt-oss:120b、Kimi K2、Nemotron 以及 Ollama 支持的其他模型。
我们的目标是提供一种简单直接的方式来试验和部署由 LLM 驱动的代理,而无需额外的胶水代码。
欢迎提供关于您将如何使用此功能的反馈或想法。
仓库:[https://github.com/poly-mcp/Polymcp](https://github.com/poly-mcp/Polymcp)
1 分•作者: petethomas•2 天前
1 分•作者: wxw•2 天前
5 分•作者: g-mork•2 天前