1作者: justvugg2 天前
我们为 Polymcp 增加了对 Ollama 的一流支持,让运行大型语言模型变得简单——无论您是在本地工作还是在云端部署。 通过使用 Ollama 作为后端提供商,Polymcp 可以以最少的配置协调 MCP 服务器和模型。这让您可以专注于构建代理,而不是搭建基础设施。 ```python from polymcp.polyagent import PolyAgent, OllamaProvider agent = PolyAgent( llm_provider=OllamaProvider(model="gpt-oss:120b"), mcp_servers=["http://localhost:8000/mcp"] ) result = agent.run("法国的首都是什么?") print(result) ``` 这带来的好处: * 干净的编排:Polymcp 管理 MCP 服务器,而 Ollama 处理模型执行。 * 相同的流程,随处可用:在您的笔记本电脑或云端运行相同的设置。 * 灵活的模型选择:适用于 gpt-oss:120b、Kimi K2、Nemotron 以及 Ollama 支持的其他模型。 我们的目标是提供一种简单直接的方式来试验和部署由 LLM 驱动的代理,而无需额外的胶水代码。 欢迎提供关于您将如何使用此功能的反馈或想法。 仓库:[https://github.com/poly-mcp/Polymcp](https://github.com/poly-mcp/Polymcp)
5作者: NBenkovich2 天前
为了提高 AI 智能体的效率,我们需要构建与真实系统之间的反馈循环:部署、日志、配置、环境、仪表盘。<p>但问题就出在这里。<p>大多数现代应用程序没有细粒度的权限控制。<p>举个具体的例子:Vercel。如果我想让一个智能体读取日志或检查环境变量,我必须给它一个令牌,而这个令牌也允许它修改或删除东西。没有干净的只读或能力范围限定的访问权限。<p>这不仅仅是 Vercel 的问题。我在云仪表盘、CI/CD 系统和 SaaS API 中也看到了同样的模式,这些系统都是围绕着值得信赖的人类设计的,而不是自主智能体。<p>所以真正的问题是:<p>人们今天在生产环境中是如何限制 AI 智能体的?<p>你们是在构建强制执行策略的代理层吗?用白名单封装 API 吗?还是仅仅接受风险?<p>感觉我们正在试图将自主系统连接到从未为它们设计的基础设施上。<p>很想知道其他人是如何在实际环境中处理这个问题的,而不是停留在理论层面。
1作者: DavidMiserak2 天前
PoopyFeed 是一款我用 Django 搭建的开源婴儿护理追踪应用。它可以追踪喂奶(奶瓶/母乳)、更换尿布和午睡情况。 我开发它的主要原因:市面上现有的婴儿追踪应用要么需要订阅,要么需要在它们的服务器上注册账号,或者不支持多个看护人很好地协作。我想要一个可以自托管的应用,这样我家人的数据就可以掌握在我们自己手中。 主要功能: * 追踪喂奶(奶瓶喂奶量,单位为盎司,或母乳喂养时长/侧),尿布(湿/脏/两者都有),以及午睡 * 通过邀请链接与他人分享孩子信息 * 基于角色的访问权限:共同父母拥有完全编辑权限,看护人只能查看和添加条目 * 支持多子女 * 移动端友好界面(专为单手抱娃时使用而设计) 技术栈:Django 6.0、PostgreSQL、Bootstrap 5。通过包含的蓝图一键部署到 Render,或使用 Podman/Docker 自托管。 GitHub:https://github.com/DavidMiserak/poopyfeed 欢迎反馈,尤其是来自其他在凌晨 3 点处理过“谁上次喂了宝宝?”问题的父母。