2作者: Paralus6 天前
当你的 Python 代码崩溃时,你会得到一个回溯信息。你可以看到它在哪里失败了。但你几乎永远不知道它为什么失败——那一刻内存里到底有什么。<p>我构建了 F. Incantatem 来解决这个问题。添加一个装饰器,当你的代码崩溃时,一个 LLM(大型语言模型)会捕获完整的上下文——堆栈跟踪、源代码、实际的变量值——并解释出了什么问题以及如何修复它。<p>它集成了装饰器、CLI 工具或 IPython 扩展。与 OpenAI、OpenRouter 或通过 Ollama 本地运行。谨慎模式会在传输前自动编辑掉密钥和 PII(个人身份信息)。零核心依赖。<p>我分享它是因为我一直在想,其他人一定也在调试这些同样的、不可能解决的错误。欢迎提问或提供反馈。<p>另外值得注意的是,还有一些工作要做(见路线图)。<p>代码库:<a href="https:&#x2F;&#x2F;github.com&#x2F;aguilar-ai&#x2F;fincantatem" rel="nofollow">https:&#x2F;&#x2F;github.com&#x2F;aguilar-ai&#x2F;fincantatem</a><p>PyPi:<a href="https:&#x2F;&#x2F;pypi.org&#x2F;project&#x2F;fincantatem&#x2F;" rel="nofollow">https:&#x2F;&#x2F;pypi.org&#x2F;project&#x2F;fincantatem&#x2F;</a>
6作者: justintorre756 天前
我制作了一个工具,可以同时向 GPT、Claude、Gemini、Llama、Grok 和 DeepSeek 呈现定制的电车难题,并实时流式传输它们的伦理推理。<p>一些有趣的发现: - 模型在经典困境上出人意料地存在分歧。 - 模型会保护它们的创造者(萨姆·阿尔特曼 vs 达里奥·阿莫迪)。 - 即使与自身相比,罪犯的价值也不平等。<p>试用一下:<a href="https:&#x2F;&#x2F;aitrolleyproblem.com" rel="nofollow">https:&#x2F;&#x2F;aitrolleyproblem.com</a>
3作者: yashwantphogat6 天前
我对大家使用代码审查(PR review)的体验很感兴趣,包括人工审查和自动化审查。 对于使用过 PR 审查工具或机器人的人: * 你们觉得哪些功能真正有帮助? * 哪些功能最终变得令人讨厌或适得其反? * 你们在什么时候开始不再关注反馈意见? 我特别想了解大家是如何在审查中平衡“有效信息”和“噪音”的,以及摘要、行内注释或选择性深度审查哪种方式在实践中效果更好。 我只是想了解真实的使用模式和痛点,而不是为了推广任何东西。 欢迎大家分享经验。