Ask HN:你常用的本地 LLM 工具栈是什么?

2作者: Olshansky10 个月前
我在问 HN: 你们真正有用的本地 LLM 栈是什么样的? 我正在寻找能提供真正价值的东西——不仅仅是一个炫酷的演示。 --- 最近一次互联网中断后,我意识到我需要一个本地 LLM 设置作为备用方案——不仅仅是为了实验和娱乐。 我日常(远程)的 LLM 栈: ``` - Claude Max(每月 100 美元):我进行结对编程的首选。大量使用 Claude 的 Web 和桌面客户端。 - Windsurf Pro(每月 15 美元):喜欢它的多行自动补全功能以及它如何使用剪贴板/上下文感知。 - ChatGPT Plus(每月 20 美元):我的橡皮鸭,编辑器和创意伙伴。我用它做除了代码之外的所有事情。 ``` 这是我目前为我的本地栈拼凑的东西: 工具 ``` - Ollama:用于在本地运行模型 - Aider:Claude-code 风格的 CLI 界面 - VSCode 搭配 continue.dev 扩展:本地聊天和自动补全 ``` 模型 ``` - 聊天:llama3.1:latest - 自动补全:Qwen2.5 Coder 1.5B - 编码/编辑:deepseek-coder-v2:16b ``` 我不担心的事情: ``` - CPU/内存(在 M1 MacBook 上运行) - 成本(在合理范围内) - 数据隐私/被训练(这里不想引发哲学辩论) ``` 我担心的事情: ``` - 实际的实用性(即“感觉”) - 易用性(符合我的肌肉记忆的工具) - 正确性(不是基准测试) - 延迟和速度 ``` 目前:我已经让它工作了。我可以做一个很棒的演示。但它还没有真正有用。 --- 我是谁 ``` - 一家小型初创公司的 CTO(5 位优秀的工程师) - 20 年的编码经验(从 13 岁开始) - 前大厂员工 ```
查看原文
What I’m asking HN:<p>What does your actually useful local LLM stack look like?<p>I’m looking for something that provides you with real value — not just a sexy demo.<p>---<p>After a recent internet outage, I realized I need a local LLM setup as a backup — not just for experimentation and fun.<p>My daily (remote) LLM stack:<p><pre><code> - Claude Max ($100&#x2F;mo): My go-to for pair programming. Heavy user of both the Claude web and desktop clients. - Windsurf Pro ($15&#x2F;mo): Love the multi-line autocomplete and how it uses clipboard&#x2F;context awareness. - ChatGPT Plus ($20&#x2F;mo): My rubber duck, editor, and ideation partner. I use it for everything except code. </code></pre> Here’s what I’ve cobbled together for my local stack so far:<p>Tools<p><pre><code> - Ollama: for running models locally - Aider: Claude-code-style CLI interface - VSCode w&#x2F; continue.dev extension: local chat &amp; autocomplete </code></pre> Models<p><pre><code> - Chat: llama3.1:latest - Autocomplete: Qwen2.5 Coder 1.5B - Coding&#x2F;Editing: deepseek-coder-v2:16b </code></pre> Things I’m not worried about:<p><pre><code> - CPU&#x2F;Memory (running on an M1 MacBook) - Cost (within reason) - Data privacy &#x2F; being trained on (not trying to start a philosophical debate here) </code></pre> I am worried about:<p><pre><code> - Actual usefulness (i.e. “vibes”) - Ease of use (tools that fit with my muscle memory) - Correctness (not benchmarks) - Latency &amp; speed </code></pre> Right now: I’ve got it working. I could make a slick demo. But it’s not actually useful yet.<p>---<p>Who I am<p><pre><code> - CTO of a small startup (5 amazing engineers) - 20 years of coding (since I was 13) - Ex-big tech</code></pre>