1作者: mesmertech22 天前
在推特上看到这个东西火起来了,所以想试着用“氛围代码”写一个。这主要是一次实践,看看从有想法到上线一个“氛围代码”的简单应用需要多久,这个应用不需要数据库或其他任何东西。<p>结果表明,从购买域名到部署上线大约需要一个小时。如果我直接用 Vercel 可能会更快,但这个应用需要用到 ImageMagick 作为一个命令行工具,而搞清楚 ImageMagick 的 wasm 设置花了我太长时间。
1作者: machopanko22 天前
大家好, 非常激动,在产品上线两周后,迎来了我的第一个付费客户,尝到了成功的滋味。 这款产品是我在完成毕业论文和做合同工的同时开发的。我存了 18000 美元,花了六个月的时间发布新功能和修复错误,老实说,我都不确定是否会有人使用它。所以看到第一个客户的时候,感觉非常不真实。 现在怎么办?我对此感到非常高兴,但与此同时,我也希望得到一些现实的指导,并学习如何扩展我的产品,而不是沉溺于这种创始人式的兴奋中。所以我的问题是,我应该如何从这里开始扩展? 欢迎大家提出反馈、想法和评论。 着陆页(说明) -&gt; https://haxiom.io 产品页面(应用程序) -&gt; https://app.haxiom.io 技术栈: 后端:ElysiaJS + Axum 前端:SolidJS + Rust WASM markdown 渲染器 数据库:PostgreSQL + PgVector 分析数据库:Turso CDN:Cloudflare LLM/嵌入:Gemini 基础设施:DigitalOcean
1作者: muragekibicho22 天前
我不知道你们是不是也一样。上个月我停止向 GitHub 提交代码了,因为我实在受不了提交代码时强制生成的 AI 摘要。<p>今天我需要为我的客户提交代码,结果提交时没有再看到那些 LLM 生成的垃圾摘要。<p>他们居然听取了我们的意见,移除了那个 AI 废话,这让我印象深刻。<p>不过,我也意识到我可能正在参与某种奇怪的 A/B 测试,所以不太确定你们是否还能看到 LLM 生成的摘要垃圾。
1作者: tosh22 天前
1作者: Anh_Nguyen_vn22 天前
我正在构建 *StillMe*,一个开源的“透明 RAG”框架,它非常努力地 <i>不</i> 假装无所不知。 与仅仅提示 LLM 并寄希望于最好的结果不同,StillMe: - 通过一个 *多层验证器链* 运行所有答案(6 个核心验证器 + 条件验证器,总共最多 13 个,取决于上下文) - 自动修复缺失的引用和幻觉的“经验” - 记录 *系统级步骤*(RAG 检索、验证器、时间分解) - 将“我不知道”视为一个 <i>一流的、诚实的状态</i>,并进行明确的认知跟踪 --- ## StillMe 实际做什么 对于每个用户查询,StillMe: 1. 检测意图(哲学、技术或事实) 2. 相应地路由和过滤 RAG 上下文 3. 构建一个安全的提示(令牌感知、语言感知) 4. 调用底层 LLM(本地或云端) 5. 运行一个 *验证器链*: - `CitationRequired` → 添加 `[基础知识]` 或真实的网络/RAG 引用 - `EvidenceOverlap` → 检查答案与检索到的上下文(仅当上下文可用时) - `Ego-Neutrality` → 删除拟人化语言(“我感觉”、“我的经验”等) - `SourceConsensus` → 检测多个来源之间的矛盾(仅当有 2 个以上来源时) - `EthicsAdapter` → 避免不安全的建议,同时保持诚实 6. 记录结构化时间: - RAG 检索延迟 - LLM 推理延迟 - 验证和后处理 --- ## 真实的日志摘录(单个哲学问题) ```log StillMe 哲学查询跟踪(真实的后端日志摘录) [INFO] 检测到哲学问题 — 过滤掉技术 RAG 文档 [INFO] 检索到 3 份基础知识文档(RAG 缓存命中) [WARNING] 估计的令牌超过安全限制 — 切换到最小哲学提示 [WARNING] 检测到缺失的引用 — 使用 [基础知识] 自动修复 [WARNING] Ego-Neutrality 验证器删除了拟人化术语:[&#x27;trải nghiệm&#x27;] --- 延迟 --- RAG:3.30 秒 | LLM:5.41 秒 | 总计:12.04 秒 ``` --- ## 我为什么要构建这个 当今大多数 LLM 系统: - 隐藏其推理 - 敷衍引用 - 夸大置信度 - 将“我不知道”视为失败 StillMe 则反其道而行之: - *透明度优先*:每个主要决策都会被记录 - *认知诚实*:允许(并鼓励)说“我不知道” - *模型无关*:适用于本地和云 LLM(DeepSeek、OpenAI、Ollama) - *无需微调*:所有行为都在框架层强制执行 --- ## 寻求反馈和贡献者 我是一个来自越南的独立开发者。StillMe 已经: - 作为后端 + 仪表板运行 - 与真实的学习管道集成(RSS、arXiv、维基百科 - 每 4 小时更新一次) - 使用具有基础文档的实时 RAG 系统 仓库:https://github.com/anhmtk/StillMe-Learning-AI-System-RAG-Foundation 我希望收到关于以下方面的反馈: - 验证器架构 - 更好地构建日志和可观察性的方法 - 使项目更易于贡献 - 任何用于压力测试“诚实/透明度”声明的想法 感谢您的阅读 — 如果有人感兴趣,我很乐意回答问题并分享更多日志、图表或内部细节。
2作者: okaywebhost_com22 天前
嗨,HN 社区, 我正在做一个名为 OkayWebHost 的小项目,这是一个托管主机服务。我构建它的原因是,我周围的很多人(本地企业、医生、朋友们正在构建副业项目)都需要快速、可靠的托管服务,但他们没有技术能力来管理 VPS 服务器、设置 CloudPanel、配置缓存、管理备份或保护他们的 WordPress 网站。 印度的大多数主流托管服务提供商要么超售共享计划,要么使托管主机变得极其昂贵。我不断遇到那些希望获得 VPS 优势(速度、控制、稳定性)但又不想承担实际维护 VPS 成本的人。因此,我围绕 CloudPanel 创建了一个轻量级、有主见的托管主机服务。 这是我目前构建的内容: * 基于 CloudPanel 的技术栈(Nginx + PHP-FPM、Redis、MariaDB) 开箱即用,预先配置好性能。用户可以获得这些好处,除非他们想,否则永远不必接触控制面板。 * 个性化入职 每个站点目前都由我手动配置。没有“点击即用”的仪表板。适当的 DNS 设置、服务器调优、SSL、缓存、速率限制和安全强化。 * 隔离环境 每个项目都有自己的 VPS 环境。我完全避免了共享主机“邻居噪音”的问题。 * WordPress 优先体验 自动对象缓存、图像优化建议以及插件/主题限制,以保持性能和安全性。 * 简单定价 我希望这对于自由职业者、机构、医生、中小企业——尤其是在印度——来说是可负担的。 我并不想与 Kinsta、SiteGround 或 Cloudways 等巨头竞争。这个项目开始于我帮助一些人加速他们糟糕的 WordPress 网站,这导致了更多的请求,最终促使我围绕它构建了一个合适的服务。 目前,我正在独自完成所有事情:配置服务器、自动化部署、编写仪表板、处理支持。这是一个引人入胜的学习曲线。 我很乐意从 HN 社区获得反馈: 1. 接下来我应该专注于哪里才能使其真正有用? 开发者工具?API?Git 部署?更好的入职流程?自助服务控制面板? 2. 您认为在托管领域,小型提供商仍然可以解决哪些痛点? 3. 如果您正在使用托管主机,您希望它能出色完成的一件事是什么? 如果有人感兴趣,这是该网站: [https://okaywebhost.com](https://okaywebhost.com) 我很乐意回答任何问题——技术决策、技术栈、部署流程、CloudPanel 的怪癖、定价选择、扩展限制,甚至是作为一名独立创始人尝试启动托管服务的混乱部分。 感谢您的阅读,并感谢您分享的任何见解。 —— Jayant