1 分•作者: seinvak•22 天前
返回首页
最新
1 分•作者: violinar•22 天前
2 分•作者: beardyw•22 天前
1 分•作者: mesmertech•22 天前
在推特上看到这个东西火起来了,所以想试着用“氛围代码”写一个。这主要是一次实践,看看从有想法到上线一个“氛围代码”的简单应用需要多久,这个应用不需要数据库或其他任何东西。<p>结果表明,从购买域名到部署上线大约需要一个小时。如果我直接用 Vercel 可能会更快,但这个应用需要用到 ImageMagick 作为一个命令行工具,而搞清楚 ImageMagick 的 wasm 设置花了我太长时间。
1 分•作者: tosh•22 天前
1 分•作者: machopanko•22 天前
大家好,
非常激动,在产品上线两周后,迎来了我的第一个付费客户,尝到了成功的滋味。
这款产品是我在完成毕业论文和做合同工的同时开发的。我存了 18000 美元,花了六个月的时间发布新功能和修复错误,老实说,我都不确定是否会有人使用它。所以看到第一个客户的时候,感觉非常不真实。
现在怎么办?我对此感到非常高兴,但与此同时,我也希望得到一些现实的指导,并学习如何扩展我的产品,而不是沉溺于这种创始人式的兴奋中。所以我的问题是,我应该如何从这里开始扩展?
欢迎大家提出反馈、想法和评论。
着陆页(说明) -> https://haxiom.io
产品页面(应用程序) -> https://app.haxiom.io
技术栈:
后端:ElysiaJS + Axum
前端:SolidJS + Rust WASM markdown 渲染器
数据库:PostgreSQL + PgVector
分析数据库:Turso
CDN:Cloudflare
LLM/嵌入:Gemini
基础设施:DigitalOcean
1 分•作者: muragekibicho•22 天前
我不知道你们是不是也一样。上个月我停止向 GitHub 提交代码了,因为我实在受不了提交代码时强制生成的 AI 摘要。<p>今天我需要为我的客户提交代码,结果提交时没有再看到那些 LLM 生成的垃圾摘要。<p>他们居然听取了我们的意见,移除了那个 AI 废话,这让我印象深刻。<p>不过,我也意识到我可能正在参与某种奇怪的 A/B 测试,所以不太确定你们是否还能看到 LLM 生成的摘要垃圾。
1 分•作者: tosh•22 天前
1 分•作者: cy1414569•22 天前
1 分•作者: PaulHoule•22 天前
1 分•作者: defrost•22 天前
1 分•作者: bkma•22 天前
1 分•作者: Anh_Nguyen_vn•22 天前
我正在构建 *StillMe*,一个开源的“透明 RAG”框架,它非常努力地 <i>不</i> 假装无所不知。
与仅仅提示 LLM 并寄希望于最好的结果不同,StillMe:
- 通过一个 *多层验证器链* 运行所有答案(6 个核心验证器 + 条件验证器,总共最多 13 个,取决于上下文)
- 自动修复缺失的引用和幻觉的“经验”
- 记录 *系统级步骤*(RAG 检索、验证器、时间分解)
- 将“我不知道”视为一个 <i>一流的、诚实的状态</i>,并进行明确的认知跟踪
---
## StillMe 实际做什么
对于每个用户查询,StillMe:
1. 检测意图(哲学、技术或事实)
2. 相应地路由和过滤 RAG 上下文
3. 构建一个安全的提示(令牌感知、语言感知)
4. 调用底层 LLM(本地或云端)
5. 运行一个 *验证器链*:
- `CitationRequired` → 添加 `[基础知识]` 或真实的网络/RAG 引用
- `EvidenceOverlap` → 检查答案与检索到的上下文(仅当上下文可用时)
- `Ego-Neutrality` → 删除拟人化语言(“我感觉”、“我的经验”等)
- `SourceConsensus` → 检测多个来源之间的矛盾(仅当有 2 个以上来源时)
- `EthicsAdapter` → 避免不安全的建议,同时保持诚实
6. 记录结构化时间:
- RAG 检索延迟
- LLM 推理延迟
- 验证和后处理
---
## 真实的日志摘录(单个哲学问题)
```log
StillMe 哲学查询跟踪(真实的后端日志摘录)
[INFO] 检测到哲学问题 — 过滤掉技术 RAG 文档
[INFO] 检索到 3 份基础知识文档(RAG 缓存命中)
[WARNING] 估计的令牌超过安全限制 — 切换到最小哲学提示
[WARNING] 检测到缺失的引用 — 使用 [基础知识] 自动修复
[WARNING] Ego-Neutrality 验证器删除了拟人化术语:['trải nghiệm']
--- 延迟 --- RAG:3.30 秒 | LLM:5.41 秒 | 总计:12.04 秒
```
---
## 我为什么要构建这个
当今大多数 LLM 系统:
- 隐藏其推理
- 敷衍引用
- 夸大置信度
- 将“我不知道”视为失败
StillMe 则反其道而行之:
- *透明度优先*:每个主要决策都会被记录
- *认知诚实*:允许(并鼓励)说“我不知道”
- *模型无关*:适用于本地和云 LLM(DeepSeek、OpenAI、Ollama)
- *无需微调*:所有行为都在框架层强制执行
---
## 寻求反馈和贡献者
我是一个来自越南的独立开发者。StillMe 已经:
- 作为后端 + 仪表板运行
- 与真实的学习管道集成(RSS、arXiv、维基百科 - 每 4 小时更新一次)
- 使用具有基础文档的实时 RAG 系统
仓库:https://github.com/anhmtk/StillMe-Learning-AI-System-RAG-Foundation
我希望收到关于以下方面的反馈:
- 验证器架构
- 更好地构建日志和可观察性的方法
- 使项目更易于贡献
- 任何用于压力测试“诚实/透明度”声明的想法
感谢您的阅读 — 如果有人感兴趣,我很乐意回答问题并分享更多日志、图表或内部细节。
1 分•作者: m-hodges•22 天前
1 分•作者: rokgregoric•22 天前
1 分•作者: mleonhard•22 天前
2 分•作者: DanielKehoe•22 天前
2 分•作者: okaywebhost_com•22 天前
嗨,HN 社区,
我正在做一个名为 OkayWebHost 的小项目,这是一个托管主机服务。我构建它的原因是,我周围的很多人(本地企业、医生、朋友们正在构建副业项目)都需要快速、可靠的托管服务,但他们没有技术能力来管理 VPS 服务器、设置 CloudPanel、配置缓存、管理备份或保护他们的 WordPress 网站。
印度的大多数主流托管服务提供商要么超售共享计划,要么使托管主机变得极其昂贵。我不断遇到那些希望获得 VPS 优势(速度、控制、稳定性)但又不想承担实际维护 VPS 成本的人。因此,我围绕 CloudPanel 创建了一个轻量级、有主见的托管主机服务。
这是我目前构建的内容:
* 基于 CloudPanel 的技术栈(Nginx + PHP-FPM、Redis、MariaDB)
开箱即用,预先配置好性能。用户可以获得这些好处,除非他们想,否则永远不必接触控制面板。
* 个性化入职
每个站点目前都由我手动配置。没有“点击即用”的仪表板。适当的 DNS 设置、服务器调优、SSL、缓存、速率限制和安全强化。
* 隔离环境
每个项目都有自己的 VPS 环境。我完全避免了共享主机“邻居噪音”的问题。
* WordPress 优先体验
自动对象缓存、图像优化建议以及插件/主题限制,以保持性能和安全性。
* 简单定价
我希望这对于自由职业者、机构、医生、中小企业——尤其是在印度——来说是可负担的。
我并不想与 Kinsta、SiteGround 或 Cloudways 等巨头竞争。这个项目开始于我帮助一些人加速他们糟糕的 WordPress 网站,这导致了更多的请求,最终促使我围绕它构建了一个合适的服务。
目前,我正在独自完成所有事情:配置服务器、自动化部署、编写仪表板、处理支持。这是一个引人入胜的学习曲线。
我很乐意从 HN 社区获得反馈:
1. 接下来我应该专注于哪里才能使其真正有用?
开发者工具?API?Git 部署?更好的入职流程?自助服务控制面板?
2. 您认为在托管领域,小型提供商仍然可以解决哪些痛点?
3. 如果您正在使用托管主机,您希望它能出色完成的一件事是什么?
如果有人感兴趣,这是该网站:
[https://okaywebhost.com](https://okaywebhost.com)
我很乐意回答任何问题——技术决策、技术栈、部署流程、CloudPanel 的怪癖、定价选择、扩展限制,甚至是作为一名独立创始人尝试启动托管服务的混乱部分。
感谢您的阅读,并感谢您分享的任何见解。
—— Jayant
24 分•作者: todsacerdoti•22 天前
1 分•作者: petethomas•22 天前