2 分•作者: vrnvu•18 天前
返回首页
最新
3 分•作者: Rand_cat•18 天前
45 分•作者: doctoboggan•18 天前
87 分•作者: meetpateltech•18 天前
33 分•作者: todsacerdoti•18 天前
141 分•作者: atgctg•18 天前
26 分•作者: fouronnes3•18 天前
大家好,HN!今天很高兴发布这个项目。它是一个双向计算器(因此得名 bidicalc)。
我一直痴迷于制作一个可以同时更新输入和输出的电子表格,而不是只能更新输入的普通电子表格。
请告诉我您的想法!特别是如果您发现了错误或好的使用案例。
1 分•作者: emschwartz•18 天前
1 分•作者: light_triad•18 天前
1 分•作者: JamesAdir•18 天前
1 分•作者: baobun•18 天前
我经常发现自己处于这样的情况:我在 shell 中启动一个长时间运行的进程,然后想在它之后做一些事情,但此时再在命令行的末尾添加 `&& foo || bar` 就为时已晚了。
简单例子:下载这个 Linux ISO... 哦,然后把它刷到我的 USB 驱动器上... 哦,然后检查 shasum... 哦,完成后显示通知。
然后,下次我想对某些更复杂的东西进行稍微的修改时,我每次都要权衡第一个进程的运行时间与输入或修改第二部分的时间。
我可以打开一个单独的 shell 并生成一个等待第一个进程完成的第二个进程,但这样做很少值得付出开销。
所以,我想要的是一个“可链式 shell”或“活提示符”,我可以在最后一个 shell 命令已经在前台运行的情况下,输入接下来要做的任何事情。根据程序的不同,我注意到这种方式已经有点作用了,bash 实际上会在阻塞进程的输出中间运行我输入的任何内容,一旦它完成。但仅适用于某些程序。
受到 https://news.ycombinator.com/item?id=46231293 的启发——从 stdout/stderr 管道输出会非常酷,但我们在这里只需要退出代码。
感觉这击中了我们大多数人,并且应该可以在 bash/zsh 中实现一些东西。但我从未见过任何类似的东西。
有人已经编写或找到了类似的东西,他们想分享吗?
1 分•作者: wintercarver•18 天前
2 分•作者: ing-norante•18 天前
我一直对现有的“迷幻蘑菇剂量计算器”感到沮丧:大多数计算器的界面粗糙,只能处理裸盖菇属蘑菇,或者对单一效力值进行硬编码,而忽略了物种、耐受性和降解因素。
因此,我开发了 Mycodosing.wtf——一个基于研究的计算器,试图在以下三个方面做得更好:
* 使用迷幻素/脱磷酸迷幻素/裸盖菇素的毫克/克含量,对物种级别的效力进行建模,并为块菌(和合成物)提供单独的配置文件。
* 输出剂量范围(最小/中值/最大),而不是单个神奇数字,并使用特定物种的不确定性因素来反映现实世界的变异性。
* 包含一个基于 5-HT2A 受体下调的耐受性模型(在约 14 天内呈剂量依赖性指数衰减),以及可选的体重调整和 MAOI 标志。
物种效力数据从 LC-MS/MS 和经典化学论文(例如,Garcia-Romeu 2021,Gotvaldová 2021,Gartz/Stríbrný)中提取并进行标准化,然后封装在一个使用 Vite + React 构建的新野兽主义 UI 中。100% 客户端运行。
我希望收到关于以下方面的反馈:
* 剂量模型本身(数学或假设中是否存在任何缺陷?)
* 您希望调整或补充的物种数据
* 您希望 v2 版本具备哪些功能
网站:[https://mycodosing.wtf/](https://mycodosing.wtf/)
代码:[https://github.com/ing-norante/mycodosing.wtf/](https://github.com/ing-norante/mycodosing.wtf/)
2 分•作者: stosssik•18 天前
每周有 8 亿人使用 ChatGPT 和 Claude。目前,他们得到的是文本回复。很快,他们将获得真正的界面:产品卡片、博客文章、预订流程、支付屏幕都将直接在对话中呈现。<p>我们为此构建了一个开源组件库。只需一条命令即可安装任何模块,并根据您的品牌进行自定义。<p>如果您正在构建 MCP 服务器或试验 AI 原生应用程序,这可能会为您节省时间。<p>您是否正在为 AI 助手构建应用程序?很想听听您的工作流程中缺少什么。
1 分•作者: t-3•18 天前
1 分•作者: coloneltcb•18 天前
4 分•作者: thebeardisred•18 天前
2 分•作者: helain•18 天前
你正在生产环境中运行 RAG。然后,AWS 账单就来了。每月 2400 美元,每天 50 次查询。每次查询 48 美元。
我们为企业客户构建了一个 RAG 系统,并意识到大多数生产 RAG 都是优化灾难。文献痴迷于准确性,却完全忽略了单位经济效益。
三大成本构成
向量数据库(占账单的 40-50%)
标准的 RAG 管道对每个问题进行 3-5 次不必要的数据库查询。我们做了 5 次往返,而实际上只需要 1.5 次。
LLM API(占账单的 30-40%)
标准的 RAG 将 8-15k 个 token 泵入 LLM。这比必要的多了 5-10 倍。我们发现:超过 3,000 个 token 的上下文,准确性就会停滞不前。超出这个范围的都是噪音和成本。
基础设施(占账单的 15-25%)
向量数据库闲置、监控开销、不必要的负载均衡。
真正起作用的是什么
Token 感知上下文(节省 35%)
基于预算的组装,在您使用了足够的 token 后停止。之前:12k token/查询。之后:3.2k token。准确性相同。
python
def _build_context(self, results, settings):
max_tokens = settings.get("max_context_tokens", 2000)
current_tokens = 0
for result in results:
tokens = self.llm.count_tokens(result)
if current_tokens + tokens <= max_tokens:
current_tokens += tokens
else:
break
混合重排序(节省 25%)
70% 语义 + 30% 关键词评分。更好的排名意味着需要的块更少。前 20 → 前 8 检索,同时保持质量。
嵌入缓存(节省 20%)
工作区隔离的缓存,7 天 TTL。我们看到日内命中率为 45-60%。
python
async def set_embedding(self, text, embedding, workspace_id=None):
key = f"embedding:ws_{workspace_id}:{hash(text)}"
await redis.setex(key, 604800, json.dumps(embedding))
批量嵌入(节省 15%)
批量 API 定价每 token 便宜 30-40%。同时处理 50 个文本,而不是单独处理
7 分•作者: simplychris•18 天前
嘿,各位 HN 用户,
我是一位前谷歌工程师,现在想重新开始音乐制作。
我需要一种方法,能够使用 AI 上下文来编排我的硬件合成器,而无需频繁切换窗口,所以我开发了这个工具。
它完全在浏览器中运行,使用 WebMIDI。无需登录。它会连接到您的本地 MIDI 设备(如果您使用的是 Chrome/Edge 浏览器),并允许您生成音乐模式。
技术栈:[React / WebMIDI API / 等]。
链接:www.simplychris.ai/droplets
代码可能有点乱,但它能用。欢迎提出反馈。
9 分•作者: waleedlatif1•18 天前
大家好,我是 Waleed。我们正在构建 Sim (<a href="https://sim.ai/">https://sim.ai/</a>),一个用于构建智能体工作流的开源可视化编辑器。代码库在这里:<a href="https://github.com/simstudioai/sim/" rel="nofollow">https://github.com/simstudioai/sim/</a>。文档在这里:<a href="https://docs.sim.ai">https://docs.sim.ai</a>。
您可以使用 Docker 在本地运行 Sim,没有执行限制或其他限制。
我们大约一年前开始构建 Sim,当时我们反复排查智能体在生产环境中失败的原因。代码优先的框架由于隐式控制流而难以调试,而工作流平台增加的开销却多于减少的。我们希望拥有精细的控制和易于观察的能力,而无需自己拼凑所有东西。
大约 6 个月前,我们推出了 Sim [1][2],它是一个拖放式的画布。从那时起,我们增加了:
- 138 个模块:Slack、GitHub、Linear、Notion、Supabase、SSH、TTS、SFTP、MongoDB、S3、Pinecone,...
- 具有精细控制的工具调用:强制、自动
- 智能体记忆:支持滑动窗口的对话记忆(按最后 n 条消息或 token)
- 跟踪 span:嵌套工作流和工具调用的详细日志记录和可观察性
- 原生 RAG:上传文档,我们进行分块、使用 pgvector 进行嵌入,并向智能体公开向量搜索
- 工作流部署版本控制,支持回滚
- MCP 支持,Human-in-the-loop 模块
- 使用自然语言构建工作流的 Copilot(刚刚发布了一个新版本,它也可以充当超级智能体,并可以直接调用您连接的任何服务,而不仅仅是构建工作流)
在底层,工作流是一个 DAG,默认情况下是并发执行的。节点在其依赖项(上游模块)满足后立即运行。循环(for、forEach、while、do-while)和并行扇出/连接也是一级原语。
智能体模块是直通到提供商的。您选择您的模型(OpenAI、Anthropic、Gemini、Ollama、vLLM),我们直接将提示、工具和响应格式传递给提供商 API。我们对模块互操作性的响应形状进行标准化,但我们没有添加掩盖正在发生的事情的层。
我们目前正在开发我们自己的 MCP 服务器,以及将工作流部署为 MCP 服务器的能力。很想听听您的想法以及我们下一步应该怎么做 :)
[1] <a href="https://news.ycombinator.com/item?id=43823096">https://news.ycombinator.com/item?id=43823096</a>
[2] <a href="https://news.ycombinator.com/item?id=44052766">https://news.ycombinator.com/item?id=44052766</a>