1 分•作者: todsacerdoti•21 天前
返回首页
最新
2 分•作者: abhi_telnyx•21 天前
4 分•作者: Intragalactic•21 天前
138 分•作者: mhb•21 天前
2 分•作者: rafa_rrayes•21 天前
大家好!
我构建了 SHDL(简单硬件描述语言),旨在通过剥离硬件描述,探究其最基本的原理。
在 SHDL 中,没有算术运算符,没有隐式的位宽,也没有高级结构。你完全从逻辑门和导线开始,显式地构建一切,然后以分层的方式组合成更大的组件。其目标不是合成或性能,而是理解:当抽象被移除时,数字系统到底是什么样子的。
SHDL 配备了 PySHDL,这是一个 Python 接口,允许你加载电路,设置输入,运行仿真,并观察输出。在底层,SHDL 将电路编译成 C 语言以实现快速执行,但语言本身保持了刻意的小巧和透明。
这并不是要取代 Verilog 或 VHDL。它的目标是:
- 从基本原理学习数字逻辑
- 试验 HDL 和语言设计
- 教学或可视化复杂的硬件如何从简单的门电路中产生
我特别希望收到关于以下方面的反馈:
- 语言设计选择
- 哪些方面感觉不必要的限制,哪些方面具有教育价值
- 这种“反抽象”的 HDL 对你是否有用
代码库:https://github.com/rafa-rrayes/SHDL
Python 包:PySHDL 在 PyPI 上
感谢阅读,我非常欢迎批评。
13 分•作者: ok_orco•21 天前
第一次运行 Chatter.Plus(我正在构建的一个聚合来自 Discord/GitHub/论坛的社区反馈的工具)一天后,我拉取了使用成本,结果是 2.30 美元。算了一下,每月 70 美元,每年 840 美元。这还只是一次实例。感觉糟透了。
之前我做过草稿计算,所以知道这可能是一个 bug,但即便如此。事实证明,这只是部分是 bug。剩下的原因是我需要重新思考我构建这个东西的方式。
接下来的几天,我一直在拆解它。进行调整,用实时数据测试,检查结果,然后重试。我发现我发送 API 请求的频率太高,而且没有优化我发送和接收的内容。
以下是能显著降低成本的几个关键点,大致按重要性从大到小排列(除了那个每天让我损失 1 美元的 bug):
* 完全放弃了 Claude Sonnet 模型 - 在相同的数据上测试了两个模型,Haiku 实际上表现更好,而且成本只有 Sonnet 的三分之一
* 开始批量处理所有内容 - 每小时调用一次简直是烧钱
* 在 AI 之前进行过滤 - “哈哈”和“谢谢”是很多在线闲聊。我却在花钱让 AI 告诉我那不是反馈。不过,我仍然会处理像“+1”和“我也一样”这样的赞同。
* 更短的输出 - 用“H/M/L”代替“高/中/低”,推荐 40 个字符的标题
* 在处理之前删除代码片段 - 只是重复问题并膨胀调用
到周末:每天几美分。质量却保持不变。
我不是在构建一个可以亏损多年、有风投支持的应用程序。我失业了,试图构建一些可能也能支付房租的东西。从第一天起,这个账就得算得过来。
好处是:这些节省让我能够将定价层级的限制提高 3 倍,并添加间歇性的质量检查。这让我有了额外的空间,否则我根本无法做到。
很乐意回答问题。
6 分•作者: KuzeyAbi•21 天前
30 分•作者: mikhael•21 天前
1 分•作者: marysminefnuf•21 天前
1 分•作者: brisky•21 天前
1 分•作者: breve•21 天前
1 分•作者: omegastick•21 天前
1 分•作者: aggeeinn•21 天前
1 分•作者: kamaludu•21 天前
我开发了 GroqBash,一个用于 Groq API(兼容 OpenAI)的单文件 Bash 客户端。
我希望它完全可审计,没有任何依赖,并且能在 Termux 上可靠运行,因为 Termux 上的 /tmp 目录不可写。
所有内容都位于一个自创建的 groqbash.d 目录中,核心脚本避免使用 eval,避免使用 /tmp,并保持严格的权限设置。
该项目现在包含可选的附加功能:额外的提供商(包括 Gemini),扩展文档,小型安全工具和一个小型的测试套件。
核心部分保持简洁和可移植性;附加功能是可选的。
我希望获得:
* 关于设计和 Bash 选项的反馈
* 了解是否有人觉得它有用
* 在不同环境(Linux 发行版、macOS、WSL、Termux)上的测试
仓库:[https://github.com/kamaludu/groqbash](https://github.com/kamaludu/groqbash)
注意:我不是以英语为母语的人。我阅读英语还可以,但在写作时通常依赖自动翻译器(有时也依赖 GroqBash 本身)。
如果需要,很乐意澄清任何问题。
4 分•作者: sundarurfriend•21 天前
1 分•作者: Bender•21 天前
1 分•作者: narubrown•21 天前
大家好,Hacker News — 问候来自韩国
我是一名主要使用 Go 的后端工程师,我想分享一个我一直在构建的框架,以解决我在生产系统中反复遇到的一个问题。
在我的日常工作中,我们的后端是基于 Echo 构建的。Echo 作为一个 HTTP 传输工具,快速且可靠,但它高度的自由度几乎将架构决策完全留给了各个开发人员。久而久之,这导致系统中的执行流程和职责边界因最后接触某个功能的开发人员而异。维护变得困难,不是因为代码不正确,而是因为请求的实际执行方式不再显而易见。
我一直在寻找一个 Go 框架,它可以提供清晰的执行模型和结构约束,类似于 Spring 或 NestJS 提供的。但我找不到一个合适的。迁移到 Spring 或 NestJS 也意味着要放弃 Go 的一些优势——简洁性、性能和显式控制——所以我决定自己构建一个。
Spine 是一个以执行为中心的 Go 后端框架。
它的目标是提供企业级的结构,同时刻意避免隐藏的魔法。
Spine 提供的功能
* 一个具有显式、基于构造函数的依赖注入的 IoC 容器
* 具有明确定义的执行阶段(之前、之后、完成)的拦截器
* 对 HTTP 请求和事件驱动执行的一流支持
* 没有注解,没有隐式行为,没有约定驱动的连接
核心理念:执行优先
关键的区别在于 Spine 的执行模型。
每个请求——HTTP 或事件——都通过一个单独的、显式的 Pipeline。
Pipeline 是唯一决定执行顺序的组件。
实际的方法调用由一个单独的 Invoker 处理,严格分离执行控制和调用。
由于这种结构:
* 通过阅读代码可以解释执行顺序
* 跨领域关注点存在于执行流程中,而不是控制器内部
* 控制器仅表达用例,而不是编排逻辑
* 您可以通过查看 main.go 来理解请求处理
这种设计用一些便利性换取了清晰度。作为回报,它在系统规模和复杂性增长时提供了更强的控制力。
我创建 Spine 的目标不仅仅是为 Go 生态系统添加另一个框架,而是发起一场对话:
现代 Web 框架隐藏了多少执行流程,以及何时这会变成维护成本?
该框架目前是用韩语编写的。
如果您重视英语支持或国际化,请随时提出问题——我计划根据社区的兴趣来优先考虑它。
您可以在这里找到更多详细信息、一个基本的 HTTP 示例和一个基于 Kafka 的简单 MSA 演示:
仓库:[https://github.com/NARUBROWN/spine](https://github.com/NARUBROWN/spine)
感谢您的阅读。我非常感谢您的反馈。
1 分•作者: Bender•21 天前
9 分•作者: cacoos•21 天前
看到了这个代码库:<a href="https://github.com/tldev/posturr" rel="nofollow">https://github.com/tldev/posturr</a>,想分享一下我避免咬指甲的解决方案 :)
12 分•作者: summerlee9611•21 天前
大家好,我是 Beni 的开发者,我创建了 Beni (<a href="https://thebeni.ai" rel="nofollow">https://thebeni.ai</a>),一个带有 AI 伴侣的实时视频通话网络应用。
这个想法源于一个非常简单的问题:文本聊天机器人无处不在,但它们很少给人一种“在场”的感觉。我想要更接近于通话体验,让角色能够真正实时地做出反应(声音、时机、表情),而不仅仅是“输入、等待、回复”。
Beni 基本上是:
* 一个在通话过程中会动起来的 Live2D 虚拟形象(表情 + 动作由对话驱动)
* 实时语音对话(流式响应,而不是“等待 10 秒然后说话”)
* 长期记忆,使角色能够在不同会话中保持上下文
最难的部分不是生成文本,而是让整个循环感觉同步:麦克风输入、模型响应、TTS 音频和 Live2D 动画都需要对齐,否则会立即感觉卡顿。我最终花在状态管理、延迟和缓冲上的时间比在提示词上更多。
一些实现细节(如果有人感兴趣,我很乐意分享更多):
* 基于浏览器的实时通话,带有音频流和客户端播放控制
* 前端的 Live2D 渲染,动画钩子与语音/状态绑定
* 一个记忆层,存储轻量级的用户事实/偏好和对话摘要,以保持连续性
目前的限制:目前需要登录(以持久化记忆并防止滥用)。我很快会添加访客模式,以便更快地试用,并且正在开发移动端视图。
我希望得到的反馈:
* “实时通话”循环的响应速度是否足够,还是仍然太滞后?
* 关于在浏览器中实现更好的 2D/3D 虚拟形象的唇形同步/表情时机的想法?
谢谢,我会在评论区等待。