1作者: timmy34437 个月前
我开发了一个名为 Youshot 的 Chrome 扩展程序,旨在解决一个非常恼人的问题:从 YouTube 视频中逐个截取截图。<p>手动暂停、裁剪和保存帧画面每周都要花我几个小时,所以我决定将其自动化。<p>它的工作原理:<p>在 Chrome 浏览器内添加一个简单的界面<p>允许您选择批量模式(多个帧)或帧模式(每个视频最多 1000 帧)<p>即时将所有内容下载为图像<p>提供免费的有限版本和用于大量使用的无限制版本<p>一些创作者和教育工作者已经在使用了,到目前为止,它的评分为 4.75 分。<p>我很乐意收到任何反馈或改进建议。
2作者: cedricahenkorah7 个月前
Hi HN, 去年,我写了一篇关于使用 TypeScript 支持设置 Node.js 后端项目的博文。这在当时对我来说是一个很好的参考,也可以分享给任何觉得有帮助的人。你可以在这里阅读最初的帖子:<a href="https:&#x2F;&#x2F;cahenkorah.vercel.app&#x2F;posts&#x2F;automating-my-nodejs-setup-with-notsc" rel="nofollow">https:&#x2F;&#x2F;cahenkorah.vercel.app&#x2F;posts&#x2F;automating-my-nodejs-set...</a> 我利用周末时间构建了一个 CLI 工具 - Notsc (<a href="https:&#x2F;&#x2F;www.npmjs.com&#x2F;package&#x2F;notsc" rel="nofollow">https:&#x2F;&#x2F;www.npmjs.com&#x2F;package&#x2F;notsc</a>),以自动化整个过程并使其更简单。它会搭建一个现成的 Node.js + TypeScript API 项目,并可选地支持:数据库设置、Swagger/OpenAPI 文档、Redis、Jest 测试、Docker 等。已经在 NPM 上有 197+ 次下载。 你可以使用以下命令全局安装它: npm install -g notsc 然后运行它并按照提示操作: notsc 它是开源的,欢迎提供反馈、想法和贡献。我还写了一篇关于我为什么构建它以及它如何有用的博文,你也可以在这里阅读:<a href="https:&#x2F;&#x2F;cahenkorah.vercel.app&#x2F;posts&#x2F;automating-my-nodejs-setup-with-notsc" rel="nofollow">https:&#x2F;&#x2F;cahenkorah.vercel.app&#x2F;posts&#x2F;automating-my-nodejs-set...</a> NPM: <a href="https:&#x2F;&#x2F;www.npmjs.com&#x2F;package&#x2F;notsc" rel="nofollow">https:&#x2F;&#x2F;www.npmjs.com&#x2F;package&#x2F;notsc</a> GITHUB: <a href="https:&#x2F;&#x2F;github.com&#x2F;cedricahenkorah&#x2F;notsc">https:&#x2F;&#x2F;github.com&#x2F;cedricahenkorah&#x2F;notsc</a> 博客: <a href="https:&#x2F;&#x2F;cahenkorah.vercel.app&#x2F;" rel="nofollow">https:&#x2F;&#x2F;cahenkorah.vercel.app&#x2F;</a>
2作者: bluelegacy7 个月前
为了创建一个不仅仅是单人模式的扫雷游戏,我设计了以下功能: * 支持多人同时在线游戏 * 评分系统,奖励正确操作 * 根据技能水平提供不同的游戏难度选项
2作者: RajGuruYadav7 个月前
— 作者:Raj Guru Yadav 和许多开发者一样,我一直对大型语言模型(LLM)着迷。但当我问出这个问题时: “我能离线运行一个类似 ChatGPT 的助手吗?速度快,而且不需要 16GB 以上的内存?” 这个挑战变得太诱人了,我无法忽视。<p>目标 构建一个完全离线、轻量级的 AI 助手,具备以下特点:<p>下载大小 &lt; 50MB<p>无需互联网连接<p>快速响应(1 秒以内)<p>零遥测数据<p>完全本地的嵌入和推理<p>结果:一个 40MB 的离线 ChatGPT 克隆,你可以在浏览器或 USB 闪存盘上运行。<p>40MB 里有什么? 以下是我如何将智能对话压缩到如此小的包中的方法:<p>模型:Mistral 7B Q4_K_M,通过 llama.cpp 量化<p>推理引擎:llama.cpp(编译成 WebAssembly 或原生 C++)<p>UI:轻量级的 React/Tailwind 界面<p>存储:IndexedDB 用于本地聊天记录<p>嵌入:本地 MiniLM 用于智能 PDF 或笔记搜索<p>附加功能:Whisper.cpp 用于本地语音输入;Coqui TTS 用于语音输出<p>我为什么构建它 我(Raj Guru Yadav),一个 16 岁的开发者和学生,想:<p>深入了解 LLM 实际是如何工作的<p>构建一些尊重隐私和本地化的东西<p>证明 AI 不需要云就能强大<p>为离线用户(比如印度的许多学生)提供真正的 AI 支持<p>挑战 低内存设备中的内存瓶颈<p>针对小型模型进行提示调优,以获得更智能的回复<p>WebAssembly 优化,以提高浏览器性能<p>具有小型 TTS/ASR 模型的离线语音 + 文本集成<p>性能(在 4GB 笔记本电脑上) 能够体面地回答事实、编码和数学问题<p>阅读并总结离线 PDF<p>本地记住对话<p>(可选)大声说出答案<p>最后的想法 AI 不应该被锁在付费墙或云端之后。 我的目标是把智能助手带到每个人的手中—— 完全离线,完全免费,完全属于你。<p>由 制作 Raj Guru Yadav<p>开发者 | 700+ 项目的构建者 | 热衷于为所有人提供开放的 AI