2作者: mavdol04大约 23 小时前
大家好, 我构建了一个运行时,使用 wasm 沙箱隔离不受信任的代码。 基本上,它可以保护您的宿主系统免受不受信任代码可能导致的问题。最近我们一直在 Python 中就沙箱技术进行深入讨论,其中详细阐述了这个问题 [1]。在 TypeScript 中,由于两个生态系统之间的紧密联系,wasm 集成甚至更加自然。 核心部分是用 Rust 构建的。除此之外,我通过 wasmtime 和组件模型使用 WASI 0.2,以及自定义 SDK,以尽可能保持代码的惯用性。 例如,在 Python 中,我们有一个简单的装饰器: ```python from capsule import task @task( name="analyze_data", compute="MEDIUM", ram="512mb", allowed_files=["./authorized-folder/"], timeout="30s", max_retries=1 ) def analyze_data(dataset: list) -> dict: """在隔离的、资源受控的环境中处理数据。""" # 您的代码在 Wasm 沙箱中安全运行 return {"processed": len(dataset), "status": "complete"} ``` 而在 TypeScript 中,我们有一个包装器: ```typescript import { task } from "@capsule-run/sdk" export const analyze = task({ name: "analyzeData", compute: "MEDIUM", ram: "512mb", allowedFiles: ["./authorized-folder/"], timeout: 30000, maxRetries: 1 }, (dataset: number[]) => { return {processed: dataset.length, status: "complete"} }); ``` 您可以设置 CPU(通过 compute)、内存、文件系统访问和重试次数,以便精确控制您的任务。 目前还处于早期阶段,但我很乐意收到反馈。我会在这里回答问题。 GitHub: [https://github.com/mavdol/capsule](https://github.com/mavdol/capsule) [1] [https://news.ycombinator.com/item?id=46500510](https://news.ycombinator.com/item?id=46500510)
2作者: sivchari大约 23 小时前
我之前对 Go 验证器中的运行时反射感到很沮丧,所以转而构建了一个代码生成方案。 govalid 读取结构体标记,并生成纯 Go 验证代码。无需反射,运行时无内存分配,速度比 go-playground/validator 快 5-44 倍。同时也支持 CEL 表达式来实现复杂的规则。 欢迎提供反馈 :)
26作者: blenderob大约 23 小时前
受到这个 Ask HN 的启发:https://news.ycombinator.com/item?id=46834977 但我将追溯更久远的历史,看看这里是否还有人使用计算尺?
1作者: singerbj大约 23 小时前
Ember 的手机 App 体验不太好,我更希望能在已经盯着的屏幕上看到我的咖啡杯。而且现在我可以把它放在我的 Claude Code 旁边,看起来很棒。 如果你发现任何问题,请在 Github 上提交 issue。也欢迎提交 PR。 <a href="https://ember-mug.benjaminjsinger.com/" rel="nofollow">https://ember-mug.benjaminjsinger.com/</a> <a href="https://www.npmjs.com/package/ember-mug" rel="nofollow">https://www.npmjs.com/package/ember-mug</a> <a href="https://github.com/singerbj/ember-mug" rel="nofollow">https://github.com/singerbj/ember-mug</a>
1作者: manuelnd大约 23 小时前
过去一年,我一直在进行 AI 红队评估,并反复遇到同一个问题:缺乏关于 AI 系统实际被攻破方式的全面目录。 因此,我构建了一个。该目录涵盖了 11 个类别中的 122 种不同的攻击技术,并映射到 OWASP LLM Top 10 和 MITRE ATLAS。 类别: - 提示词注入 (20 种攻击) - 越狱 (22 种) - 系统提示词泄露 (12 种) - 视觉/多模态 (12 种) - 过度自主/工具滥用 (12 种) - 多轮对话操控 (8 种) - 敏感信息泄露 (10 种) - 供应链 (8 种) - 向量/嵌入攻击 (8 种) - 不当输出处理 (8 种) - 无限消耗 (2 种) 内容包括:ID、名称、描述、严重程度评级、框架映射、修复建议、代码示例。 不包括:实际载荷、检测逻辑、特定模型的成功率。这是一种分类法,而不是一个漏洞利用数据库。 目标是为安全团队提供一个 AI 安全评估的检查清单和通用语言。 采用 Apache 2.0 许可。欢迎提交新的技术、框架映射(NIST、ISO 等)和修复改进的 PR。 [https://github.com/tachyonicai/tachyonic-heuristics](https://github.com/tachyonicai/tachyonic-heuristics)