3 分•作者: xbmcuser•大约 22 小时前
返回首页
24小时热榜
3 分•作者: jellyotsiro•大约 24 小时前
隆重推出 Nia Vault,一个命令行工具,允许您使用自然语言查询本地 Markdown/文本文件。
功能:
* 对本地文件夹和笔记进行语义搜索
* 跨多个已同步目录工作
* RAG 风格的答案,并引用您自己的文件
工作原理:
* 使用 `local_folders` 调用 `POST /search/query`
* 使用 `search_mode: sources` 返回答案 + 文件引用
示例:
```
vault ask "关于项目规划的笔记有哪些?"
```
开源项目:[https://github.com/chenxin-yan/nia-vault](https://github.com/chenxin-yan/nia-vault)
2 分•作者: agentslikeu•大约 1 小时前
TranslateImage:AI 驱动的图片翻译,助力全球团队
这款一体化平台可用于翻译照片、漫画、产品图片和文档。它具备 OCR、文本移除、批量处理等功能,满足您走向全球的需求。
2 分•作者: jnord•大约 2 小时前
2 分•作者: E-Reverance•大约 3 小时前
2 分•作者: belter•大约 3 小时前
2 分•作者: gnabgib•大约 3 小时前
2 分•作者: gurgeous•大约 3 小时前
Hi HN。AnsiColor 为你的 TUI、cli 应用或提示符构建了具有弹性的 ANSI 颜色代码。无论用户的终端主题如何,这些颜色都能正常工作。
我构建这个工具是因为在使用 Solarized Dark 运行时,我体验了 Codex CLI 令人捧腹的难以辨认。如果一家价值数十亿美元的公司都无法做到这一点,我们就需要更好的工具。
它附带以下主题:
```
Andromeda
Ayu Dark/Light
Bearded Dark/Light
Catppuccin Frappe
Catppuccin Latte
Catppuccin Macchiato
Catppuccin Mocha
Dracula
GitHub Dark
Gruvbox
Monokai Dark/Light
Nord
One Dark/Light
Palenight
Panda
Solarized Dark/Light
Synthwave 84
Tailwind
Tokyo Night Dark/Light
```
2 分•作者: Charlie112•大约 3 小时前
<a href="https://chengai.me" rel="nofollow">https://chengai.me</a><p>问题:招聘应届毕业生的方式已经过时。成千上万份千篇一律的简历,但我们每个人都是独一无二的。了解一个人需要时间——评估、电话面试、多轮面试。大多数人从未真正被了解。<p>我不想仅仅成为另一份PDF文件。所以我构建了一个AI孪生体,招聘人员可以真正地面试它。<p>你可以做的事情:
• 随意面试我的AI:<a href="https://chengai.me/chat" rel="nofollow">https://chengai.me/chat</a>
• 粘贴你的JD(职位描述),看看我们是否匹配:<a href="https://chengai.me/jd-match" rel="nofollow">https://chengai.me/jd-match</a>
• 探索我的项目、代码和文章<p>发生了什么:在LinkedIn上发送给一位招聘人员。第二天,流量激增,因为它在内部传播开来。在24小时内收到了面试邀请。<p>更大的愿景:如果这成为标准会怎样?与其简历轰炸 → 关键词筛选 → 仍然错过合适人选的面试轮,不如让招聘人员的AI与候选人的AI进行深度交流,从而实现深度匹配。构建一个平台,让任何人都可以创建他们的AI孪生体,以实现真正的匹配。<p>我正在寻找软件/AI/ML工程职位,并且可以从头开始构建可用于生产的解决方案。<p>该网站本身证明了我能做什么。很想听听Hacker News对执行和愿景的看法。
2 分•作者: CrankyBear•大约 4 小时前
2 分•作者: mmh0000•大约 5 小时前
2 分•作者: rbanffy•大约 5 小时前
2 分•作者: nvader•大约 5 小时前
2 分•作者: eon01•大约 6 小时前
尤其是对于带有代码的技术书籍
2 分•作者: Bender•大约 6 小时前
2 分•作者: headalgorithm•大约 6 小时前
2 分•作者: jampa•大约 6 小时前
2 分•作者: tash_2s•大约 6 小时前
我为智能眼镜开发了一个免手持抬头显示器(HUD),它运行一个真实的速通计时器,并根据摄像头所看到的内容自动分段。演示场景:制作寿司。<p>演示:<a href="https://www.youtube.com/watch?v=NuOVlyr-e1w" rel="nofollow">https://www.youtube.com/watch?v=NuOVlyr-e1w</a><p>代码库:<a href="https://github.com/RealComputer/GlassKit" rel="nofollow">https://github.com/RealComputer/GlassKit</a><p>我最初尝试使用多模态大语言模型(LLM)进行场景理解,但延迟和一致性对于这个用例来说不够好,所以我切换到一个小型目标检测模型(微调的 RF-DETR)。它只是在摄像头画面上运行一个推理循环。这也使得设备端/离线使用成为可能(目前它仍然通过本地服务器运行)。
2 分•作者: sourishkrout•大约 6 小时前
2 分•作者: rksart•大约 6 小时前
Hi HN,
过去一年,我们一直在构建 AI 智能体,但一直遇到同样的瓶颈:提示工程感觉不像软件工程,更像是在瞎猜。
我们构建了 OpenSymbolicAI,旨在将智能体开发转变为真正的编程。它是一个开源框架(MIT 许可证),允许您使用类型化的原语、显式分解和单元测试来构建智能体。
主要问题:上下文窗口滥用
大多数智能体框架(如 ReAct)迫使您将工具输出转储回 LLM 的上下文窗口,以决定下一步。
智能体搜索数据库。
智能体取回 50kb 的 JSON。
您将这 50kb 粘贴回提示中,只是为了问“我下一步该怎么做?”
这很慢,成本高昂,并且会混淆模型。
解决方案:将数据作为变量
在 OpenSymbolicAI 中,LLM 生成一个操作变量的计划(代码)。实际的重型数据(搜索结果、PDF 内容、API 有效载荷)存储在 Python/运行时变量中,并且在特定原语实际需要读取它之前,永远不会通过 LLM 上下文。
可以将其视为智能体的传引用。LLM 操作变量句柄(文档),而 Python 运行时存储实际数据。
示例:RAG 智能体
LLM 不再基于一堆文本幻构一个计划,而是简单地编写操作数据容器的逻辑。
```python
class ResearchAgent(PlanExecute):
@primitive
def retrieve_documents(self, query: str) -> list[Document]:
"""从向量数据库中提取大型文档。"""
# 返回保留在 Python 内存中的大型对象
return vector_store.search(query)
@primitive
def synthesize_answer(self, docs: list[Document]) -> str:
"""使用文档生成答案。"""
# 这是唯一实际读取文档文本的步骤
context = "\n".join([d.text for d in docs])
return llm.generate(context)
@decomposition(intent="研究量子计算")
def _example_flow(self):
# LLM 生成此执行计划。
# 关键是:LLM 管理 'docs' 变量符号,
# 但在规划期间从未看到其中的大量有效载荷。
docs = self.retrieve_documents("量子计算的现状")
return self.synthesize_answer(docs)
```
```python
agent = ResearchAgent()
agent.run("研究固态电池的最新进展")
```
讨论
我们很乐意听取社区的意见:
您在提示工程的脆弱性方面遇到过哪些困难?
什么会说服您尝试将提示视为代码?
这种方法在其他领域是否会大放异彩?
为了让它为您的用例做好生产准备,还缺少什么?
代码是有意使用简单的 Python,没有魔法,没有框架锁定。如果这种方法引起共鸣,很容易适应您的特定需求或与现有代码库集成。
代码库:
核心(Python):[https://github.com/OpenSymbolicAI/core-py](https://github.com/OpenSymbolicAI/core-py)
文档:[https://www.opensymbolic.ai/](https://www.opensymbolic.ai/)
博客(技术深度探讨):[https://www.opensymbolic.ai/blog](https://www.opensymbolic.ai/blog)