16 分•作者: rajman187•6 个月前
返回首页
最新
1 分•作者: gnabgib•6 个月前
1 分•作者: gmays•6 个月前
1 分•作者: 90s_dev•6 个月前
1 分•作者: zX41ZdbW•6 个月前
1 分•作者: giantg2•6 个月前
你有什么推荐给技术领域专业人士的优秀播客吗?我希望是一些侧重于技术技能的。例如,《暗网日记》就是一个不错的播客,而且很有意思,但我更希望有一些更技术性的内容。不一定非得是安全相关的,任何技术领域都可以。这只是一个很好的例子。
1 分•作者: Hooke•6 个月前
2 分•作者: skeptrune•6 个月前
3 分•作者: speckx•6 个月前
1 分•作者: ksec•6 个月前
2 分•作者: tkgally•6 个月前
9 分•作者: mogusian•6 个月前
大家好,我是 Lucas 和 Soheil,Praxos(<https://praxos.ai)的创始人。Praxos 是一个面向 AI 智能体的上下文管理器,提供构建可在生产环境中稳定运行的、有状态智能体所需的一切。
Praxos 可以解析任何数据源,从非结构化的 PDF 和 API 流,到对话消息,再到结构化数据库,并将它们转化为一个统一的知识图谱。图谱中的所有内容都经过语义类型标注,其关系也得到明确,从而将数据转化为一个清晰、可查询的理解宇宙,AI 可以无误地使用它。
无论您是需要查询问题的答案,还是需要以适合当前用例的方式提取数据,Praxos 都能做到,无需重复查询。这使得 AI 应用能够端到端地解析数据,然后根据数据采取行动,在单链和多链推理步骤中提供输出。中间、最终和用户编辑的输出可以添加回知识图谱,使 Praxos 能够动态学习。
在构建保险应用时,我们经常遇到部署 AI 的两个主要问题:
首先,大型语言模型(LLM)无法解析诸如财产明细表和保险单等文件。例如,财产明细表可能是一份包含 50 页的 Word、Excel 和 PDF 文档集合,详细说明了关于一系列物理财产的建造、使用和地理信息。要重建一个对象(财产),意味着要梳理这些文件,以建立数据之间的语义、概念、空间,有时甚至是隐含的联系。
结果:关系信息会丢失、留空或被虚构。
其次,重复调用搜索、检索和更新信息有时会导致级联错误。在诸如阅读文档、获取之前的用户信息、执行计算、存储它,然后将其呈现给用户的复杂任务中,这种情况变得更加频繁。
我们意识到,为了让 AI 提供更有用、更准确的响应,并正确使用文档中的关系,这些关系需要被明确。许多上下文信息没有使用文字来表示。反过来,这意味着我们无法通过编程直接与它们交互,而 LLM 每次都必须自己解释它们。这就是我们开始构建 Praxos 的时候。
我们为爱好者和早期使用者设置了一个自助选项,提供免费套餐(数据上限)。为了方便理解(并非双关语),这应该能满足您最多 200 页文档的需求。您可以在这里注册:<https://data.praxos.ai/sign-up>。
我们的第一个版本是一个 SDK,旨在满足您在所有数据提取、检索和更新方面的需求。
其工作原理如下:
组织信息:Praxos 将信息整理到本体中,本体是用于存储数据的结构化模式。这些允许您引入预定义的类型、属性和关系,从而指导知识图谱的构建和解释。
处理输入数据:Praxos 可以处理任何数据源,从 PDF 到表格数据、JSON 和类似对话的交流。提取是端到端执行的。您不需要 OCR、分块或预处理您的输入。处理就像传入您的文件并选择一个本体一样简单。
检索信息/记忆:对于每个查询,Praxos 通过结合图遍历技术、向量相似度和键值查找来搜索和检索相关的存储信息。搜索对象将返回实体/它们的关系,以及一个句子。
我们很乐意听取您的意见!请随意深入了解,并通过 Discord(<https://discord.gg/wVmrXD2dJA)与我们分享任何想法或建议。
您的反馈将帮助我们确定 Praxos 的未来发展方向!
57 分•作者: ramoz•6 个月前
1 分•作者: alexpadula•6 个月前
3 分•作者: walterfreedom•6 个月前
1 分•作者: herbertl•6 个月前
1 分•作者: Mahsanziak9•6 个月前
我很高兴向大家介绍 CeresAi,这是一个面向消费者的平台,让你能够根据自己的 WhatsApp、Instagram 或短信聊天记录,创建高度个性化的 AI 伴侣。与通用的聊天机器人不同,每个 CeresAi 角色都能学习你所爱之人的措辞、情感细微差别以及聊天中的记忆——这样你就可以随时进行真实、发自内心的对话。我们也有预先构建的角色:看看我和特朗普的对话吧(<a href="https://www.ceresai.xyz/share/2e902afc-f76f-476c-a52c-9c30d7acfb7b" rel="nofollow">https://www.ceresai.xyz/share/2e902afc-f76f-476c-a52c-9c30d7...</a>)
4 分•作者: cfcfcf•6 个月前
3 分•作者: CursedSilicon•6 个月前
2 分•作者: davidye324•6 个月前
它是什么
一个 45 MB 的 Windows .exe 文件,嵌入了 llama.cpp 和一个极简的 Tk UI。
将它(加上任何 .gguf 模型)复制到 U 盘,在任何 Windows 电脑上双击即可与 LLM 聊天——无需管理员权限、云端或网络连接。
为什么我创建它
现有的“本地 LLM” GUI 假设你可以使用 pip 安装,传递冗长的 CLI 标志,或者下载数 GB 的额外内容。
我希望我的技术能力较弱的同事在拜访客户时,只需插入一个 U 盘就能运行它。
它是如何工作的
PyInstaller 单文件构建 → 将 Python 运行时、llama_cpp_python 和 UI 捆绑到一个 PE 文件中。
首次启动时,它会内存映射 .gguf 文件;后续提示在 i7-10750H 处理器上以大约 20 tok/s 的速度流式传输,使用 gemma-3-1b-it-Q4_K_M.gguf (0.8 GB) 模型。
基于节拍的渲染循环使 UI 保持响应,同时 llama.cpp 进行处理。
一个解析器将每个源自提示的 token 标记为粗体下划线;Ctrl+点击会弹出一个“源查看器”来追踪事实。(有助于快速发现幻觉。)