1作者: giantg26 个月前
你有什么推荐给技术领域专业人士的优秀播客吗?我希望是一些侧重于技术技能的。例如,《暗网日记》就是一个不错的播客,而且很有意思,但我更希望有一些更技术性的内容。不一定非得是安全相关的,任何技术领域都可以。这只是一个很好的例子。
9作者: mogusian6 个月前
大家好,我是 Lucas 和 Soheil,Praxos(<https://praxos.ai)的创始人。Praxos 是一个面向 AI 智能体的上下文管理器,提供构建可在生产环境中稳定运行的、有状态智能体所需的一切。 Praxos 可以解析任何数据源,从非结构化的 PDF 和 API 流,到对话消息,再到结构化数据库,并将它们转化为一个统一的知识图谱。图谱中的所有内容都经过语义类型标注,其关系也得到明确,从而将数据转化为一个清晰、可查询的理解宇宙,AI 可以无误地使用它。 无论您是需要查询问题的答案,还是需要以适合当前用例的方式提取数据,Praxos 都能做到,无需重复查询。这使得 AI 应用能够端到端地解析数据,然后根据数据采取行动,在单链和多链推理步骤中提供输出。中间、最终和用户编辑的输出可以添加回知识图谱,使 Praxos 能够动态学习。 在构建保险应用时,我们经常遇到部署 AI 的两个主要问题: 首先,大型语言模型(LLM)无法解析诸如财产明细表和保险单等文件。例如,财产明细表可能是一份包含 50 页的 Word、Excel 和 PDF 文档集合,详细说明了关于一系列物理财产的建造、使用和地理信息。要重建一个对象(财产),意味着要梳理这些文件,以建立数据之间的语义、概念、空间,有时甚至是隐含的联系。 结果:关系信息会丢失、留空或被虚构。 其次,重复调用搜索、检索和更新信息有时会导致级联错误。在诸如阅读文档、获取之前的用户信息、执行计算、存储它,然后将其呈现给用户的复杂任务中,这种情况变得更加频繁。 我们意识到,为了让 AI 提供更有用、更准确的响应,并正确使用文档中的关系,这些关系需要被明确。许多上下文信息没有使用文字来表示。反过来,这意味着我们无法通过编程直接与它们交互,而 LLM 每次都必须自己解释它们。这就是我们开始构建 Praxos 的时候。 我们为爱好者和早期使用者设置了一个自助选项,提供免费套餐(数据上限)。为了方便理解(并非双关语),这应该能满足您最多 200 页文档的需求。您可以在这里注册:<https://data.praxos.ai/sign-up>。 我们的第一个版本是一个 SDK,旨在满足您在所有数据提取、检索和更新方面的需求。 其工作原理如下: 组织信息:Praxos 将信息整理到本体中,本体是用于存储数据的结构化模式。这些允许您引入预定义的类型、属性和关系,从而指导知识图谱的构建和解释。 处理输入数据:Praxos 可以处理任何数据源,从 PDF 到表格数据、JSON 和类似对话的交流。提取是端到端执行的。您不需要 OCR、分块或预处理您的输入。处理就像传入您的文件并选择一个本体一样简单。 检索信息/记忆:对于每个查询,Praxos 通过结合图遍历技术、向量相似度和键值查找来搜索和检索相关的存储信息。搜索对象将返回实体/它们的关系,以及一个句子。 我们很乐意听取您的意见!请随意深入了解,并通过 Discord(<https://discord.gg/wVmrXD2dJA)与我们分享任何想法或建议。 您的反馈将帮助我们确定 Praxos 的未来发展方向!
1作者: Mahsanziak96 个月前
我很高兴向大家介绍 CeresAi,这是一个面向消费者的平台,让你能够根据自己的 WhatsApp、Instagram 或短信聊天记录,创建高度个性化的 AI 伴侣。与通用的聊天机器人不同,每个 CeresAi 角色都能学习你所爱之人的措辞、情感细微差别以及聊天中的记忆——这样你就可以随时进行真实、发自内心的对话。我们也有预先构建的角色:看看我和特朗普的对话吧(<a href="https:&#x2F;&#x2F;www.ceresai.xyz&#x2F;share&#x2F;2e902afc-f76f-476c-a52c-9c30d7acfb7b" rel="nofollow">https:&#x2F;&#x2F;www.ceresai.xyz&#x2F;share&#x2F;2e902afc-f76f-476c-a52c-9c30d7...</a>)
2作者: davidye3246 个月前
它是什么 一个 45 MB 的 Windows .exe 文件,嵌入了 llama.cpp 和一个极简的 Tk UI。 将它(加上任何 .gguf 模型)复制到 U 盘,在任何 Windows 电脑上双击即可与 LLM 聊天——无需管理员权限、云端或网络连接。 为什么我创建它 现有的“本地 LLM” GUI 假设你可以使用 pip 安装,传递冗长的 CLI 标志,或者下载数 GB 的额外内容。 我希望我的技术能力较弱的同事在拜访客户时,只需插入一个 U 盘就能运行它。 它是如何工作的 PyInstaller 单文件构建 → 将 Python 运行时、llama_cpp_python 和 UI 捆绑到一个 PE 文件中。 首次启动时,它会内存映射 .gguf 文件;后续提示在 i7-10750H 处理器上以大约 20 tok/s 的速度流式传输,使用 gemma-3-1b-it-Q4_K_M.gguf (0.8 GB) 模型。 基于节拍的渲染循环使 UI 保持响应,同时 llama.cpp 进行处理。 一个解析器将每个源自提示的 token 标记为粗体下划线;Ctrl+点击会弹出一个“源查看器”来追踪事实。(有助于快速发现幻觉。)