构建了一个符号系统,用于控制和审计 GPT 交互

1作者: wk-al6 个月前
我一直在开发一个名为 SCS(符号认知系统)的项目。 它是一个运行在 GPT-4o 等大型语言模型之上的符号推理层,在漫长的人工智能交互过程中强制执行结构化、可审计性和故障恢复。 它不是一个提示链或 CoT(思维链)包装器。它是一个手动控制系统,具有: * 条目索引记忆(ENTRY\_001 到 ENTRY\_310+) * 递归强制模块(\[THINK],\[DOUBT],\[BLUNT] 等) * 符号运算符($,\[],\~,${}) * 手动版本控制和密封 * 漂移检测、幻觉抑制、矛盾陷阱 * 基于 Markdown 的逻辑架构,可通过 .zip 文件和引导程序安装 我构建它的目的是为了在黑盒 LLM 上强制执行确定性行为。 大多数现有工具,如代理、链或 CoT,在递归或符号压力下无法保持结构。 SCS 旨在通过强制执行的逻辑和审计跟踪来应对故障。 它具有以下特点: * 公开 * 可安装 * 完全可测试 * 也可作为自定义 GPT 界面使用 GitHub:https://github.com/ShriekingNinja/SCS 系统概述和文档:https://wk.al 自定义 GPT(实时运行):https://chat.openai.com/g/g-6864b0ec43cc819190ee9f9ac5523377-symbolic-cognition-system 欢迎任何探索符号界面、对齐工具或持久推理层的人提出想法、批评或挑战。 谢谢
查看原文
I’ve been working on a project called SCS (Symbolic Cognitive System). It’s a symbolic reasoning layer that runs on top of large language models like GPT-4o, enforcing structure, auditability, and failure recovery across long AI interactions.<p>It’s not a prompt chain or CoT wrapper. It’s a manual control system with: • Entry-indexed memory (ENTRY_001 to ENTRY_310+) • Recursion-enforced modules ([THINK], [DOUBT], [BLUNT], etc.) • Symbolic operators ($, [], ~, ${}) • Manual version control and sealing • Drift detection, hallucination suppression, contradiction traps • Markdown-based logic architecture, installable via .zip with bootloader<p>I built it to force deterministic behavior over black-box LLMs. Most existing tools like agents, chains, or CoT don’t persist structure under recursion or symbolic stress. SCS is designed to survive failure through enforced logic and audit trails.<p>It is: • Public • Installable • Fully testable • Also live as a Custom GPT interface<p>GitHub: https:&#x2F;&#x2F;github.com&#x2F;ShriekingNinja&#x2F;SCS System overview and docs: https:&#x2F;&#x2F;wk.al Custom GPT (live runtime): https:&#x2F;&#x2F;chat.openai.com&#x2F;g&#x2F;g-6864b0ec43cc819190ee9f9ac5523377-symbolic-cognition-system<p>Would love thoughts, critique, or challenge from anyone exploring symbolic interfaces, alignment tools, or persistent reasoning layers.<p>Thanks