zhonghuajin/scenario-based-runtime-context-for-ai

GitHub: zhonghuajin/scenario-based-runtime-context-for-ai

一套利用运行时执行证据为AI构建零噪声代码上下文的方法论和演示,从根源上减少AI分析代码时的幻觉问题。

Stars: 1 | Forks: 1

# runtime-context-for-ai **关于使用运行时证据为 AI 构建更清晰代码上下文的文章与演示。** 👉 **[阅读快速入门指南](QUICKSTART.md)** 了解其在实践中的工作原理。 👉 **[浏览示例](examples/)** 查看真实的流水线输出和 AI 响应,无需运行任何程序。 ## ⚡ 项目缘起:对抗 AI 幻觉 **问题所在:** 当 AI 分析代码时,它只能看到静态结构——文件、符号以及整个代码库中的调用图。它无法知道在特定场景下哪些代码路径被*实际执行*了。因此它只能猜测。这种猜测就是幻觉——建立在假设而非事实基础上的 AI 推理。 **解决方案:** 本项目从实际执行中捕获**运行时证据**,并利用其为 AI 构建**零噪声、特定场景的代码上下文**。它不再向模型灌输整个代码库,而是仅提供实际发生的内容——使 AI 推理建立在事实而非推测之上。 ### 静态分析 vs. 运行时证据 | | 传统方式 (静态分析) | 本项目 (运行时证据) | |---|---|---| | **AI 所见内容** | 整个代码库——数百个文件,其中大部分与场景无关 | 仅包含特定场景下*实际执行*的代码路径 | | **上下文质量** | 高噪声,低相关性——AI 必须猜测哪些内容重要 | 零噪声,高相关性——上下文中的每一行都实际运行过 | | **AI 推理方式** | 推测性:*“这段代码可能相关……”* | 事实性:*“这些是确切执行的路径”* | | **幻觉风险** | 高——AI 用听起来合理但错误的答案填补空白 | 低——AI 基于经验证的运行时事实进行推理 | ## 概述 本仓库探讨了一个简单但重要的问题: 现代代码理解通常默认为静态结构:文件、符号、调用图和仓库范围的搜索。 但许多实际的工程任务是解释**特定的运行时行为**: - 为什么一个请求产生了某个结果 - 为什么发生了故障 - 哪些代码路径实际被执行了 - 代码库的哪些部分与该行为相关 本仓库探讨了这样一个理念:对于这些任务,如果上下文基于**运行时事实**而非仅由静态邻近性拼凑而成,其质量可能会提高。 ## 重点 这里收集的工作围绕几个主题: - **场景优先的理解** 从具体行为入手,而不是从整个系统开始。 - **基于运行时的相关性** 使用执行证据来识别哪些代码实际起作用。 - **上下文精简** 移除理论上相关但行为上无关的代码。 - **面向 AI 的上下文构建** 以更易于模型推理的形式组织代码上下文。 ## 内容 - 🚀 **[QUICKSTART.md](QUICKSTART.md)** — 生成和使用运行时证据的逐步指南 - 📂 **[examples/](examples/)** — 您可以立即检查的真实流水线输出和 LLM 响应 - 📝 **[essays/](essays/)** — 文章、论点和立场笔记 - 🎮 **[demos/](demos/)** — 小型演示 - 🏗️ **[engineering/](engineering/)** — 关于企业级实现和生产就绪的笔记 ## 示例:无需运行即可查看输出 [`examples/`](examples/) 目录包含由此流水线产生的真实、未经编辑的产物,因此您可以在不设置任何环境的情况下评估该方法。 ### 去噪后的运行时数据 流水线的原始输出——无噪声、特定场景的运行时证据,分为两种格式: | 目录 | 用途 | |---|---| | [`examples/denoised_data/for_ai/`](examples/denoised_data/for_ai/) | 为 LLM 消费优化的结构化 Markdown 文件(`calltree`、`happensbefore`、`combined`) | | [`examples/denoised_data/for_human_beings/`](examples/denoised_data/for_human_beings/) | 用于人工检查和工具集成的 JSON 格式 | ### 提示词模板与 LLM 响应 三个具体用例,每个都包含发送给 LLM 的确切提示词和收到的未经编辑的响应: | 用例 | 提示词 | LLM 响应 | |---|---|---| | **二次开发** | [`AI_Dev_Prompt.md`](examples/prompt_and_response/prompt_template/AI_Dev_Prompt.md) | [`AI_Dev_LLM_Response.md`](examples/prompt_and_response/llm_response/AI_Dev_LLM_Response.md) | | **Bug 定位** | [`AI_Bug_Localization_Prompt.md`](examples/prompt_and_response/prompt_template/AI_Bug_Localization_Prompt.md) | [`AI_Bug_Localization_LLM_Response.md`](examples/prompt_and_response/llm_response/AI_Bug_Localization_LLM_Response.md) | | **代码审计** | [`AI_Code_Audit_Prompt.md`](examples/prompt_and_response/prompt_template/AI_Code_Audit_Prompt.md) | [`AI_Code_Audit_LLM_Response.md`](examples/prompt_and_response/llm_response/AI_Code_Audit_LLM_Response.md) | 这些示例展示了零噪声运行时上下文如何改变 AI 推理的质量——从模糊、推测性的分析转变为精确、基于因果关系的理解。 ## 范围 这里分享的内容有意局限于概念、推理和轻量级演示。一个涵盖完整流水线——从运行时证据收集到上下文组装再到模型消费——的可运行实现已经存在,但未包含在此。本仓库专注于对这些想法本身的公开讨论。 ## 状态 这是一个早期阶段的探索性仓库。 它不是一个完整的框架或产品,而是一个开发和测试工程方向的地方。 ## 非目标 本仓库不旨在展示: - 通用解决方案 - 最终确定的架构 - 专有的实现细节 - 生产就绪的工具 ## 为什么这很重要 随着 AI 更多地参与软件工程,一个重要的瓶颈不再仅仅是模型能力,而是**上下文质量**。 在许多情况下,更好的结果可能不是通过向模型提供更多代码来获得,而是通过提供: - 更清晰的边界 - 更少的噪声 - 更强的相关性 - 与运行时实际发生的情况更紧密的对齐 ## 联系方式 欢迎提出想法、问题或建议。 *(注:由于我的英语听说能力有限,我强烈倾向于基于文本的沟通。感谢您的理解!)* - ✉️ 电子邮件:zhonghuajin79@gmail.com - 💬 WhatsApp:62655442 - 💬 微信:58628428 **假期通知:** 在香港公众假期期间,我通常在中国内地与家人共度时光。如果您在此期间需要通过电话联系我,请先向 **`+86 18602045865`** 发送短信说明您的意图,然后再拨打电话。 ## 许可证 [MIT License](LICENSE) © 2026 钟华锦.
标签:AI编程, C2, DLL 劫持, Homebrew安装, Libemu, LLM应用开发, Python, RAG, 上下文工程, 云安全监控, 人工智能, 代码上下文, 代码准确性, 代码分析, 代码理解, 减少AI幻觉, 凭证管理, 大语言模型, 威胁情报, 开发者工具, 提示词工程, 数据流水线, 数据管道, 无后门, 用户模式Hook绕过, 知识库构建, 策略决策点, 调试, 软件工程, 运行时证据, 防御加固, 静态分析