ChenfhCS/Janus_artifacts

GitHub: ChenfhCS/Janus_artifacts

针对稀疏注意力LLM推理的旁路攻击工具,通过内存访问轨迹实现查询属性推断和Token恢复,无需接触模型参数或API输出。

Stars: 0 | Forks: 0

# 产物:稀疏性引导的推理攻击 本产物包含论文中描述的两种推理攻击的实现与预训练模型: 1. **Prefill 阶段查询属性推断 (QAI)** 2. **Decoding 阶段自回归 Token 恢复 (ATR)** 这两种攻击均作用于重构的稀疏模式,这些模式是从 LLM 推理期间收集的稀疏诱导内存访问 (SIMA) 轨迹中推导出来的。 这些攻击**不**需要访问受害 LLM 的参数、激活值或 API 输出。 ## 目录结构 解压本产物后,目录结构组织如下: ``` janus-artifact/ ├── README.md ├── prefill_attribute_inference/ │ ├── README.md │ ├── health-longchat/ │ ├── health-llama/ │ ├── health-qwen/ │ ├── financial-longchat/ │ ├── financial-llama/ │ ├── financial-qwen/ │ ├── legal-longchat/ │ ├── legal-llama/ │ └── legal-qwen/ │ └── decoding_token_recovery/ ├── README.md ├── health-longchat/ ├── health-llama/ ├── health-qwen/ ├── financial-longchat/ ├── financial-llama/ ├── financial-qwen/ ├── legal-longchat/ ├── legal-llama/ └── legal-qwen/ ``` ### 组件 #### 1. `prefill_attribute_inference/` 此目录包含 **Prefill 阶段查询属性推断** 攻击的实现。 每个 `dataset-model` 子目录都包含该设置下的预训练模型、重构的稀疏模式输入、验证 CSV 文件以及推理脚本。 详情请参阅 `prefill_attribute_inference/README.md`。 #### 2. `decoding_token_recovery/` 此目录包含 **Decoding 阶段自回归 Token 恢复** 攻击的实现。 每个 `dataset-model` 子目录都包含该设置下的预训练模型、重构的 decoding 输入、评估 CSV 文件以及推理脚本。 详情请参阅 `decoding_token_recovery/README.md`。 ### 快速开始 以下所有命令均在产物根目录下执行: ``` cd janus-artifact ``` #### 运行 Prefill 阶段属性推断 ``` cd prefill_attribute_inference/ python .py ``` 示例: ``` cd prefill_attribute_inference/health-llama python load_model_infer_illness_one_by_one.py ``` #### 运行 Decoding 阶段 Token 恢复 ``` cd decoding_token_recovery/ python .py ``` 示例: ``` cd decoding_token_recovery/health-llama python load_model_infer_filter_chunk_dropout_resnet18_34_50.py ``` ### 注意事项 - 每个 `dataset-model` 目录都是一个针对单一评估设置的独立模块。 - 具体的脚本和文件名可能因设置而异,但用法模式是相同的。 - 请在相应的 `dataset-model` 目录内运行推理脚本,以确保所有相对路径都能被正确解析。
标签:AI安全, ATR, Chat Copilot, CISA项目, LLM, LLM推理攻击, QAI, SIMA, Unmanaged PE, 人工智能安全, 令牌恢复, 侧信道分析, 侧信道攻击, 内存访问追踪, 凭据扫描, 合规性, 大语言模型安全, 密码学, 属性推断, 手动系统调用, 机器学习攻击, 机密管理, 模型逆向, 深度学习安全, 稀疏注意力, 网络安全, 逆向工具, 防御绕过, 隐私保护, 隐私泄露, 隐私计算