Rimsha002/Prompt-Injection-Attacks-in-Large-Language-Models-

GitHub: Rimsha002/Prompt-Injection-Attacks-in-Large-Language-Models-

论文系统分析了大型语言模型中的提示注入攻击并提出基于 CIA 三元组的分类与缓解策略。

Stars: 0 | Forks: 0

# Prompt-Injection-Attacks-in-Large-Language-Models ## 网络安全研究论文 ![Image Title](/prompt_inject.jpeg) 本研究论文对大型语言模型(LLM)中的提示注入攻击进行了全面分析。研究重点包括: - 攻击类型 - 基于 CIA 三元组的分类 - 检测方法 - 缓解策略 - 实验评估 ## 作者 Rimsha Majeed ## 项目内容 - 引言 - 文献综述 - 方法论 - 实验与结果 - 缓解策略 - 挑战 - 后续工作 - 结论 ## 使用技术 - 安全分析 ## 参考文献 所有参考文献均以 IEEE 格式提供于研究论文中。 ## 目的 本项目仅用于学术研究和教育目的。
标签:CIA三联体, meg, 人工智能安全, 信息安全, 合规性, 大型语言模型, 学术研究, 实验评估, 提示注入攻击, 攻击分类, 攻击类型, 文献综述, 方法论, 检测方法, 缓解策略, 防御策略