israeltn/Red-Blue-Team-AI-Security-Fine-Tuned-SLM

GitHub: israeltn/Red-Blue-Team-AI-Security-Fine-Tuned-SLM

面向AI原生安全智能的边缘部署推理模型,通过15亿参数微调与4GB量化解决企业级AI安全工具算力依赖问题。

Stars: 0 | Forks: 0

# Aegis-SLM ### 面向AI原生安全智能的边缘部署推理模型 ![Python](https://img.shields.io/badge/Python-3.10+-blue) ![License](https://img.shields.io/badge/License-MIT-green) ![Platform](https://img.shields.io/badge/Training-Google_Colab_T4-orange) ![Inference](https://img.shields.io/badge/Inference-4GB_RAM-brightgreen) ![Model](https://img.shields.io/badge/Base_Model-DeepSeek--R1--Distill--Qwen--1.5B-purple) ## 摘要 当前企业级AI安全工具需要大量计算资源,这在个人研究者、小型安全团队以及没有云GPU预算的组织中造成了能力差距。Aegis-SLM通过微调一个15亿参数的推理模型,使用214个高保真安全场景 curated 数据集进行训练,并对结果进行量化,使其完全在4GB RAM内运行,从而解决了这一问题。 这里解决的关键技术挑战是**在领域微调过程中保持推理能力**:DeepSeek-R1蒸馏架构产生的思维链 `
标签:2026威胁 landscape, 4GB RAM, AI威胁, AI安全, Chat Copilot, DeepSeek-R1, DLL 劫持, GGUF量化, Google Colab, JSONL训练格式, llama.cpp, LLM评估, LoRA, Ollama, Qwen1.5B, 大语言模型, 威胁情报, 安全数据集, 安全智能, 小团队AI安全, 开发者工具, 开源模型, 投影层LoRA, 指标提升, 推理保留, 推理模型, 模型蒸馏, 评估框架, 轻量化模型, 边缘计算, 逆向工具, 量化部署, 链式思维, 领域微调