joelnyamongo86-cyber/Core-AI-Training
GitHub: joelnyamongo86-cyber/Core-AI-Training
围绕 RLHF、监督微调、Prompt 工程与红蓝对抗等环节,提供大语言模型对齐训练与安全评估的系统化方法论和实验框架。
Stars: 0 | Forks: 0
# 核心 AI 训练
RLHF (Reinforcement Learning from Human Feedback,基于人类反馈的强化学习)、监督微调 (SFT)、Prompt 工程、红蓝对抗(安全与偏见测试)、模型评估与排名、思维链 (CoT) 验证。
标签:AI伦理, AI安全, Apex, Chat Copilot, ChatGPT训练, CoT, DLL 劫持, LLM微调, NLP, RLHF, SFT, 人工智能, 人工智能安全, 偏见测试, 凭据扫描, 合规性, 基于人类反馈的强化学习, 大模型安全, 大模型开发, 大语言模型, 安全测试, 思维链, 攻击性安全, 机器学习, 模型对齐, 模型排名, 模型训练, 模型评估, 深度学习, 生成式AI, 用户模式Hook绕过, 监督微调, 算法评估, 索引, 逆向工具, 逻辑验证