Sruj575/Explainable-and-Adversarially-Robust-Fake-Job-Detection-using-Machine-Learning

GitHub: Sruj575/Explainable-and-Adversarially-Robust-Fake-Job-Detection-using-Machine-Learning

结合 XGBoost 等多模型与 SHAP、LIME 可解释性技术,构建具备对抗鲁棒性的虚假招聘信息检测框架。

Stars: 0 | Forks: 0

# 使用机器学习进行可解释且对抗鲁棒的虚假职位检测 概述 本项目提出了一个可解释且具备对抗鲁棒性的机器学习框架,用于检测欺诈性在线招聘信息。该系统结合了传统机器学习模型、基于 NLP 的特征工程、可解释性工具以及对抗鲁棒性测试,旨在提高在高度不平衡的招聘数据集上的欺诈检测性能。 本项目致力于使用 SHAP 和 LIME 解释来构建透明且可靠的 AI 模型,同时评估模型针对对抗性文本操纵攻击的鲁棒性。 使用的模型 Logistic Regression Random Forest Gradient Boosting XGBoost Ensemble Learning 可解释性技术 SHAP (SHapley Additive Explanations) 用于全局和局部特征重要性分析 LIME (Local Interpretable Model-Agnostic Explanations) 用于词级别的预测解释 技术栈 Python Scikit-learn XGBoost Pandas NumPy SHAP LIME Matplotlib
标签:Apex, EMSCAD数据集, LIME, NLP, Python, Scikit-learn, SHAP, XAI, XGBoost, 代码示例, 可解释人工智能, 对抗鲁棒性, 数据分析, 文本分类, 无后门, 机器学习, 梯度提升, 欺诈检测, 特征工程, 类别不平衡处理, 网络安全, 虚假招聘检测, 逆向工具, 逻辑回归, 随机森林, 隐私保护, 集成学习, 风控模型