diyaash0/AI--Powered-Conversational-CIO

GitHub: diyaash0/AI--Powered-Conversational-CIO

一款面向企业高管的AI驱动运营仪表盘,通过自然语言对话和角色化视图提供基础设施、安全和业务KPI的实时可见性。

Stars: 0 | Forks: 0

# 🏢 NexaCorp CIO 智能仪表盘 一款 AI 驱动的企业运营仪表盘,为 CXO 提供基础设施、安全、ERP、物流和业务 KPI 的实时可见性——具备基于角色的访问权限和自然语言 AI 聊天功能。 ## 🚀 功能特性 - **AI 晨报** — 登录时自动生成高管摘要 - **咨询 CIO AI** — 与掌握您实时企业数据的 AI 聊天 - **爆炸半径分析器** — 绘制任何事件的全面下游业务影响 - **基于角色的访问** — 每个角色(CIO、安全经理等)仅查看其相关数据 - **异常检测** — 自动检测关键服务器、ERP、安全和收入问题 - **审计追踪** — 记录所有 AI 交互以符合合规要求 ## 🧠 AI 技术栈 | 优先级 | 供应商 | 使用场景 | |---|---|---| | 1st | **Ollama (本地)** | 始终优先尝试 —— 无限制、无需 API key、无需互联网 | | 2nd | **Google Gemini** | 当 Ollama 未运行时的后备方案 | | 3rd | **Smart Mock** | 始终可用 —— 使用真实企业数据,无需 AI | ## 🗂️ 项目结构 ``` cio-project/ ├── backend/ │ ├── main.py # FastAPI server — all routes + AI logic │ └── requirements.txt # Python dependencies └── frontend/ ├── src/ │ ├── App.jsx │ └── components/ │ ├── Login.jsx │ ├── Dashboard.jsx │ ├── Chat.jsx │ ├── MorningBriefing.jsx │ ├── BlastRadius.jsx │ └── AuditTrail.jsx ├── index.html ├── package.json └── vite.config.js ``` ## ⚙️ 设置与运行 ### 前置条件 - Python 3.8+ - Node.js 18+ - [Ollama](https://ollama.com) (用于本地 AI) ### 1. 克隆仓库 ``` git clone https://github.com/your-username/cio-project.git cd cio-project ``` ### 2. 设置 Ollama (本地 AI) ``` # 从 https://ollama.com 安装,然后: ollama pull llama3.2:1b # Ollama 在 Windows 上自动启动 # 在 Mac/Linux 上运行:ollama serve ``` ### 3. 启动后端 ``` cd backend pip install fastapi uvicorn python-dotenv python -m uvicorn main:app --reload --port 8000 ``` 后端运行地址: `http://localhost:8000` ### 4. 启动前端 打开一个 **新终端**: ``` cd frontend npm install npm run dev ``` 前端运行地址: `http://localhost:3000` ### 5. 打开应用 在浏览器中访问 `http://localhost:3000` 并使用任意角色登录。 ## 👤 可用角色 | 角色 | 访问权限 | |---|---| | `CIO` | 所有内容 | | `Security_Manager` | 仅安全警报 | | `Operations_Head` | ERP、物流、生产 | | `Finance_Head` | KPI、ERP | | `IT_Manager` | 基础设施、生产 | ## 🔌 API 接口 | 方法 | 端点 | 描述 | |---|---|---| | GET | `/health` | 检查 Ollama + 服务器状态 | | GET | `/dashboard-status` | 实时异常 + KPI | | GET | `/morning-briefing/{role}` | AI 生成的简报 | | POST | `/chat` | 与 AI 聊天 | | POST | `/blast-radius` | 事件影响分析 | | GET | `/audit-trail` | 所有已记录的交互 | ## 🔐 可选: Gemini 备用方案 在 `backend/` 文件夹中创建一个 `.env` 文件: ``` GEMINI_API_KEY=your_key_here ``` ## 🛠️ 技术栈 **Backend:** Python, FastAPI, Uvicorn **Frontend:** React, Vite **AI:** Ollama (llama3.2:1b), Google Gemini (备用) **样式:** 内联 CSS, Courier New 等宽字体主题 ## 📸 演示 登录 → 选择角色 → 获取 AI 简报 → 提问 → 分析爆炸半径 → 检查审计追踪。 即使没有 Ollama,**smart mock 模式** 也会为演示返回逼真的企业数据。
标签:AI风险缓解, AV绕过, CIO管理平台, CXO仪表盘, DLL 劫持, ERP性能分析, FastAPI, Llama3.2, LLM评估, Ollama, PE 加载器, Python, React, Syscalls, Vite, 业务KPI, 人工智能, 人工智能安全, 企业仪表盘, 决策支持系统, 前后端分离, 合规性, 基于角色的访问控制, 大语言模型, 审计日志, 异常检测, 影响分析, 数字化转型, 无后门, 无线安全, 智慧运营, 服务器健康检测, 本地部署, 爆炸半径分析, 用户模式Hook绕过, 网络安全审计, 网络安全态势感知, 自定义脚本, 自然语言交互, 逆向工具