Baba01hacker666/evilspider

GitHub: Baba01hacker666/evilspider

一款面向安全侦察的异步爬虫工具,专注于发现隐藏 endpoint、上传表单和带参数 URL 等高价值攻击面。

Stars: 0 | Forks: 0

# EvilSpider 用于侦察的异步攻击面爬虫。EvilSpider 优先关注有价值的发现(隐藏路径、带参数 endpoint、上传表单、范围内的子域名),而非通用的广度优先爬取。 ## 功能特性 - 可配置并发度的异步爬取 - 去重前的 URL 标准化(查询参数排序、锚点/Fragment、相对/绝对路径形式) - robots.txt 和 sitemap.xml 解析 - 从 HTML 标签中更广泛地提取链接(`href`、`src`、`action`、meta refresh、canonical、`srcset`)以及 JS 正则兜底 - 重试 + 指数退避 + 抖动 - 可选的重定向链报告 - 独立的连接/读取超时控制 - 基于 Content-Type/Body-Size 的过滤,避免解析二进制或过大的响应体 - 扩展名和关键词过滤 - 带参数的 URL 检测 - 文件上传表单检测 - Cookies、自定义 Headers、代理、自定义 User-Agent - 浏览器模拟配置(Chrome/Firefox/Edge/Safari + 移动端变体) - 范围内的子域名发现 - JSON 输出 ## 安装 ``` git clone https://github.com/Baba01hacker666/evilspider.git cd evilspider pip install aiohttp ``` ## 快速开始 ``` python main.py crawl -u https://example.com ``` ## 高价值侦察工作流 ### 1) 隐藏 Endpoint 探测 ``` python main.py crawl \ -u https://target.tld \ -s 200,403,404 \ --robots --sitemaps \ -d 4 ``` ### 2) 上传面探测 ``` python main.py crawl \ -u https://target.tld \ --detect-uploads \ -k upload,file,multipart \ -s 200,403 ``` ### 3) 带 Cookie 的认证爬取 ``` python main.py crawl \ -u https://target.tld \ -C 'session=abc123; role=admin' \ -H 'X-Requested-With: EvilSpider' ``` ### 4) 通过 Burp 代理爬取 ``` python main.py crawl \ -u https://target.tld \ -x http://127.0.0.1:8080 \ --follow-redirects \ --report-redirects ``` ### 5) 浏览器模拟模式 ``` python main.py crawl \ -u https://target.tld \ -i chrome ``` ### 6) 403/200 侦察模式 ``` python main.py crawl \ -u https://target.tld \ -s 200,403 \ -e php,bak,env \ -p ``` ## 常用选项 - `-u, --url`: 目标 URL - `-t, --threads`: 并发请求数 - `-d, --max-depth`: 爬取深度 - `-m, --max-links`: 安全上限 - `-s, --status`: 感兴趣的状态码 - `-e, --exts`: 关注的扩展名列表 - `-k, --keywords`: 响应体关键词过滤 - `-p, --params-only`: 仅标记带有查询参数的 URL - `--robots`, `--sitemaps`: 从 robots/sitemaps 发现种子 - `--detect-uploads`: 标记包含 `` 的页面 - `--retries`, `--retry-backoff`, `--retry-jitter`: 重试策略调优 - `--connect-timeout`, `--read-timeout`, `-T/--timeout`: 超时配置调优 - `--max-body-bytes`: 跳过过大的响应体 - `--follow-redirects`, `--report-redirects`: 重定向策略/报告 - `-C, --cookies`: Cookie 字符串或 Cookie 文件 - `-H, --headers`: 添加请求头(可重复使用) - `-i, --impersonate`: 使用真实浏览器的 Header/User-Agent 配置 - `-x, --proxy`: 代理 URL - `-j, --json`: 以 JSON Lines 流式输出发现结果 - `-o, --output`: 写入最终 JSON 发现结果的文件 ## 使用场景 - Bug Bounty 侦察 - 攻击面发现 - OSINT 爬取 - 隐藏 Endpoint 枚举 ## 对比 与 Scrapy 或 Crawlee 等传统爬虫不同,EvilSpider 专注于攻击性安全场景,例如: - 发现隐藏 Endpoint - 检测上传表单 - 提取带参数的 URL ## 关键词 web crawler python, async crawler, security crawler, recon tool, bug bounty crawler, endpoint discovery tool, subdomain discovery, osint crawler
标签:aiohttp, BeEF, Bug Bounty, C2日志可视化, CISA项目, Python, URL爬取, 动态插桩, 可自定义解析器, 子域名枚举, 密码管理, 异步爬虫, 指纹识别, 数据展示, 无后门, 爬虫, 系统安全, 红队, 网络安全, 网络探针, 自动化侦查, 表单检测, 路径扫描, 逆向工具, 隐私保护, 隐藏端点