jordanpotti/AWSBucketDump

GitHub: jordanpotti/AWSBucketDump

一款用于枚举AWS S3存储桶并搜寻敏感文件的安全侦察工具。

Stars: 1456 | Forks: 245

# AWSBucketDump #### AWSBucketDump 是一个用于快速枚举 AWS S3 buckets 以搜寻战利品的工具。它类似于子域名爆破工具,但专门针对 S3 buckets 制作,并具有一些额外的功能,允许你 grep 搜索有价值的文件,如果你不介意快速填满你的硬盘,也可以下载感兴趣的文件。 #### [@ok_bye_now](https://twitter.com/ok_bye_now) ## 前置条件 非标准 Python 库: * xmltodict * requests * argparse 基于 Python 3.6 创建 ### 使用 virtualenv 安装 ``` source venv/bin/activate pip install -r requirements.txt ``` ## 概述 这是一个枚举 Amazon S3 buckets 并搜寻感兴趣文件的工具。 我提供了一些示例字典,但我没有花太多时间去完善它们。 https://github.com/danielmiessler/SecLists 将包含你所需的所有字典。如果你针对特定公司,可能需要使用 jhaddix 的 enumall 工具,该工具利用了 recon-ng 和 Alt-DNS。 https://github.com/jhaddix/domain && https://github.com/infosec-au/altdns 至于用于 grep 搜索感兴趣文件的字典,这完全取决于你自己。我提供的那个包含了一些基础内容,是的,这些字典是基于我个人使用此工具发现的文件整理的。 使用下载功能可能会填满你的硬盘,你可以在运行工具时通过命令行为每次下载提供最大文件大小限制。请注意,单位是字节。 说实话,我不确定 Amazon 是否会进行速率限制,我猜他们在一定程度上会,但我还没弄清楚具体的限制是多少。默认情况下,有两个线程用于检查 buckets,两个用于下载。 在构建此工具后,我确实发现了 Rapid7 关于这项研究的一篇[有趣文章](https://community.rapid7.com/community/infosec/blog/2013/03/27/1951-open-s3-buckets)。 ## 用法: ``` usage: AWSBucketDump.py [-h] [-D] [-t THREADS] -l HOSTLIST [-g GREPWORDS] [-m MAXSIZE] optional arguments: -h, --help show this help message and exit -D Download files. This requires significant diskspace -d If set to 1 or True, create directories for each host w/ results -t THREADS number of threads -l HOSTLIST -g GREPWORDS Provide a wordlist to grep for -m MAXSIZE Maximum file size to download. python AWSBucketDump.py -l BucketNames.txt -g interesting_Keywords.txt -D -m 500000 -d 1 ```
标签:AWS S3, Python, 云存储扫描, 存储桶枚举, 密码管理, 攻击路径可视化, 敏感文件发现, 数据泄露, 无后门, 日志监控, 爆破工具, 网络安全, 足迹分析, 逆向工具, 隐私保护, 黑客工具