jordanpotti/AWSBucketDump
GitHub: jordanpotti/AWSBucketDump
一款用于枚举AWS S3存储桶并搜寻敏感文件的安全侦察工具。
Stars: 1456 | Forks: 245
# AWSBucketDump
#### AWSBucketDump 是一个用于快速枚举 AWS S3 buckets 以搜寻战利品的工具。它类似于子域名爆破工具,但专门针对 S3 buckets 制作,并具有一些额外的功能,允许你 grep 搜索有价值的文件,如果你不介意快速填满你的硬盘,也可以下载感兴趣的文件。
#### [@ok_bye_now](https://twitter.com/ok_bye_now)
## 前置条件
非标准 Python 库:
* xmltodict
* requests
* argparse
基于 Python 3.6 创建
### 使用 virtualenv 安装
```
source venv/bin/activate
pip install -r requirements.txt
```
## 概述
这是一个枚举 Amazon S3 buckets 并搜寻感兴趣文件的工具。
我提供了一些示例字典,但我没有花太多时间去完善它们。
https://github.com/danielmiessler/SecLists 将包含你所需的所有字典。如果你针对特定公司,可能需要使用 jhaddix 的 enumall 工具,该工具利用了 recon-ng 和 Alt-DNS。
https://github.com/jhaddix/domain && https://github.com/infosec-au/altdns
至于用于 grep 搜索感兴趣文件的字典,这完全取决于你自己。我提供的那个包含了一些基础内容,是的,这些字典是基于我个人使用此工具发现的文件整理的。
使用下载功能可能会填满你的硬盘,你可以在运行工具时通过命令行为每次下载提供最大文件大小限制。请注意,单位是字节。
说实话,我不确定 Amazon 是否会进行速率限制,我猜他们在一定程度上会,但我还没弄清楚具体的限制是多少。默认情况下,有两个线程用于检查 buckets,两个用于下载。
在构建此工具后,我确实发现了 Rapid7 关于这项研究的一篇[有趣文章](https://community.rapid7.com/community/infosec/blog/2013/03/27/1951-open-s3-buckets)。
## 用法:
```
usage: AWSBucketDump.py [-h] [-D] [-t THREADS] -l HOSTLIST [-g GREPWORDS] [-m MAXSIZE]
optional arguments:
-h, --help show this help message and exit
-D Download files. This requires significant diskspace
-d If set to 1 or True, create directories for each host w/ results
-t THREADS number of threads
-l HOSTLIST
-g GREPWORDS Provide a wordlist to grep for
-m MAXSIZE Maximum file size to download.
python AWSBucketDump.py -l BucketNames.txt -g interesting_Keywords.txt -D -m 500000 -d 1
```
标签:AWS S3, Python, 云存储扫描, 存储桶枚举, 密码管理, 攻击路径可视化, 敏感文件发现, 数据泄露, 无后门, 日志监控, 爆破工具, 网络安全, 足迹分析, 逆向工具, 隐私保护, 黑客工具