SRCHunter,中文名字"赏金猎人",一款适合信息安全从业者前期信息收集的扫描器,整合渗透测试经验,把重复性工作模块化、系统化、自动化,适合外围打点人员、红队使用,行动代号"opSRC"。
python cli.py -s target | 搜索目标文件
python cli.py -a target.com | 自动收集子域名扫描
python cli.py -u http://www.target.com | 单目标扫描
python cli.py -f targets.txt | 多目标探测
python cli.py -d targets.txt | 多目标扫描
python cli.py -fu http://www.target.com | 单目标(-端口)扫描
python cli.py -fd targets.txt | 多目标(-端口)扫描
python cli.py -cf x.x.x.x | C段探测
python cli.py -cd x.x.x.x | C段扫描
python cli.py -cl targets.txt | 多目标C段扫描
更多见python cli.py -h
项目地址:https://github.com/cnnetarmy/SRCHunter
- 模块化处理
- 参数可控(config.py)
- 报告分类/美化/分页
命令:python cli.py -s target
默认从./lib/config.py
文件中,读取变量targets_path
目录中所有文件名,自动补全
命令:python cli.py -a target.com
从内置的接口中自动收集子域名并扫描,根据config
中baidu_engine
/github_engine
判断是否启用搜索引擎,若开启github_engine
需要github_cookie
命令:python cli.py -u http://www.target.com
对目标进行域名解析,解析不成功的默认会探测一次80,
解析成功的ip扫描自定义端口段(port_min
,port_max
),线程portscan_thread_num
,端口扫描程序可选portscan_tcp_engine
和portscan_icmp_engine
,同样会过滤掉常用端口filter_ports
,加入了大于1w的big_ports
,根据check_big_ports
来判断是否扫描
过滤掉黑名单子域名(单一sub_filter
和列表sub_filter_list
)和黑名单网页标题(单一title_filter
和列表title_filter_list
)
示例:
命令:python cli.py -f targets.txt
依赖-s模式搜索的文件,进行探测
更新旁站
的处理,使用字典储存已扫描的ip
和open_ports
命令:python cli.py -d targets.txt
依赖-s模式搜索的文件,进行扫描
目录扫描payloads,根据dir_payloads布尔值,加载dir_payloads_file
加入小模块baidu_dir_engine
,根据baidu收录的资产,收集目标目录
并对每个子域名进行baidu_engine
/github_engine
搜索引擎存活确认
命令:python cli.py -fu http://www.target.com
不扫描端口,扫描单个站点
命令:python cli.py -fd targets.txt
不扫描端口,扫描多个站点,适合与-f
模式结合
命令:python cli.py -cf x.x.x.x
根据配置文件filter_internal_ip
来判断是否探测内网ip,其余同理-f
,注意配置baidu_engine
/github_engine
关闭
命令:python cli.py -cd x.x.x.x
根据配置文件filter_internal_ip
来判断是否扫描内网ip,其余同理-d
,注意配置baidu_engine
/github_engine
关闭
命令:python cli.py -cl targets.txt
加入ip_counter
函数,根据出现次数生成目标C段文件,默认ip_count_min
为1
示例:
微信(cnnetarmy)