dirsearch是一个基于python的命令行工具,旨在暴力扫描页面构造,包括网页中的目录和文件。

dirsearch拥有以下特点:

多线程、可保持连接、支持多种后缀(-e|–extensions asp,php)、天生报告(纯文本,JSON)、启示式检测无效的网页、递归的暴力扫描、支持HTTP代理、用户代理随机化、批量处理、要求延迟、扫描器与字典、字典必须是文本文件,除了利用分外的%EXT%之外,别的每行都会被处理。

php扫描目录白帽黑客若何经由过程dirsearch剧本对象扫描和收集网站敏感文件 HTML

网站敏感信息包括如下:

后台目录:弱口令,万能密码,爆破

安装包:获取数据库信息,乃至是网站源码

上传目录:截断、上传图片马等

mysql管理接口:弱口令、爆破,万能密码,然后脱裤,乃至是拿到shell

安装页面 :可以二次安装进而绕过

phpinfo:会把你配置的各种信息暴露出来

编辑器:fck、ke、等

iis短文件利用:条件比较苛刻 windows、apache等

提到了网站敏感目录我们就不得不提 robots.txt 文件了

robots.txt 文件是专门针对搜索引擎机器人robot 编写的一个纯文本文件。
我们可以在这个文件中指定网站中不想被robot访问的目录。
这样,我们网站的部分或全部内容就可以不被搜索引擎收录了,或者让搜索引擎只收录指定的内容。
因此我们可

以利用robots.txt让Google的机器人访问不了我们网站上的主要文件,GoogleHack的威胁也就不存在了。

二、资源装备

1.安装好Kali Linux的虚拟机一台;

2.主机虚拟机一个;

3.整装待发的小白一个。

三、渗透攻防

3.1 在线渗透测试网站先容,如下图所示。

3.2 在Kali Linux中查看dirsearch脚工具是否安装,如下图所示。

命令:dirsearch(直接在Kali Linux中输入命令运行,看是否成功推出。

3.3 在Kali Linux中下载dirsearch脚本工具,如下图所示。

命令:git clone https://github.com/maurosoria/dirsearch

3.4 查看下载(clone)下载的dirsearch脚本工具的文件夹,如下图所示。

命令:ls -l

如下图所示,当前目录存在了一个名为dirsearch的文件夹。

3.5 查看python脚本文件(dirsearch.py),如下图所示。

命令:ls -l

3.6 利用dirsearch.py脚本对3.1供应的测试网站进行测试,如下图所示。

命令:python3 dirsearch.py -u testphp.vulnweb.com -e

-h, --help 查看帮助-u URL, --url=URL 设置url-L URLLIST, --url-list=URLLIST 设置url列表-e EXTENSIONS, --extensions=EXTENSIONS 网站脚本类型-w WORDLIST, --wordlist=WORDLIST 设置字典-l, --lowercase 小写-f, --force-extensions 逼迫扩展字典里的每个词条-s DELAY, --delay=DELAY 设置要求之间的延时-r, --recursive Bruteforce recursively 递归地扫描

3.7 dirsearch.py敏感文件扫描结果保存目录,如下图所示。

目录:/root/dirsearch/reboots/

3.8 查看扫描到的敏感信息,如下图所示。

命令:cat 文件名

3.9 扫描到的敏感文件如下图所示。

3.10 查看敏感信息网页,如下图所示。

查看方法:复制URl到物理机浏览器

直接选择URl在kali 浏览器打开。