博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
google开源web安全扫描工具skipfish简介
阅读量:6115 次
发布时间:2019-06-21

本文共 3636 字,大约阅读时间需要 12 分钟。

  hot3.png

1、简介

Skipfish是一个积极的Web应用程序的安全性侦察工具。 它准备了一个互动为目标的网站的站点地图进行一个递归爬网和基于字典的探头。 然后,将得到的地图是带注释的与许多活性(但希望非破坏性的)安全检查的输出。 最终报告工具生成的是,作为一个专业的网络应用程序安全评估的基础。

2、项目

3、安装部署

    a、安装所需软件库:

yum install pcre-devel openssl-devel libidn-devel libidn2-devel

    b、下载源码skipfish

#)获取源码

#解压,源码文件如下:

024053_TMCe_560358.png

    c、编译

make

024138_8VZa_560358.png

生成的可执行文件如下:

    d、安装部署成功024205_4MTp_560358.png

4、使用

//编译完成,在目录中生成skipfish可执行程序

cp dictionaries/complete.wl skipfish.wl
//拷贝其中一个字典,用来扫描

 ./skipfish -o data http://www.baidu.com

//其中data是输出目录,扫描结束后可打开data目录下的index.html查看扫描结果

5、相关参数

skipfish web application scanner - version 2.10b

Usage: /home/admin/workspace/skipfish/skipfish [ options ... ] -W wordlist -o output_dir start_url [ start_url2 ... ]
 
Authentication and access options:
验证和访问选项:
 
  -A user:pass      - use specified HTTP authentication credentials
                      使用特定的http验证
  -F host=IP        - pretend that 'host' resolves to 'IP'
  -C name=val       - append a custom cookie to all requests
                      对所有请求添加一个自定的cookie
  -H name=val       - append a custom HTTP header to all requests
                      对所有请求添加一个自定的http请求头
  -b (i|f|p)        - use headers consistent with MSIE / Firefox / iPhone
                      伪装成IE/FIREFOX/IPHONE的浏览器
  -N                - do not accept any new cookies
                      不允许新的cookies
  --auth-form url   - form authentication URL
  --auth-user user  - form authentication user
  --auth-pass pass  - form authentication password
  --auth-verify-url -  URL for in-session detection
 
Crawl scope options:
 
  -d max_depth     - maximum crawl tree depth (16)最大抓取深度
  -c max_child     - maximum children to index per node (512)最大抓取节点
  -x max_desc      - maximum descendants to index per branch (8192)每个索引分支抓取后代数
  -r r_limit       - max total number of requests to send (100000000)最大请求数量
  -p crawl%        - node and link crawl probability (100%) 节点连接抓取几率
  -q hex           - repeat probabilistic scan with given seed
  -I string        - only follow URLs matching 'string' URL必须匹配字符串
  -X string        - exclude URLs matching 'string' URL排除字符串
  -K string        - do not fuzz parameters named 'string'
  -D domain        - crawl cross-site links to another domain 跨域扫描
  -B domain        - trust, but do not crawl, another domain
  -Z               - do not descend into 5xx locations 5xx错误时不再抓取
  -O               - do not submit any forms 不尝试提交表单
  -P               - do not parse HTML, etc, to find new links 不解析HTML查找连接
 
Reporting options:
 
  -o dir          - write output to specified directory (required)
  -M              - log warnings about mixed content / non-SSL passwords
  -E              - log all HTTP/1.0 / HTTP/1.1 caching intent mismatches
  -U              - log all external URLs and e-mails seen
  -Q              - completely suppress duplicate nodes in reports
  -u              - be quiet, disable realtime progress stats
  -v              - enable runtime logging (to stderr)
 
Dictionary management options:
 
  -W wordlist     - use a specified read-write wordlist (required)
  -S wordlist     - load a supplemental read-only wordlist
  -L              - do not auto-learn new keywords for the site
  -Y              - do not fuzz extensions in directory brute-force
  -R age          - purge words hit more than 'age' scans ago
  -T name=val     - add new form auto-fill rule
  -G max_guess    - maximum number of keyword guesses to keep (256)
 
  -z sigfile      - load signatures from this file
 
Performance settings:
 
  -g max_conn     - max simultaneous TCP connections, global (40) 最大全局TCP链接
  -m host_conn    - max simultaneous connections, per target IP (10) 最大链接/目标IP
  -f max_fail     - max number of consecutive HTTP errors (100) 最大http错误
  -t req_tmout    - total request response timeout (20 s) 请求超时时间
  -w rw_tmout     - individual network I/O timeout (10 s) 
  -i idle_tmout   - timeout on idle HTTP connections (10 s)
  -s s_limit      - response size limit (400000 B) 限制大小
  -e              - do not keep binary responses for reporting 不报告二进制响应
 
Other settings:
 
  -l max_req      - max requests per second (0.000000)
  -k duration     - stop scanning after the given duration h:m:s
  --config file   - load the specified configuration file

转载于:https://my.oschina.net/rasine/blog/467602

你可能感兴趣的文章
JQuery-EasyUI Datagrid数据行鼠标悬停/离开事件(onMouseOver/onMouseOut)
查看>>
并发和并行的区别
查看>>
php小知识
查看>>
Windows下安装、运行Lua
查看>>
Nginx 反向代理、负载均衡、页面缓存、URL重写及读写分离详解(二)
查看>>
用php curl请求接口碰到的问题总结
查看>>
初识中间件之消息队列
查看>>
MyBatis学习总结(三)——优化MyBatis配置文件中的配置
查看>>
Spring常用注解
查看>>
我的友情链接
查看>>
PCS子层有什么用?
查看>>
查看端口,关闭端口
查看>>
代码托管平台简介
查看>>
glbp详解
查看>>
一个简单好用的zabbix告警信息发送工具
查看>>
彻底解决SysFader:IEXPLORE.EXE应用程序错误
查看>>
正则表达式
查看>>
Unix/Linux下删除Oracle控制文件Controlfile为什么实例Instance没有立即奔溃?
查看>>
泄露门年终盘点:***用户网站间的“罗生门”
查看>>
linux:yum和apt-get的区别
查看>>