做渗透测试的时候,有个比较大的项目,里面有几百个网站,这样你必须首先确定哪些网站是正常,哪些网站是不正常的。所以自己就编了一个小脚本,为以后方便使用。
具体实现的代码如下:
#!/usr/bin/python
# -*- coding: utf-8 -*-
”’
@author:joy_nick
@博客:http://byd.dropsec.xyz/
”’
import requests
import sys
f = open(‘url.txt’, ‘r’)
url = f.readlines()
length = len(url)
url_result_success=[]
url_result_failed=[]
for i in range(0,length):
try:
response = requests.get(url[i].strip(), verify=false, allow_redirects=true, timeout=5)
if response.status_code != 200:
raise requests.requestexception(u”status code error: {}”.format(response.status_code))
except requests.requestexception as e:
url_result_failed.append(url[i])
continue
url_result_success.append(url[i])
f.close()
result_len = len(url_result_success)
for i in range(0,result_len):
print ‘网址%s’ % url_result_success[i].strip()+’打开成功’
测试结果如下:
遇到的问题:
刚开始测试的时候,遇到只要是不能错误,或者不存在的,直接报错停止程序。后来发现是因为response.status_code != 200这里取状态码的时候错误。
因为有的网站不能打开的话,不会返回状态码。所以程序就不知道!==200怎么处理了。
解决方法:
使用try except else捕捉异常
具体代码为:
try:
response = requests.get(url[i].strip(), verify=false, allow_redirects=true, timeout=5)
if response.status_code != 200:
raise requests.requestexception(u”status code error: {}”.format(response.status_code))
except requests.requestexception as e:
url_result_failed.append(url[i])
continue
以上所述是小编给大家介绍的使用python脚本实现批量网站存活检测遇到问题及解决方法,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对脚本之家网站的支持!