本文实例讲述了python使用scrapy采集数据时为每个请求随机分配user-agent的方法。分享给大家供大家参考。具体分析如下:
通过这个方法可以每次请求更换不同的user-agent,防止网站根据user-agent屏蔽scrapy的蜘蛛
首先将下面的代码添加到settings.py文件,替换默认的user-agent处理模块
代码如下:
downloader_middlewares = {
‘scraper.random_user_agent.randomuseragentmiddleware’: 400,
‘scrapy.contrib.downloadermiddleware.useragent.useragentmiddleware’: none,
}
自定义useragent处理模块
代码如下:
from scraper.settings import user_agent_list
import random
from scrapy import log
class randomuseragentmiddleware(object):
def process_request(self, request, spider):
ua = random.choice(user_agent_list)
if ua:
request.headers.setdefault(‘user-agent’, ua)
#log.msg(‘>>>> ua %s’%request.headers)
希望本文所述对大家的python程序设计有所帮助。