源码网商城,靠谱的源码在线交易网站 我的订单 购物车 帮助

源码网商城

Python使用scrapy采集数据时为每个请求随机分配user-agent的方法

  • 时间:2020-04-11 20:58 编辑: 来源: 阅读:
  • 扫一扫,手机访问
摘要:Python使用scrapy采集数据时为每个请求随机分配user-agent的方法
本文实例讲述了Python使用scrapy采集数据时为每个请求随机分配user-agent的方法。分享给大家供大家参考。具体分析如下: 通过这个方法可以每次请求更换不同的user-agent,防止网站根据user-agent屏蔽scrapy的蜘蛛 首先将下面的代码添加到settings.py文件,替换默认的user-agent处理模块
[u]复制代码[/u] 代码如下:
DOWNLOADER_MIDDLEWARES = {     'scraper.random_user_agent.RandomUserAgentMiddleware': 400,       'scrapy.contrib.downloadermiddleware.useragent.UserAgentMiddleware': None, }
自定义useragent处理模块
[u]复制代码[/u] 代码如下:
from scraper.settings import USER_AGENT_LIST import random from scrapy import log class RandomUserAgentMiddleware(object):     def process_request(self, request, spider):         ua  = random.choice(USER_AGENT_LIST)         if ua:             request.headers.setdefault('User-Agent', ua)         #log.msg('>>>> UA %s'%request.headers)
希望本文所述对大家的Python程序设计有所帮助。
  • 全部评论(0)
联系客服
客服电话:
400-000-3129
微信版

扫一扫进微信版
返回顶部