您的位置:首页 > 新闻资讯 >文章内容
爬虫程序中添加随机代理IP
来源:互联网 作者:admin 时间:2019-04-17 16:00:00

  爬虫程序中添加随机代理IP:在Scrapy中更换请求对象的IP信息非常的方便,只需要在request对象进入下载器之前,修改request对象的参数信息。


  所以我们需要在下载器中间件Download_middleware中自定义一个下载器中间件ProxiesMiddleware,在process_request()函数中修改request对象信息。


爬虫程序中添加随机代理IP


  其中PROXIES_LIST是构建的代理列表。


  process_request的参数分别是request当前请求对象,spider当前的爬虫对象。


  返回None,Scrapy将继续处理该Request;


  返回Request对象时,这个Reuqest会重新放到调度队列里,更低优先级的process_reqyest()函数不会执行;


  返回Response对象时,直接将Response对象发送给Spider来处理。


  现在每次发送一次请求,请求对象的IP信息就会从配置中的代理IP池中随机挑选一个。不同的IP就会迷惑服务器监控,不会对本次请求做反爬处理了。不过没有哪个代理是能保证百分之百成功的。付费代理也好,免费代理也好,即使是高匿代理也只不过是提高了防反爬的几率,并没有说一定会成功的。


  问题来了:如果加入了随机代理的请求被反爬了,应该如何解决呢?换下一家网站?收拾铺盖跑路?还是跟它死磕呢?


  请求失败的解决方案有两种:


  1.多试几次,直到请求成功,不成功就报错。


  2.换一个代理试试,直到换成请求成功的代理。对代理质量要求必须高。如果代理池质量很差,项目就会陷入死循环中。


  解决逻辑是:设置重试次数,达到指定次数就换代理。


  幸运的是Scrapy框架中自带了处理失败请求的中间件RetryMiddleware。


  源码如下:


爬虫程序中添加随机代理IP

爬虫程序中添加随机代理IP

爬虫程序中添加随机代理IP


  注释的部分是添加的加入代理的逻辑,需要继承RetryMiddleware之后再重写。


爬虫程序中添加随机代理IP


  在settings中设置最大重试次数以及需要进行重试的异常状态码列表。


  关闭Scrapy自带的RetryMiddleware中间件,开启自定义的Retry中间件。


爬虫程序中添加随机代理IP


  启动项目测试。遇到失败的请求会重新发送,超过最大重试次数以后返回一个空的数据。


  这就是我们预期的结果了,剩下的就是提高代理池的质量,就能最大程度的保证爬虫的可用性了。


爬虫程序中添加随机代理IP


  可以在settings中开启限制爬取速度的配置,使得我们的爬虫项目更接近点击行为操作,提高反反爬效率。


  以上就是关于爬虫程序中添加随机代理IP的方法,如果还没有代理IP使用,可以考虑下机灵代理,品质值得信赖!


相关文章内容简介
推荐阅读
  • 15 2019-05
    免费IP代理能用多久?

    免费IP代理能用多久?这一点大家有没有关注?很多代理商家都会提供免费IP代理,这些都是有限制的,比如一天提供多少,或者免费多长时间。

  • 07 2019-05
    HTTP代理是透明代理也是非透明代理

    HTTP代理是透明代理也是非透明代理,之所以强调是“透明”代理,也就是说这样的代理对客户端来说是不可见的,并不需要在客户端的浏览器中作关于代理的设置。

  • 17 2019-04
    萌新能抓取到微博数据吗?编写Python爬虫要注意什么?

    萌新能抓取到微博数据吗?不管爬取什么数据,都是要使用一些工具辅助的,比如,在爬取之前,需要有一个靠谱的爬虫程序,自己写也行,或者去网上找教程找现成的程序也行,现在网上也有

  • 17 2019-05
    代理IP在爬虫中起到破解封IP作用

    代理IP在爬虫中起到破解封IP作用,这封IP是平台的一种反爬机制,主要是拦住海量的爬虫,这爬虫也要求技术的,技术高的一般拦不住,但是大部分的爬虫都能拦住。为什么有些拦不住呢?就是

  • 08 2019-05
    代理IP使用后是否能避开蜜罐?

    代理IP使用后是否能避开蜜罐?蜜罐技术是网站设置的反爬虫,如果你上当了,可能就会被网站抓住了,如果想要避开,是否使用可以代理IP呢?

  • 04 2019-06
    动态IP代理可以在哪些领域使用

    动态IP代理可以在哪些领域使用?动态IP,主要是相对于平常所见到的固定IP而言的。机灵代理可以在代理服务器上实现更换IP,拨一次号换一次IP,从而实现不断更换IP的功能,像在爬虫采集、网

在线客服
大客户VIP渠道
点击这里给我发消息
讨论QQ群
HTTP代理IP爬虫
客服电话
13318873961