您的位置:首页 > 新闻资讯 >文章内容
更换代理IP后启动爬虫,是否能断点续传?
来源:互联网 作者:admin 时间:2019-04-09 17:46:56

  更换代理IP后启动爬虫,是否能断点续传?有时候被封IP,导致爬虫程序中断,如果再次启动非常的麻烦,重新再来也没有效果,是否能够在更换新的IP地址后,再从断的地方开始呢?scrapy支持断点续传吗?


  一般Web服务器会默认开启对断点续传的支持。所以,如果直接通过Web服务器来提供文件的下载,可以不用做特别的配置,就能享受断点续传。还是尽可能的选择高匿名度的代理ip,不容易暴露,比如一直在用的机灵代理,匿名性就很好的。


  在scrapy中我想不用多说了,用过scrapy框架的应该都知道,本身scrapy就已经内置了一个参数jobs持久化设置


  要启用持久化支持,你只需要通过 JOBDIR 设置 job directory 选项。这个路径将会存储 所有的请求数据来保持一个单独任务的状态(例如:一次spider爬取(a spider run))。必须要注意的是,这个目录不允许被不同的spider 共享,甚至是同一个spider的不同jobs/runs也不行。也就是说,这个目录就是存储一个 单独 job的状态信息。


  怎么使用


  要启用一个爬虫的持久化,运行以下命令:


  scrapy crawl somespider -s JOBDIR=crawls/somespider-1


  然后,你就能在任何时候安全地停止爬虫(按Ctrl-C或者发送一个信号)。恢复这个爬虫也是同样的命令:


  scrapy crawl somespider -s JOBDIR=crawls/somespider-1


  保持状态


  有的时候,你希望持续保持一些运行长时间的蜘蛛的状态。这时您可以使用 spider.state 属性, 该属性的类型必须是dict. scrapy提供了内置扩展负责在spider启动或结束时,从工作路径(job directory)中序列化、存储、加载属性。


  下面这个例子展示了使用spider state的回调函数(callback)(简洁起见,省略了其他的代码):


更换代理IP后启动爬虫,是否能断点续传?


  持久化的一些坑


  如果你想要使用Scrapy的持久化支持,还有一些东西您需要了解:


  Cookies的有效期


  Cookies是有有效期的(可能过期)。所以如果你没有把你的爬虫及时恢复,那么他可能在被调度回去的时候 就不能工作了。当然如果你的爬虫不依赖cookies就不会有这个问题了。


  请求序列化


  请求是由 pickle 进行序列化的,所以你需要确保你的请求是可被pickle序列化的。 这里最常见的问题是在在request回调函数中使用 lambda 方法,导致无法序列化。


  例如, 这样就会有问题:


更换代理IP后启动爬虫,是否能断点续传?


  更换代理IP后启动爬虫,是否能断点续传?scrapy支持断点续传,无需从头开始,可以参考上文。


相关文章内容简介
推荐阅读
  • 26 2019-06
    代理IP池多大比较合适?

    代理IP池多大比较合适?代理IP池的大小影响价格,有些人觉得自己使用的代理IP数量比较少,不需要使用多大的代理IP池,那么租用多大的代理IP池比较合适呢?

  • 19 2019-06
    爬虫要使用多个ip代理怎么找

    爬虫要使用多个ip代理怎么找?爬虫由于需要抓取比较多的数据,这对于ip代理的需求比较大的,如果只是使用一个代理,这是不能满足需求的。既然需要多个ip代理,上哪里找好?

  • 01 2019-05
    用代理服务器的好坏影响

    用代理服务器的好坏影响都有哪些?一般都是了解代理服务器使用的好处,但是对代理服务器的影响并没有怎么了解的,本文详细为大家介绍下。

  • 15 2019-06
    国外可以使用ip代理吗?

    国外可以使用ip代理吗?平常我们是可以翻墙的,这样即使身在国内也能看到国外的信息,那么反过来行不行呢?也就是说在国外看国内的信息。这到底可不可以啊!

  • 23 2019-02
    使用HTTP代理IP突破网站限制IP投票次数

    ​很多朋友总是在朋友圈拉人投票,谁的朋友多就能获得更多的票数,至于本身实力是否能得第一已经不太重要。

  • 05 2019-08
    代理IP设置使用的五个不同方法

    由于同一个IP反复爬取同一个网页,就很可能被封,所以如果需要爬虫出面进行爬取,这需要使用代理IP的,但是怎么使用代理IP呢?这里介绍代理IP设置使用的五个不同方法,大家可以参考下的

在线客服
大客户VIP渠道
点击这里给我发消息
讨论QQ群
HTTP代理IP爬虫
客服电话
13318873961