您的位置:首页 > 新闻资讯 >文章内容
Java分布式爬虫如何爬取数据案例分享
来源:互联网 作者:admin 时间:2019-01-31 09:18:00

    除了Python可以做分布式爬虫外,Java也能做分布式爬虫,那么Java分布式爬虫容易吗?还需不需要使用代理IP来突破限制的呢?今天跟小编去了解下关于Java分布式爬虫如何爬取数据的问题,下面以Java分布式爬虫抓取电商商品信息为例:


    首先是我们的核心部分--爬虫程序。爬虫的过程为:从Redis数据仓库中取出URL,利用HttpClient进行下载,下载后的页面内容,我们使用HtmlCleaner和xPath进行页面解析,这时,我们解析的页面可能是商品的列表页面,也有可能是商品的详细页面。如果是商品列表页面,则需要解析出页面中的商品详细页面的URL,并放入Redis数据仓库,进行后期解析;如果是商品的详细页面,则存入我们的MySQL数据。具体的架构图如下:


Java分布式爬虫如何爬取数据案例分享


    当核心程序爬虫编写完后,为了加快页面抓取效率,我们需要对爬虫进行改进:一是对爬虫程序进行多线程改造;二是将爬虫部署到多台服务器,进一步加快爬虫的抓取效率。在实际生产环境中,由于刀片服务器的稳定性不太好,所以可能导致一些问题,例如:爬虫进程挂掉,这些问题有可能是经常出现的,所以我们需要对其进行监控,一旦发现爬虫进程挂了,立即启动脚本对爬虫进程进行重新启动,保证我们整个爬虫核心的持续性作业。这是就用到了我们的分布式协调服务ZooKeeper。我们可以另外写一个监控进程的程序用来实时监控爬虫的运行情况,原理是:爬虫在启动时,在ZooKeeper服务中注册一个自己的临时目录,监控程序利用ZooKeeper监控爬虫所注册的临时目录,利用ZooKeeper的性质--如果注册临时目录的程序挂掉后,这个临时目录过一会儿也会消失,利用这个性质,我们的监控程序监控爬虫所注册的临时目录,一旦发现临时目录消失,则说明改服务器上的爬虫进程已挂,于是我们需要启动脚本重新启动爬虫进程。随后我们将抓取得到的商品详细信息存储到我们的分布式MySQL数据库中。以下是整个爬虫项目的架构图:


Java分布式爬虫如何爬取数据案例分享


    1.Redis数据库——临时存储待抓取的URL


    Redis数据库是一个基于内存的Key-Value非关系型数据库。由于其读写速度极快,收到了人们的热捧(每秒10W左右的读写速度)。选用Redis数据库作临时数据存储正是基于此。为了使我们的爬虫优先抓取商品列表页面,我们在Redis中定义了两个队列(利用Redis的list的lpop和rpush模拟),分别是高优先级队列和低优先级队列,我们再高优先级队列中存储了商品列表页面,在低优先级队列存储了商品详细页面。这样我们就可以保证爬虫再进行抓取数据的时候,优先从高优先级队列取数据,从而使得爬虫优先抓取商品列表页面。为了很好地利用Redis数据库,我们编写了一个对于Redis的操作工具类。


    2.HttpClient——使用IP代理抓取数据


    为防止爬虫在频繁访问电商页面的行为被对方程序发现,爬虫程序一般在进行抓取数据的时候都是利用代理IP来抓取,以减少爬虫被电商发现的概率。我们可以使用一些网上的免费IP代理,如西刺代理,也可以花钱买一些IP进行代理下载电商页面。在使用代理进行页面下载时,可能出现连接超时,但这有可能是网络波动导致,也可能是代理IP失效。为了防止出现误判,我们在此做了三次尝试连接的机制代码,如果三次尝试失败,则认为这个IP失效。


    3.HtmlCleaner&xPath——对下载过来的页面进行解析


    解析页面是比较繁琐的任务,我们首先要确定需要解析的对象,然后再利用浏览器提供的xPath工具,copy xpath,然后再根据这个xpath解析出需要的东西。


    4.MySQL数据库——存储商品详细信息


    在操作MySQL数据库这一块,我们也是写了一个数据库操作工具类,使用了Apache数据库连接池DBCP,这个算是比较简单的,配置了DBCP的配置文件后就可以很好地使用了。


    5.ZooKeeper:分布式协调工具,用于后期监控各个爬虫的运行状态


    上文详细的介绍了关于Java分布式爬虫如何爬取数据,在进行抓取的时候,需要注意控制速度,并使用代理IP,比如机灵代理,以突破IP限制,合理的提高采集速度。


相关文章内容简介
推荐阅读
  • 23 2019-09
    代理IP告诉你http和https的区分

    使用代理IP的时候,在选择不同的代理套餐的时候,我们会发现有不同的协议。http与https只是一个单词的不同,那么它们之间的区别大吗?下面,机灵代理与大家一同看看这两者的介绍。

  • 29 2019-06
    HTTP代理找免费的怎样?

    HTTP代理找免费的怎样?肯定是有利也有弊的,就看你怎么看了,另外还分析了其他类型的HTTP代理,大家可以对比下效果的。

  • 11 2019-02
    如何利用python爬虫来抓取代理IP

    python网络爬虫的学习以及实现相对简单些,许多人都自学python,使用python来编写爬虫获取数据,但单靠理论是无法进步的,实战才能走远,今天小编普及以下如何利用python爬虫来抓取代理IP。

  • 10 2019-08
    用代理IP来防止被后台检测

    我们在写一个简单的爬虫时,爬虫代码很容易就会被后台检测到进而封掉。那么怎么样才能避免这些事发生呢?我们可以让爬虫用代理IP来防止被后台检测到的。

  • 29 2019-03
    案例分享:Python爬虫爬取热门歌单

    Python代码可以做很多的事情,用途比较广泛,比如想知道最近热门的歌单,这也是可以做到的。而且非常简单,零基础都能实现,15行代码便能搞定了。

  • 11 2020-07
    如何选择一个好的ip代理软件

    随着国家经济的快速发展,人民生活水平逐渐提升,网络技术的逐渐提高和普及,促进了http代理业务的迅速发展。http代理越来越成为人们网络生活中必不可少的一部分。代理IP的好处有很多,

在线咨询
大客户经理
大客户经理
1829380381
13316264505

大客户经理微信

微信公众号

微信公众号

回到顶部