您的位置:首页 > 新闻资讯 >文章内容
Java爬虫之匿名代理IP的获取
来源:本站 作者:admin 时间:2019-02-25 15:37:16

爬虫,AI一直是近年来为之关注的焦点,Java以自己独有的严格的语言约束和庞大且成熟的各种框架,成为企业一度的选择,也成为当今码农必知必会的编程语言。


诚然,Java仍然更多地用在WEB开发上,所以学会初级Java爬虫,也是在Java的技能道路上,多看了一处别样的风景。


环境准备:


1. 一个你使用的很顺手的开发工具,(我用IDEA);

2. MAVEN包管理环境;

3. JAR:Jsoup、HTTPClient;

4. 目标站点:某某代理;

5. 一个已经看过上一期爬虫文章,同样期待着这一期的你;


开工:


一、 创建WeChat类,并添加JAR包;


二、编辑WeChat类,定义一个用于发起HTTP请求的然后返回HTML文本页面的方法:


private String getHTML(String url) {

       CloseableHttpClient httpClient = HttpClients.createDefault();

       HttpGet httpGet = new HttpGet(url);

       httpGet.setHeader('User-Agent', 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.170 Safari/537.36');

       CloseableHttpResponse response;

       try {

           response = httpClient.execute(httpGet);

           HttpEntity responseEntity = response.getEntity();

           return EntityUtils.toString(responseEntity, 'utf-8');

       } catch (IOException e) {

           e.printStackTrace();

       }

       return '';

}


1、如上图所示,使用HTTPClient创建Http发起者,使用HttpGet,创建GET请求的对象,封装该对象,并使用HTTPClient将其发送到目标站点,获得返回值类型为HTTPResponse,对该响应使用EntityUtils工具统一格式化编码后,将其返回。


PS:被EntityUtils工具处理后,该响应不再为HTTPResponse对象,而是进行了编码后的该Response对象的文本。类型为String。


三、对第二步中的方法进行测试,确保其正确无误,测试及结果如下:


image.png

 

四、承接第二步,我们继续编写用于解析HTML文本的方法,在第二步中我们使用HttPClient发起了GET请求,这里,我们要使用Jsoup解析HTML文本,通过对根节点和子节点的解析,准确获取目标信息,代码如下:


private void doParser(String html) {

       Document document = Jsoup.parse(html);

       Elements elements = document.select('tr.odd');

       for (Element element : elements) {

           String context = element.getAllElements().select('td').text();

           if (context.contains('高匿')) {

               int index_ip = context.indexOf(' ');

               String ip_text = context.substring(0, index_ip);

               String sub_string = context.substring(index_ip, context.length());

               sub_string = sub_string.trim();

               int index_port = sub_string.indexOf(' ');

               String port_text = sub_string.substring(0, index_port);

               System.out.println(ip_text + ':' + port_text);

           }

       }

}

 

如上所示:定义了名为doParser()的无返回值方法,以String类型的形参HTML为目标,使用Jsoup.parser()方法,将其转化为Document对象,使用select() CSS选择器,查找该HTML中所有的class为“odd”的标签(在该网页中:class为“odd”的标签和没有class的标签是一半一半所以这里只是选择了当前网页的一半的IP,但这拿来使用足矣)。


Select()选择器查找到class为odd的tr标签后,返回Elements对象,使用for each循环遍历得到该Elements中的所有单个element,使用if过滤掉非高匿的IP,从此处开始,正式进入本文的核心环节,也是爬虫的难点所在信息提取!


信息提取详解:

在if条件句中,首先打印出过滤了非高匿IP后的信息,如图:


image.png

 

诚然,没有价值的信息很多,我们需要做文本清洗,剥离出有价值的IP和端口必要信息,将其他繁杂信息舍去。


一、IP提取(要点)

分析单行文本可知,若想提取出IP,该行首次出现的“ ”(空格)符号是分割的重点,此处我们使用indexOf()方法,获得第一次出现的“ ”(空格)符号的下标所在,再根据下标,使用substring()方法,将其剥离出来,如图:


image.png


这样我们就拿到了IP地址;


一、 端口号的获取(难点)

端口号的获取让我纠结了许久,这也是这篇文章迟迟才出的原因,如果你有更好的办法请不吝赐教。


原本的思路是在API文档中找到一个可以查找当前字符串中某一字符第二次出现的位置并返回下标,然而并没有找到,不是返回最后一次的就是返回第一次的,我百思不得解,一个final的String类竟然不会有这样的方法?为何?这说明该类下的所有已发布方法足矣处理任何String的问题,所以,我开始尝试用不相干的方法,制造合理的利用条件,思路如下:


image.png

 

首先我们来看,在第一步剥离了IP地址后,如果想再次使用IndexOf()方法这样去返回第一个“ ”(空格)字符的下标,然后再根据获得的下标切割去得到关键信息的话,显然IP地址是不应该再存在的,因为在IP地址和port之间已经有一个 “ ”(空格)字符了。所以解决办法第一步,调用substring()方法,使获得的第一个“ ”(空格)字符的下标作为切割的起始下标,字符串的长度为末尾下标,这样我们就得到了一个新的字符串,如下:


image.png

 

但是这仍然不是最适合的剥离环境,因为根据“ ”(空格)字符的下标作为判断依据的话,那么我们还要除去首位的空格(不难发现,每一个端口之前是有一个空格的,仔细看图),调用String.trim()方法,除去字符串首位的空格,得到全新的完美字符串,这时再使用提取IP时的方法就可以得到关于IP和Port的信息,如图:


image.png


本文就向大家介绍到这里了,希望对大家有所帮助!

相关文章内容简介
推荐阅读
  • 24 2019-07
    用了代理ip会被检测到吗?

    用了代理ip会被检测到吗?很多人在使用代理ip的过程中也遇到了一些问题,例如速度慢、ip有效率地,甚至还有使用代理ip后还会被封的情况。这是因为用了代理ip会被检测到吗?这代理ip的匿名

  • 01 2019-06
    怎么测试代理的响应速度?

    怎么测试代理的响应速度?我们使用代理IP的时候,也会关注下代理的使用情况,响应速度这个参数也是要了解下的,那么如何测试代理的响应速度呢?

  • 11 2019-06
    分布式代理IP池的构建

    分布式代理IP池的构建,很多人都尝试自己去构建的这个代理IP池的,只是由于获取的都是免费的代理IP,其代理IP池的效果不明显。今天我们就一起去看看这个分布式代理IP池的构建吧。

  • 06 2019-05
    代理IP可以解决投票IP限制问题

    大家有没有帮家人或者同学之类的投过票呢?很多的投票都会进行拉票,但是拉票的数量也不是很多,就看人际关系了。因此有些人就会选择刷票,不过有些投票是有IP限制的,那么如何解决这

  • 14 2019-05
    代理IP比对小技巧!

    经常使用到垃圾的代理IP?那是你没有掌握代理IP比对小技巧!虽然一些代理IP很庞大,但效率极低,速度慢,不稳定,因此要找个好用的代理IP,还是需要一定的时间去对比的,如果掌握一些技

  • 22 2019-05
    爬虫使用IP代理来拆招

    为什么爬虫需要使用到IP代理,这是有原因的。虽然自有网络以来,爬虫就存在了,网络的每个角落都有爬虫,但是对于搜索引擎爬虫大家可能欢迎,不多一些恶意爬虫,网站并不想被采集,因

在线咨询
大客户经理
大客户经理
1829380381
13316264505

大客户经理微信

微信公众号

微信公众号

回到顶部