您的位置:首页 > 新闻资讯 >文章内容
添加代理ip,爬虫是否能绕过访问
来源:互联网 作者:admin 时间:2019-04-05 17:02:00

在使用爬虫时,有没有遇到什么问题?比如说,刚开始爬,马上就被封了,还不知道原因。遇到这个问题,一般是什么原因呢?


在使用python对网页进行多次快速爬取的时候,访问次数过于频繁,服务器不会考虑User-Agent的信息,会直接把你视为爬虫,从而过滤掉,拒绝你的访问,在这种时候就需要设置代理,我们可以给proxies属性设置一个代理的IP地址,代码如下:


 import requests
 from lxml import etree
 url = ""
 headers = {"User-Agent": "Mozilla/ (Windows NT 10.0; Win64; x64) AppleWebKit/ (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/ OPR/57.0.3098.116", }
 pro = {
 # 'https': '', #四川省成都市 电信
 'https': '', #湖北省武汉市 电信
 }
 try:
 response = (url, headers=headers, proxies=pro)
 html_str = ()
 # print(html_str)
 html = (html_str)
 message = ("//div[@class='well']//p/text()")
 ip = ("//div[@class='well']//p/code/text()")
 eng = ("//div[@class='well']/p/text()")
 print(message[0]+ip[0])
 print(message[1]+ip[1])
 print(eng[2])
 except requests.exceptions.ProxyError as e:
 print("当前代理异常")
 except:
 print("当前请求异常")

在上面的代码中,调用requests库,对一个IP地址查询网页进行访问,随后使用lxml库的xpath对网页进行分析提取,返回用户访问此网页时自己的IP地址,如果代理设置成功,则会返回你的信息和IP地址,如下:


添加代理ip,爬虫是否能绕过访问


如果代理失败则会返回异常,在代码中使用了捕获异常,则会返回设置的提示信息,"当前代理异常",如果不是代理的错误则是"当前请求异常"


添加代理ip,爬虫是否能绕过访问


PS:免费的代理不是很稳定,在确认代码无误后,如果仍然返回异常,可尝试更换代理IP...


以上就是遇到封IP之后,爬虫应对的方法,也就是说可以设置个代理ip,绕过进行访问的。免费代理不好用,可以找付费的代理,像机灵代理也是不错的。

相关文章内容简介
推荐阅读
  • 07 2019-05
    http代理能否维护隐私?

    http代理能否维护隐私?http代理的使用人群也不少,不过更多的人是不知道的,更早之前,甚至有人还不知道什么ip,更别说http代理了。但是随着时代的发展,以及互联网的不断进步,越来越多

  • 13 2019-05
    代理IP用于刷流量的好处

    代理IP用于刷流量的好处都有哪些?许多朋友需要使用来增加流量或点击率,例如:增加他们的博客流量,新颖访问,视频点击率,论坛帖子点击率等等。这将提高您的排名或显示在页面上的热

  • 21 2019-03
    用高匿代理IP玩游戏还会被封号吗?

    用高匿代理IP玩游戏还会被封号吗?玩游戏,封号是经常发生,有时候自己啥都没有使用,也被封了,这是咋回事呢?

  • 13 2019-05
    爬虫要想速度快必须要IP代理

    爬虫要想速度快必须要IP代理,这是为何?爬虫的问世,节省了很多机械性的工作,当大批量的信息需要被爬取的时候,爬虫能够自动的进行下载,很大层度上提升了工作效率。但是有个前提,

  • 24 2019-05
    混淆代理和匿名代理哪里不同

    有见过混淆代理(DistortingProxy)吗?这个代理其实跟匿名代理差不过,也是会被访问的服务器发现使用了代理的,但是跟匿名代理还是有些不同的,那么混淆代理和匿名代理哪里不同呢?

  • 21 2019-11
    代理IP正确调用API的说明

    今天我们来一起了解代理IP使用过程中遇到的问题,当代理IP绑定2个白名单,要怎么才能够正确的调用API链接?

在线咨询
大客户经理
大客户经理
1829380381
13316264505

大客户经理微信

微信公众号

微信公众号

回到顶部