您的位置:首页 > 新闻资讯 >文章内容
爬虫的请求头应该怎写不会被发现?
来源:互联网 作者:admin 时间:2019-02-20 17:30:24

    网站的反爬虫存在于整个爬虫获取数据流程里面,爬虫首先会遇到请求的问题,如果爬虫不伪装浏览器发送请求,那么就会被网站检测到爬虫,从而禁止访问,拒绝返回信息。那么爬虫的请求头应该怎写呢?


    当我们使用浏览器访问网站的时候,浏览器会发送一小段信息给网站,我们称为RequestHeaders,在这个头部信息里面包含了本次访问的一些信息,例如编码方式,当前地址,将要访问的地址等等。这些信息一般来说是不必要的,但是现在很多网站会把这些信息利用起来。其中最常被用到的一个信息,叫做“User-Agent”。网站可以通过User-Agent来判断用户是使用什么浏览器访问。不同浏览器的User-Agent是不一样的,但都有遵循一定的规则。


    例如,我们在windows上面的Chrome浏览器,它的User-Agent是:


    但是如果我们使用Python的Requests直接访问网站,除了网址不提供其他的信息,那么网站收到的User-Agent是空。这个时候网站就知道我们不是使用浏览器访问的,于是它就可以拒绝我们的访问。


    例如:


    没有User-Agent的情况


爬虫的请求头应该怎写不会被发现?


    有User-Agent的情况


爬虫的请求头应该怎写不会被发现?


    如何获取网站的User-Agent呢?请打开Chrome,任意打开一个网站,然后右键,“检查”打开开发者工具,定位到“Network”选项卡,并刷新网页,如下图所示:


爬虫的请求头应该怎写不会被发现?


    在左下角会出现当前网页加载的所有元素。随便点一个元素,于是在右下角会出现对当前元素的请求信息。在里面找到RequestHeaders这一项,里面的内容即为我们需要的内容。


    不同的网站,RequestHeaders是不同的


    提示:requests的get方法,post方法,Session模块的get方法,post方法,都支持自定义Headers,参数名为headers,它可以接收字典作为参数。


    我们可以通过字典来设定Headers,例如:


爬虫的请求头应该怎写不会被发现?


    其实网站通过检查User-Agent是一种最简单的反爬虫机制,而我们爬虫也可以通过设定RequestHeaders中的User-Agent来突破这种机制。当时如果获取信息都使用同一种User-Agent,这也太反常了,没有那么巧的事情,这也可能会被检测到,从而被封。因此,即使使用User-Agent能突破限制,也是需要更换不同User-Agent来使用,可以收集不同的浏览器User-Agent,同浏览器不同本版的User-Agent也是不一样,都可以收集轮流使用。


相关文章内容简介
推荐阅读
  • 23 2019-07
    大量采集网页信息需要动态ip代理软件

    大量采集网页信息需要动态ip代理软件,这是因为在频率的采集中,目标网站会进行ip限制的,所有需要使用动态ip代理软件来切换ip地址,从而获取继续访问的权限。

  • 24 2020-09
    代理ip和网关ip有什么关系

    依据代理ip总体目标详细地址,代理ip网关ip可以分辨对什么数据文件开展代理ip解决,针对不用解决的数据文件一般来说可立即分享到上级领导路由器。远程控制代理ip网关地址则特定了解决后

  • 04 2019-04
    使用IP代理玩游戏,能加速游戏并保护个人信息

    现在手机游戏这么流行,就连小学生都玩游戏了,可见玩游戏的人群非常广,我们玩游戏都要注意些什么呢?

  • 29 2019-08
    爬虫选对代理IP就不需要方案吗?

     开展爬虫工作的时候,是不是选好代理IP之后就可以一劳永逸,什么都不用管呢?不是说IP代理了,就能够避免被封吗?为什么爬虫还是会爬到一半暂停了,是代理IP的问题吗?

  • 02 2019-07
    价格便宜的http代理

    价格便宜的http代理,很多人都需要。因为现在http代理是大多数从事互联网工作的人中必不可少的,比如说换IP阿,隐藏IP之类的。其实,它的主要功能就是起到连接外部网络系统和内部网络系统

  • 13 2020-05
    代理IP作用有哪些

    代理IP用到的领域越来越广,如爬虫、投票、抢购等等,那么具体代理IP有什么用?能做些什么呢?

在线咨询
大客户经理
大客户经理
1829380381
13316264505

大客户经理微信

微信公众号

微信公众号

回到顶部