您的位置:首页 > 新闻资讯 >文章内容
爬虫的请求头应该怎写不会被发现?
来源:互联网 作者:admin 时间:2019-02-20 17:30:24

    网站的反爬虫存在于整个爬虫获取数据流程里面,爬虫首先会遇到请求的问题,如果爬虫不伪装浏览器发送请求,那么就会被网站检测到爬虫,从而禁止访问,拒绝返回信息。那么爬虫的请求头应该怎写呢?


    当我们使用浏览器访问网站的时候,浏览器会发送一小段信息给网站,我们称为RequestHeaders,在这个头部信息里面包含了本次访问的一些信息,例如编码方式,当前地址,将要访问的地址等等。这些信息一般来说是不必要的,但是现在很多网站会把这些信息利用起来。其中最常被用到的一个信息,叫做“User-Agent”。网站可以通过User-Agent来判断用户是使用什么浏览器访问。不同浏览器的User-Agent是不一样的,但都有遵循一定的规则。


    例如,我们在windows上面的Chrome浏览器,它的User-Agent是:


    但是如果我们使用Python的Requests直接访问网站,除了网址不提供其他的信息,那么网站收到的User-Agent是空。这个时候网站就知道我们不是使用浏览器访问的,于是它就可以拒绝我们的访问。


    例如:


    没有User-Agent的情况


爬虫的请求头应该怎写不会被发现?


    有User-Agent的情况


爬虫的请求头应该怎写不会被发现?


    如何获取网站的User-Agent呢?请打开Chrome,任意打开一个网站,然后右键,“检查”打开开发者工具,定位到“Network”选项卡,并刷新网页,如下图所示:


爬虫的请求头应该怎写不会被发现?


    在左下角会出现当前网页加载的所有元素。随便点一个元素,于是在右下角会出现对当前元素的请求信息。在里面找到RequestHeaders这一项,里面的内容即为我们需要的内容。


    不同的网站,RequestHeaders是不同的


    提示:requests的get方法,post方法,Session模块的get方法,post方法,都支持自定义Headers,参数名为headers,它可以接收字典作为参数。


    我们可以通过字典来设定Headers,例如:


爬虫的请求头应该怎写不会被发现?


    其实网站通过检查User-Agent是一种最简单的反爬虫机制,而我们爬虫也可以通过设定RequestHeaders中的User-Agent来突破这种机制。当时如果获取信息都使用同一种User-Agent,这也太反常了,没有那么巧的事情,这也可能会被检测到,从而被封。因此,即使使用User-Agent能突破限制,也是需要更换不同User-Agent来使用,可以收集不同的浏览器User-Agent,同浏览器不同本版的User-Agent也是不一样,都可以收集轮流使用。


相关文章内容简介
推荐阅读
  • 03 2019-10
    PHP使用代理IP实现隐藏地址

    有过爬虫经验的,对代理IP的使用不会陌生,那么也应该了解过代理IP能够帮助我们隐藏真实IP地址的功能。PHP要想在使用CURL库隐藏真实IP,就需要通过代理服务器来实现。下面,我们看看具体操

  • 26 2019-08
    做自媒体能用代理IP做什么?

    自媒体平台如同雨后春笋出现,从微博、微信公众号、头条号、抖音号等等,人人都有成为自媒体大咖的机会跟窗口。那么,你知道要做好一个新媒体矩阵,你为什么会需要用到代理IP吗?以及新

  • 07 2019-07
    网络爬虫使用http代理的作用

    网络爬虫使用http代理的作用,刚刚接触数据采集,可能大家不清楚为何网络爬虫要使用http代理?

  • 28 2019-11
    获得客户端真实IP地址的操作

    用户使用代理服务器可以选择高匿名的代理来将自己本地真实IP进行隐藏,这么一来,我们在进行网络访问的时候就会更加安全。但如果不是使用高匿代理,那么客户端的IP地址是能够获取到的

  • 28 2019-10
    代理IP的使用人群变广

    电商、营销人员等都需要扩大自己的客源,那么想要获得更多的客户,线上推广是必不可少的。可以通过社交平台来进行好友添加,进行营销活动。

  • 24 2019-06
    用了国内代理IP爬虫也突破不了

    用了国内代理IP爬虫也突破不了,这是怎么回事?是国内代理IP不好使用,还是爬虫程序有问题呢?

在线咨询
大客户经理
大客户经理
1829380381
13316264505

大客户经理微信

微信公众号

微信公众号

回到顶部