您的位置:首页 > 新闻资讯 >文章内容
Python爬虫怎么伪装http请求
来源:互联网 作者:admin 时间:2019-02-19 15:26:31

    爬虫想要抓取数据,首先要伪装好自己的数据,如需要使用代理IP修改IP地址,伪装请求头访问,否则会被系统检测到你是爬虫,这样就访问不了网页。关键是Python爬虫怎么伪装http请求,实现访问呢?


    1.我们在百度搜索时,输入关键词,比如“hello”,URL发生变化,如下:


    https://www.baidu.com/s?wd=hello&rsv_spt=1&rsv_iqid=0xfc1746f10002f457&issp=1&f=8&rsv_bp=0&rsv_idx=2&ie=utf-8&tn=baiduhome_pg&rsv_enter=1&rsv_sug3=6&rsv_sug1=6&rsv_sug7=100&rsv_t=bfb1srfxPDC%2B3vVQ8VIkfcg4Yus9EaBJZmHlVn5upgnCTMv99iZYH9iJSX3nVzXYdpeC


    如果只截取前一部分“https://www.baidu.com/s?wd=hello”,搜索效果是相同的,wd=后面跟的就是我们要搜索的关键词。


    因此,我们可以通过这个构造GET请求。


Python爬虫怎么伪装http请求


    也可以用另一种简化一点的方法,原理是相同的:


Python爬虫怎么伪装http请求


    这样保存到1.html的,就是我们想要的搜索结果网页。


    但是对于汉字搜索,上面的程序就是报错,这是由于编码问题造成的。对于这个问题,可以利用urllib.parse中的quote解决,具体如下:


Python爬虫怎么伪装http请求


    2.Python爬虫可以通过模拟浏览器登陆来实现伪装,即通过设置User-Agent的方式来达到隐藏爬虫身份的目的。原理:User-Agent存放于Headers中,服务器就是通过查看Headers中的User-Agent来判断是谁在访问的。


    我们可以通过chrome的审查元素功能来查看User-Agent,然后添加进去。获取各浏览器的User-Agent:


Python爬虫怎么伪装http请求


    Python爬虫怎么伪装http请求?可以构造GET请求,设置User-Agent来模拟浏览器访问,避免被认出是爬虫,这样可以更好的获取到信息了。


相关文章内容简介
推荐阅读
  • 20 2019-06
    数据收集遇到IP限制用爬虫代理

    数据收集遇到IP限制用爬虫代理,这是最有效的方法了。大数据时代的快速发展,数据收集也尤为重要,特别是对于迫切需要转型的传统企业和急需发展的中小企业。我们应该如何从大数据中挑

  • 12 2019-02
    如何获取到HTTP代理?代理的匿名程度检测方法

    由于网站有IP限制,若是需要突破IP限制频繁访问,这是需要使用代理,一般可以使用HTTP代理,绕过了IP的限制。那么如何获取到HTTP代理呢?

  • 05 2019-04
    添加代理ip,爬虫是否能绕过访问

    在使用爬虫时,有没有遇到什么问题?比如说,刚开始爬,马上就被封了,还不知道原因。遇到这个问题,一般是什么原因呢?

  • 09 2019-03
    多线程容易发生死锁的原因?怎么应对多线程的死锁问题?

    爬虫使用多线程的过程中,若不小心,容易出现多线程死锁的情况,这是什么原因导致的呢?什么情况下会发生多线程死锁呢?若是发生多线程死锁,我们应该怎么处理呢?下面就去了解下关于

  • 18 2019-06
    用静态IP和动态IP代理的网速哪个快

    用静态IP和动态IP代理的网速哪个快?我们现在使用的IP大多数都是动态的,是不是使用静态IP比动态IP网速会更加快呢?不然为什么别人的网速这么快的呢?

  • 23 2019-07
    http代理解决采集太频繁IP被封问题

    http代理解决采集太频繁IP被封问题,可以说http代理时爬虫程序或者爬虫采集工具的必备辅助工具,那么这http代理是怎么用的呢?

在线客服
大客户VIP渠道
点击这里给我发消息
讨论QQ群
HTTP代理IP爬虫
客服电话
13318873961