
qq:800819103
在线客服,实时响应
qq群
在线客服,实时响应
客服电话
400-998-9776转3人人网当时可是非常火的社交平台,可惜后续发展不给力,跟不上时代的脚步,被新型社交平台给抢走了流量。但是我们做爬虫练习、学习Python的时候,还是可以利用这个网站来进行学习。下面分享一个Python使用代理IP发送表单数据的案例给大家。
Python模拟登录人人网,并使用代理IP,具体代码如下:
#__author__ = 'Administrator'
#encoding=utf-8
import urllib2,urllib
import cookielib
from bs4 import BeautifulSoup
#登录的url
hosturl = "http://www.renren.com"
#这里是要将账号和密码等信息要发送到的url,我用的是WSExploer抓包
posturl = "http://www.renren.com/ajaxLogin/login"
#生成cookies
cj = cookielib.LWPCookieJar()
cookie_support = urllib2.HTTPCookieProcessor(cj)
#opener = urllib2.build_opener(cookie_support,urllib2.HTTPHandler)
#ullib2.install_opener(opener)
#打开登陆界面,获取cookie,并将该cookie保存下来
h = urllib2.urlopen(hosturl)
#设置使用代理
proxy = {'http':'120.197.234.164:80'}
proxy_support = urllib2.ProxyHandler(proxy)
# opener = urllib2.build_opener(proxy_support,urllib2.HTTPHandler(debuglevel=1))
opener = urllib2.build_opener(cookie_support,proxy_support,urllib2.HTTPHandler)
urllib2.install_opener(opener)
#构造头,这方法和上边获取posturl方法一样
headers={
'User-Agent':'Mozilla/5.0 (Windows NT 6.3; WOW64; rv:40.0) Gecko/20100101 Firefox/40.0/',
'Referer':'http://www.renren.com/'
}
#发送的数据,同上
postdata={
'email':'xxxxxxxxxxx', #用户名
'password':'xxxxxxxxxx' #密码
}
#将数据进行编码
postdata = urllib.urlencode(postdata)
#构造一个请求消息
request = urllib2.Request(posturl,postdata,headers)
print "requests:%s" % request
#发送一个请求消息
response = urllib2.urlopen(request)
text = response.read()
print "text:%s" %text
listvalue = text.split(",")
#获取人人登录的主页
href = listvalue[1].split(":")[2]
#print href[:-2]
renrenhttp = "http:" + href[:-2]
print "renrenhttp:%s" % renrenhttp
#print urllib2.urlopen(renrenhttp).read()
page = urllib2.urlopen(renrenhttp).read()
soup = BeautifulSoup(page)
print soup.title
以上就是python通过模拟浏览器登录到人人网,使用代理IP发送表单数据的操作。
怎么更换电脑ip地址?日常生活中,我们上网可能不想使用自己电脑的IP,又或者需要换IP申请某某的东西,甚至可以看看一些限制的网站,怎么办呢?下面教大家一种方法。
网络爬虫想要顺顺利利的爬取到大量的数据,这对伪装要求比较高,不然爬着爬着就突然爬不动了,明明小心翼翼的绕过了反爬机制,可怎么又被另一个反爬机制给抓住了,正所谓明枪易躲,暗
平台限制刷票代理IP能否突破?刷票不少见,不管是什么投票活动,总是有人想要拿到排名奖品的,但是如果票数不多,可能就会想着去刷票。
在使用代理IP之前,一般都会先进行验证,看看代理IP是否有效。对于高级工程师来说,也许就是几行代码几分钟的事情,对于新手朋友来说,就比较棘手了。今天和大家讨论几种简单的验证代
现在即使是个小网站,网页数量也不少,更比说一些大型的网站了。通常使用爬虫采集数据,都是找一些有价值的网站,这些网站的防御强,如果想顺利的爬取数据,还需要多学几招突破的方法
爬虫代理隐藏IP可以保护安全,这一点是毋庸置疑的,IP是上网的必要条件,没有分配IP地址这些上不了网的。上网的设备都会连接唯一的IP地址,就像我们的身份证一样。如果我们能够隐藏这个