Python爬虫怎么用验证码登录
2021-03-17 18:25
标签:user utf-8 用途 -o 验证码 apt import param arc 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理 以下文章来源于腾讯云,作者:张凝可 很多网站为了避免被恶意访问,需要设置验证码登录,避免非人类的访问,Python爬虫实现验证码登录的原理则是先到登录页面将生成的验证码保存下来,然后人为输入后,包装后再POST给服务器,实现验证,这里还涉及到了Cookie,其实Cookie保存在本地主机上,避免用户重复输入用户名和密码,在连接服务器的时候将访问连接和Cookie组装起来POST给服务器。这里涉及到了两次向服务器POST,一次是Cookie,这里还自行设计想要Cookie的内容,由于是要登录,Cookie中存放的则是用户名和密码。第二次POST则是向服务器提交验证。 这里用到Python3,主要用到的包是re urllib.request http.cookiejar 上代码,借鉴了别人的代码~~~ Python爬虫怎么用验证码登录 标签:user utf-8 用途 -o 验证码 apt import param arc 原文地址:https://www.cnblogs.com/aa1273935919/p/13966381.htmlimport re
import urllib.request
import http.cookiejar
#from http.comkie import CookieJar 上面那句和这句等同
loginurl=‘https://www.douban.com/accounts/login‘
cookie = http.cookiejar.CookieJar()
opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor)#在已存的Cookie下建立连接
params={}
params[‘form_email‘]=‘用户名‘
params[‘form_password‘]=‘密码‘#这里写上已有的用户名和密码
params[‘source‘]=‘http://www.douban.com/accounts/login‘
#从首页提交登陆
response = opener.open(loginurl,urllib.parse.urlencode(params).encode(‘utf-8‘))#urllib.parse.urlencode(params).encode(‘utf-8‘)这个是向服务
#器POST的内容,可以打印一下response.geturl()请求的连接看一下
#print(response.geturl()[0:33])
#验证成功跳转至登陆页
if response.geturl()[0:33]==‘https://accounts.douban.com/login‘:
html = response.read().decode(‘utf-8‘)
#print(html),可以先打印一下文件内容,为了看到网页元素更方便的写正则,可以复制下来,在需要获取的地方用(.+?)表示,然后用group()元组来取得,
#验证图片地址
imgurl=re.search(‘‘,html)
if imgurl:
url=imgurl.group(1)
#print(url)
#将验证码以v.jpg保存在本地,在输入验证码的时候可以手工输入
res=urllib.request.urlretrieve(url,‘v.jpg‘)
captcha = re.search(‘‘,html)
#print(captcha.group(1))
if captcha:
vcode=input(‘请输入图片上的验证码:‘)
params["captcha-solution"] = vcode
params["captcha-id"] = captcha.group(1)#这个是动态生成的,需要从网页中获得
params["user_login"] = "登录"
#提交验证码验证
response = opener.open(loginurl,urllib.parse.urlencode(params).encode(‘utf-8‘))
if response.geturl()=="https://www.douban.com/":
print("login sucess")
下一篇:JAVA程序流程控制