Python 爬虫数据解析--正则(爬取糗图)

2021-04-11 08:26

阅读:310

标签:案例   print   代码   mgr   进制   url   名称   python   通用   

案例:使用正则爬取糗图百科图片

单页面的代码

import re
import requests
import os

#创建文件夹
if not os.path.exists(‘./qiutu‘):
    os.mkdir(‘./qiutu‘)

headers = {
        ‘user-agent‘: ‘Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) ‘
                      ‘Chrome/57.0.2987.98 Safari/537.36‘}
url=‘https://www.qiushibaike.com/imgrank/page/‘

#使用通用爬虫对url对应的一整张页面进行爬取
page_text=requests.get(url=url,headers=headers).text
 #使用聚焦爬虫将页面中所有的糗图进行解析/提取
ex =‘
.*?‘ img_list=re.findall(ex,page_text,re.S) for src in img_list: #拼接出一个完整的图片url src=‘https:‘+src #请求到了图片的二进制数据 img_data=requests.get(url=src,headers=headers).content #生成图片名称 img_name=src.split(‘/‘)[-1] #图片存储的路径 img_path=‘./qiutu/‘+img_name with open(img_path,‘wb‘) as f: f.write(img_data) print(img_name,‘下载成功‘)

完整页面代码

#导入模块
import re
import requests
import os

#创建文件夹
if not os.path.exists(‘./qiutu‘):
    os.mkdir(‘./qiutu‘)

#模仿浏览器访问
headers = {
        ‘user-agent‘: ‘Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) ‘
                      ‘Chrome/57.0.2987.98 Safari/537.36‘}
#网站访问地址
url=‘https://www.qiushibaike.com/imgrank/page/‘

#多页访问
for page in range(1,3):
    new_url=url+ str(page)  #新url地址
    page_text=requests.get(url=new_url,headers=headers).text   #页面内容下载
    #正则匹配图片路径
    ex =‘
.*?‘ img_list=re.findall(ex,page_text,re.S) #图片保存 for src in img_list: src=‘https:‘+src #图片下载路径 img_data=requests.get(url=src,headers=headers).content #二进制保存 img_name=src.split(‘/‘)[-1] #图片名字 img_path=‘./qiutu/‘+img_name #图片保存路径 with open(img_path,‘wb‘) as f1: f1.write(img_data) print(img_name,‘下载成功‘)

运行结果:

技术图片
技术图片

正则解析知识点:

指引我有前进的方向
ex = ‘
.*?‘ #第一个.*?表示 #第二个.*?表示pic.qiushibaike.com/system/pictures/12172/121721100/medium/DNXDX9TZ8SDU6OK2.jpg (图片路径,是要匹配的目标) #第三个.*?表示 "指引我有前进的方向"

Python 爬虫数据解析--正则(爬取糗图)

标签:案例   print   代码   mgr   进制   url   名称   python   通用   

原文地址:https://blog.51cto.com/13760351/2512407


评论


亲,登录后才可以留言!