requests之网页采集器

2021-03-23 02:28

阅读:453

标签:like   get   字典   inpu   param   col   port   一个   requests   

# UA:User-Agent(请求载体的身份标识)
# UA 检测: 门户网站的服务器会检测对应请求的载体身份标识,如果检测到请求的载体身份标识为某一浏览器
#说明该请求是一个正常的请求。否则为不正常的请求(爬虫),则服务器有可能拒绝
# UA伪装:让爬虫对应的请求载体身份标识伪装成某一款浏览器
import requests

if __name__ ==__main__:
    # UA 伪装:将对应的User-Agent封装到一个字典中
    headers = {
        User-Agent:Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36
    }
    url = https://www.sogou.com/web
    # 处理url携带的参数:封装到字典中
    kw = input(enter a word:)
    param = {
        query:kw
    }
    # 对指定的url发起的请求对应的url是携带参数的,
    res = requests.get(url=url,params=param,headers=headers)

    page_text = res.text
    fileName = kw +.html
    fp = open(fileName,w,encoding=utf-8)
    fp.write(page_text)
    print(fileName,"保存成功")

 

requests之网页采集器

标签:like   get   字典   inpu   param   col   port   一个   requests   

原文地址:https://www.cnblogs.com/huahuawang/p/12692154.html


评论


亲,登录后才可以留言!