国庆长假已结束,Python 告诉你 6 亿国人都去哪儿浪了附源码
2021-03-18 15:26
标签:开发者 alt csv evel header level wrk 主题 消息 看到了网上的一篇文章,把完整源码附上 先说程序入口:https://piao.qunar.com/ticket/list_热门景点.html?from=mps_search_suggest_h 发现去哪儿网有一个「热门景点」的内页,在首页输入框直接输入「热门景点」即可直达该页面。该网站还将这些热门景点进行了分类,比如人文景观,城市风貌,古建筑等。同时我们需要的景点名称,城市,景区级别以及景区地址等信息都可以从该页面获取的到。 数据源头已经分析完毕,接下来就可以开始我们的爬虫编码了,首先定义好我们的准备获取全国景点的主题。为了方便后续操作,我们可以将解析好的数据保存到 csv 文件中。 其次我们需要一个下载网页内容的函数,该函数接受一个 URL 参数,之后返回该 URL 对应的网页内容,同时为了更真实的模拟浏览器请求,需要添加 Headers。 获取到内容之后,我们还需要一个解析函数,该函数接收一个网页文本,然后将我们所需要的「名称, 城市, 类型, 级别, 热度, 地址」信息解析出来,并写入 csv 文件。 至此我们已经准备好,下载函数,解析函数,现在只需要直接遍历主题,拼接 URL 调用相关函数即可。为了防止被禁封 IP,每次请求之后让程序暂停 5 秒。 获取到全国的旅游数据之后,就可以开始分析了。为了让操作方便,引入 pandas,先仔细看下我们的数据格式。首先热度一列里面含有中文,需要分割,其次因为热度数值是小数不方便操作,因此我们决定将热度扩大 1000 倍,因为是整体扩大了 1000 倍,因此并不会影响分析结果。 之后我们需要解析出该景点所在的城市。同样是分割字符串。同时因为还有一些地点是地图无法识别的,所以要去除。 参考内容: 国庆长假已结束,Python 告诉你 6 亿国人都去哪儿浪了附源码 标签:开发者 alt csv evel header level wrk 主题 消息 原文地址:https://www.cnblogs.com/duoba/p/13912753.html
据新华网消息,整个国庆长假外出游玩人次达 6.37 亿人次,那么这么多人都到哪儿去玩了呢,今天我们就用 Python 做一个全国热门景区热点图。入口
打开去哪儿网,首页输入「热门景点」仔细观察页面最上方的 URL 你会发现惊喜。其中 subject 就是景点主题,而 page 看样子则是页码,点击下一页验证一下,page 变成 2 了,没猜错。
分析完 URL 之后,再来看看数据从什么地方获取的,切换到浏览器开发者模式,浏览下我们发现所有的景点数据都在一个叫做 ”search-list“ 的 div 中。针对单个景点,其数据是在一个 class = ‘sight_item’ 的 div 中。接下来就是解析页面原属,将景点,省市,时间,热度等数据做分析。采集数据
import requests
import csv
import time
from bs4 import BeautifulSoup
subjects = [‘文化古迹‘, ‘自然风光‘, ‘农家度假‘, ‘游乐场‘, ‘展馆‘, ‘古建筑‘, ‘城市观光‘]
excel_file = open(‘data.csv‘, ‘w‘, encoding=‘utf-8‘, newline=‘‘)
writer = csv.writer(excel_file)
writer.writerow([‘名称‘, ‘城市‘, ‘类型‘, ‘级别‘, ‘热度‘, ‘地址‘])
headers = {
‘accept‘: ‘text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9‘,
‘user-agent‘: ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36‘,
‘accept-encoding‘: ‘gzip, deflate, br‘,
‘accept-language‘: ‘zh-CN,zh;q=0.9,en;q=0.8‘,
‘referer‘: ‘https://piao.qunar.com/‘,
‘cookie‘: ‘xxxyyyzzz...‘
}
def get_page_html(url):
try:
response = requests.get(url, headers=headers)
if response.status_code == 200:
return response.text
return None
except RequestException:
return None
def parse_content(content, subject):
if not content:
return;
soup = BeautifulSoup(content, "html.parser")
search_list = soup.find(id=‘search-list‘)
items = search_list.find_all(‘div‘, class_="sight_item")
for item in items:
name = item[‘data-sight-name‘]
districts = item[‘data-districts‘]
address = item[‘data-address‘]
level = item.find(‘span‘, class_=‘level‘)
level = level.text if level else ‘‘
star = item.find(‘span‘, class_=‘product_star_level‘)
star = star.text if star else ‘‘
writer.writerow([name, districts, subject, level, star, address])
def get_data():
for subject in subjects:
for page in range(5): #抓5页的数据就可以了,盗亦有道啊
page = page + 1
url = F‘https://piao.qunar.com/ticket/list.htm?keyword=热门景点®ion=&from=mps_search_suggest&subject={subject}&page={page}&sku=‘
print(url)
content = get_page_html(url)
parse_content(content, subject, url)
time.sleep(5)
数据分析
import csv
import pandas as pd
from pyecharts.globals import ChartType
from pyecharts.charts import Geo
from pyecharts import options as opts
data = []
with open(r‘data.csv‘, ‘r‘,encoding=‘utf8‘) as f:
reader = csv.reader(f)
header = next(reader)
for row in reader:
data.append(row)
df_data = []
for row in data:
try: #可能某些数据有错误,所以加上一个监测
city = row[1].split(‘·‘)[1]
except:
continue
if city in [‘保亭‘, ‘德宏‘, ‘湘西‘, ‘陵水‘, ‘黔东南‘, ‘黔南‘]:
continue
star = row[4].split(‘热度‘)[1].strip()
star = int(float(star) * 1000)
df_data.append([row[0], city, row[3], star])
df = pd.DataFrame(df_data, columns=[‘name‘, ‘city‘, ‘level‘, ‘star‘])
data = df.groupby(by=[‘city‘])[‘star‘].sum()
citys = list(data.index)
city_stars = list(data)
data = [list(z) for z in zip(citys, city_stars)]
生产热点地图
geo = (
Geo()
.add_schema(maptype="china")
.add(
"热点图", #图题
data,
type_=ChartType.HEATMAP, #地图类型
)
.set_series_opts(label_opts=opts.LabelOpts(is_show=False)) #设置是否显示标签
.set_global_opts(
visualmap_opts=opts.VisualMapOpts(max_ = 5000), #设置legend显示的最大值
title_opts=opts.TitleOpts(title=""), #左上角标题
)
)
geo.render_notebook() #notebook渲染
# geo.render(‘geo.html‘) #输出到html文件
生成柱状图
from pyecharts.charts import Bar
data.sort(key=lambda x:x[1], reverse=True)
xaxis=[]
yaxis=[]
for x in range(15):
xaxis.append(data[x][0])
yaxis.append(data[x][1])
bar1=(
Bar() ##定义为柱状图
.add_xaxis(xaxis) ##X轴的值
.add_yaxis(‘ TOP 15 的热点旅游城市‘,yaxis) # #y的值和y的一些数据配置项
)
# bar1.render(‘bar1.html‘) ###输出html文件
bar1.render_notebook()
生产饼图
from pyecharts.charts import Pie
data3 = df.groupby(by=[‘name‘])[‘star‘].sum()
names = list(data3.index)
name_stars = list(data3)
data3 = [list(z) for z in zip(names, name_stars)]
data3.sort(key=lambda x:x[1], reverse=True)
pie = Pie()
pie.add(‘‘,data3[:10])
pie.render_notebook()
派森酱 Python技术
国庆长假已结束,Python 告诉你 6 亿国人都去哪儿浪了
https://mp.weixin.qq.com/s?__biz=MzU1NDk2MzQyNg==&mid=2247487266&idx=1&sn=92d02eb0f2df53c51e0e0f4f2cd46f8c&chksm=fbdad7afccad5eb93a02078e2d4d5f45c0f97cf42e7135ea48e8ea53368191fecce52c22733d&mpshare=1&scene=24&srcid=10153ctZQzo4fyh4jnEHx2AN&sharer_sharetime=1602722052425&sharer_shareid=abd304ffaea8615085d6442028d05fe0&key=e8ca14f203d03fdf0f8b23aa05c8e727948b689287899b9bdbc006c2574ae439ddee54703885d6cdd9fe43af271e861c1bf8795440c8ca5aef6e088a6a28d3e8ca4b3b31e9e45f8907492fb2ac4864bafe357bc01f59839cae2f92e17472cf58c3dcad2c69120dfe462add9ea8b3b8d621e58df5ab18d7731dd71a8577826072&ascene=14&uin=ODc0MjY5NTYw&devicetype=Windows+10+x64&version=6300002f&lang=zh_CN&exportkey=AY6rXYsuA6oc10AEcDOwhQg%3D&pass_ticket=Xc38Umcst%2FPXfT6SzFtfTBDpa52NEIqYVyDtD6lTCvkWRk5jlqFmAz5sjuWYhRAo&wx_header=0
文章标题:国庆长假已结束,Python 告诉你 6 亿国人都去哪儿浪了附源码
文章链接:http://soscw.com/index.php/essay/65830.html