爬取疫情数据可视化,python疫情数据统计图

  爬取疫情数据可视化,python疫情数据统计图

  前言最近很多同学因为毕设和大作业的原因,想要分析疫情的数据,今天就在这里写一篇

  开发环境python 3.8:解释器pycharm:代码编辑器知识点代码基本流程要求发送请求是正则表达式数据结构化数据解析肾盂造影图可视化先是疫情的数据实现代码发送请求获取数据解析数据保存数据1.发送请求标题={

  # 浏览器基本信息

  用户代理: Mozilla/5.0(Windows NT 10.0;win 64x 64)apple WebKit/537.36(KHTML,像壁虎一样)Chrome/101。0 .4951 .67 Safari/537.36

  }

  response=requests.get(url=url,headers=headers)

  打印(响应)

  返回回应[200]:已经请求成功了

  2.获取数据html_data=response.text3 .解析数据

  :转义字符(把一些含有特定字符的内容转变为普通的字符)

  [(.*)]

  []: [ ]

  (): 我只需要(里面的内容)。匹配任意字符一次

  *: 匹配零次或者多次

  JSON _ str=re。查找全部( component ):\[.*)\],,html_data)[0]

  # python字典数据容器

  # 键值对取值

  json_dict=json.loads(json_str)

  caseList=json_dict[caseList]

  对于案件清单中的案件:

  area=case[area] #省份

  curConfirm=case[curConfirm] #确诊人数

  curconfirmrational=case[ curconfirmrational ]#确诊人数

  确认=病例[确认] #确诊人数

  crued=case[crued] #治愈人数

  死亡=案例[死亡] #死亡人数

  打印(区域、确认、相对确认、确认、死亡)4。保存数据(表格)用open(data.csv ,mode=a ,encoding=utf-8 ,newline= )作为女:

  csv_writer=csv.writer(f)

  csv_writer.writerow([area,curConfirm,curConfirmRelative,Confirm,crued,dead])

  可视化代码导入数据df=pd.read_csv(data.csv ,编码=utf-8 )

  df.head()

  各地区确诊人数中国_地图=(

  地图()。添加(现有确诊、list(I)for I in zip(df[ area ]。价值观。to list()、df[ cur confirm ]。价值观。要列出())]、‘中国’)。集合_全局_opts(

  title_opts=opts .TitleOpts(title=各地区确诊人数),

  visualmap_opts=opts .VisualMapOpts(max_=200,is _ piecewise=True),

  )

  )

  中国_地图。渲染_笔记本()

  新型冠状病毒全国疫情地图导入肾盂造影图

  从pyecharts .图表导入*

  从肾盂造影图将选项作为选项导入

  从pyecharts.commons.utils导入代码

  从pyecharts.datasets导入注册_网址

  cofirm,currentCofirm,cured,dead=[],[],[],[]

  tab=Tab()

  _map=(

  Map(init_opts=opts .InitOpts(theme=dark ,width=1000px ))。添加(累计确诊人数、list(I)for I in zip(df[ area ]。价值观。to list()、df[已确认]。价值观。to list())],

  中国,is_map_symbol_show=False,is_roam=False)。set _ series _ opts(label _ opts=opts .LabelOpts(is_show=True))。集合_全局_opts(

  title_opts=opts .TitleOpts(title=新型冠状病毒全国疫情地图,

  ),

  legend_opts=opts .LegendOpts(is_show=False),

  visualmap_opts=opts .VisualMapOpts(is_show=True,max_=1000,

  是_分段=假,

  range_color=[#FFFFE0 , #FFA07A , #CD5C5C , #8B0000])

  )

  )

  tab.add(_map,)累计确诊)

  _map=(

  Map(init_opts=opts .InitOpts(theme=dark ,width=1000px ))。添加(当前确诊人数,[list(I)for I in zip(df[ area ]。价值观。to list(),df[ cur confirm ]。价值观。to list())],中国,is_map_symbol_show=False,is_roam=False)。set _ series _ opts(label _ opts=opts .LabelOpts(is_show=True))。集合_全局_opts(

  title_opts=opts .TitleOpts(title=新型冠状病毒全国疫情地图,

  ),

  legend_opts=opts .LegendOpts(is_show=False),

  visualmap_opts=opts .VisualMapOpts(is_show=True,max_=100,

  是_分段=假,

  range_color=[#FFFFE0 , #FFA07A , #CD5C5C , #8B0000])

  )

  )

  tab.add(_map,)当前确诊)

  _map=(

  Map(init_opts=opts .InitOpts(theme=dark ,width=1000px ))。添加(治愈人数,[list(I)for I in zip(df[ area ]。价值观。to list(),df[ crued ]。价值观。to list()],中国,is_map_symbol_show=False,is_roam=False)。set _ series _ opts(label _ opts=opts .LabelOpts(is_show=True))。集合_全局_opts(

  title_opts=opts .TitleOpts(title=新型冠状病毒全国疫情地图,

  ),

  legend_opts=opts .LegendOpts(is_show=False),

  visualmap_opts=opts .VisualMapOpts(is_show=True,max_=1000,

  是_分段=假,

  range_color=[#FFFFE0 , green])

  )

  )

  tab.add(_map,)治愈)

  _map=(

  Map(init_opts=opts .InitOpts(theme=dark ,width=1000px ))。添加(死亡人数,[list(I)for I in zip(df[ area ]。价值观。to list(),df[死]。价值观。to list()],中国,is_map_symbol_show=False,is_roam=False)。set _ series _ opts(label _ opts=opts .LabelOpts(is_show=True))。集合_全局_opts(

  title_opts=opts .TitleOpts(title=新型冠状病毒全国疫情地图,

  ),

  legend_opts=opts .LegendOpts(is_show=False),

  visualmap_opts=opts .VisualMapOpts(is_show=True,max_=50,

  是_分段=假,

  range_color=[#FFFFE0 , #FFA07A , #CD5C5C , #8B0000])

  )

  )

  tab.add(_map,)死亡)

  tab.render_notebook()

  各地区确诊人数与死亡人数情况bar=(

  酒吧()。add_xaxis(list(df[area].值)[:6])。add_yaxis(死亡,df[死]。价值观。至列表()[:6])。add_yaxis(治愈,df[ crued ]。价值观。至列表()[:6])。集合_全局_opts(

  title_opts=opts .TitleOpts(title=各地区确诊人数与死亡人数情况),

  datazoom_opts=[opts .DataZoomOpts()],

  )

  )

  bar.render_notebook()

  计算机编程语言爬取百度疫情数据

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: