python汇总多个excel表,python pandas读取excel表数据
计算机编程语言读写超过可以使用熊猫,处理很方便。但如果要处理超过的格式,还是需要安装模块,我个人不喜欢旧的读操作和xlwt模块。步入正题熊猫。读写超过主要用到两个函数,下面分析一下pandas.read_excel()和DataFrame.to_excel()的参数,以便日后使用。
1 .熊猫。read _ excel熊猫。read _ excel(io,sheet_name=0,header=0,names=None,index_col=None,usecols=None,squeeze=False,dtype=None,engine=None,converters=None,true_values=None,false_values=None,skiprows=None,na_values=None,keep_default_na=True,verbose=False,parse_dates=False,date_parser=None,千位=无,注释=无,skipfooter=0,跳过页脚=0
io:文件路径
io=r c:\ Users \ ss \ Desktop \ PPP。xlsx
工作表名称:表名,单表、多表、全部表
sheetname=None #读取全部表,得到订单关键字为表名,值为数据帧
sheetname=1/"Sheet1" #读取单个表,返回数据帧
sheetname=[0,1]/["Sheet1 "," Sheet2"] #读取多表,返回一个订单
标题:指定列名行
姓名:设置列名,必须是目录类型,且长度和列数一致
names=["Name "," Number "," Score"]
用途:使用的行
usecols=range(1,3) #使用[1, 3) 行,不包括第3行
usecols=[4,7] #使用四和七行
skiprows:指定跳过的行数(不读取的行数)
shiprows=4 #跳过前四行,会把首行列名也跳过
skiprows=[1,2,4] #跳过1,2,4 行
skiprows=range(1,10) #跳过[1,10) 行,不包括第10行,可以留下首行列名
skipfooter:指定省略尾部的行数,必须为整数
skipfooter=4 #跳过尾部四行
索引栏:指定列为索引列,索引从0 开始
index_col=1
index_col="名称"
# 读取多个表导入熊猫为PD order _ dict=PDread _ excel(r c:\ Users \ SSS \ Desktop \ test。xlsx ,header=0,usecols=[2,3] names=[Name , Number],sheet_name=[Sheet1 , Sheet2],skiprows=range(1,10),skipfooter=4)for sheet_name,df in order _ dict。items():print(工作表名称)print(df)2。数据框。to _ excel数据框。to _ excel(excel _ writer,sheet_name=Sheet1 ,na_rep= ,float_format=None,columns=None,header=True,index=True,index_label=None,startrow=0,startcol=0,engine=None,merge_cells=True,encoding=None,inf_rep=inf ,verbose=True,freeze_panes=None)常用参数:
excel_writer:文件路径,不存在会自动生成
sheet_name="Sheet1 ":指定写的表
列=无:指定输出某些列
columns=["Name "," Number"]
header=True:是否保存头行列名
index=True:是否保存索引列
startcol=0:起始行
merge_cells=True:是否合并单元格
编码=无:指定编码,常用utf-8
float _ format=无:浮点数保存的格式,默认保存为字符串
float_format=%.2f #保存为浮点数,保留2位小数
引擎=无:保存格式,指定io.excel.xlsx.writer、io.excel.xls.writer、io.excel.xlsm.writer .
# 简单示例df。to _ excel(r c:\ Users \ SSS \ Desktop \ test。xlsx ,columns=[Name , Number],encoding=utf8 )
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。