python读取csv某一列数据,python读取csv统计列数
本文主要介绍了利用python实现根据csv文件头和列号读取数据,具有很好的参考价值。希望对大家有帮助。如有错误或不足之处,请不吝赐教。
00-1010读取csv文件根据csv文件头和列号读取数据的实现。根据表头读取列数据,根据索引名读取行数据,根据列号iloc和loc读取行数据。读取csv文件并输出特定的列源代码,如下所示
目录
根据csv表头、列号读取数据的实现
cvs数据截图如下
设置index_col=0,将第一列的名称设置为index,这便于下面的示例演示。
data=pandas.read_csv(input1,index_col=0)
输出结果
价格o _价格日期全
名字
木材85.00 49.99 2006 797
2006年799
床位77.00 49.99 2006 795
灯162.50 49.99 2006 800
2002年
2002年3093
读取csv文件
数据[[o_price , quan]
#或者
data.loc[:[o_price , quan]
输出结果
o_price全
名字
木材49.99 797
椅子49.99 799
床49.99 795
灯49.99 800
沙发269.99 3094
表269.99 3093
根据表头获取列数据
data.iloc[:[3,4]]
输出结果
日期圈
名字
木材2006 797
2006年主席
床位2006 795
灯2006 800
沙发nbs
p; 2002 3094
table 2002 3093
根据index名获取行数据
data.loc[[wood, sofa], :]
输出结果
price o_price date quan
name
wood 85.00 49.99 2006 797
sofa 699.99 269.99 2002 3094
根据列号读取行数据
data.iloc[[0, 1], :]
输出结果
price o_price date quan
name
wood 85.0 49.99 2006 797
chair 102.5 49.99 2006 799
iloc和loc区别
loc是根据dataframe的具体标签选取列,而iloc是根据标签所在的位置,从0开始计数。
读取csv文件并输出特定列
其实,最开始好不容易输出了指定列,结果第二天不小心删了什么东西,然后就一直报错。
看上去和前一天能正常输出的没有什么差别。折腾了一天多总算是找到问题是什么了,是个很简单的问题。
其实不是错误,只是因为选用的读取方式不同,所以一直报错。
源代码如下
import csvimport pandas as pd
sheet_name = "员工信息表.csv"
#数据文件有问题数据
with open(sheet_name,encoding = "utf-8",errors = "ignore") as f:
#可通过列名读取列值,表中有空值
data= csv.DictReader(_.replace("\x00","") for _ in f)
headers = next(data)
print(headers)
for row in data:
print(row)
if row[员工状态] == 2:
print(row)
#不可通过列名读取列值,通过第几列来读取
#data =csv.reader(_.replace("\x00","") for _ in f)
headers = next(data)
print(headers)
for row in data:
print(row)
if row[12]==2:
print(row)
读取csv文件需要采用:
with open(sheet_name,encoding = "utf-8",errors = "ignore") as f:
如果不加errors = "ignore"会报错:
UnicodeDecodeError: 'utf-8' codec can't decode byte 0xbb in position 0: invalid start byte
通过csv.reader读取csv文件,然后使用列名row['员工状态']输出列值会报错:
TypeError: list indices must be integers or slices, not str
根据这个报错百度了好久,一直没有找到解决方法。
虽然现在最终效果达到了,但是并不清楚具体原因。
源数据表里面问题好多啊,感觉需要先做数据清洗。唉!好难啊!
以上为个人经验,希望能给大家一个参考,也希望大家多多支持盛行IT软件开发工作室。
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。