1、原来的文件读入代码df = pd.read_csv('x.csv', index_col='DATE', parse_dates=True)
2、上面的代码其实是比较严谨的,只不过暂时跟直接读入文件相比在这件事上好像没有优势df = pd.read_csv('x.csv')
3、在步骤②的基础上,直接就能把重复数据剔除掉df = pd.read_csv('x.csv')df = df.drop_duplicates(subset='DATE', keep='last')
4、而在步骤①代码基础上,则会报错(相信大家都碰到过索引列的特殊)df = pd.read_c衡痕贤伎sv('x.csv', ind髫潋啜缅ex_col='DATE', parse_dates=True)df = df.drop_duplicates(subset='DATE', keep='last')
5、我们来说一下步骤①和步骤②的区别。首先,是否指定索引这个就不说了,太明显了。我们来看两个图。
6、上图看出,是否解析时间碌食撞搁序列将导致DATE列数据类型的不同,而后续的处理是迫切需要datetime类型的。于是我们这样处理:df 租涫疼迟= pd.read_csv('x.csv', parse_dates=['DATE']).dropna().drop_duplicates(subset='DATE', keep='last').set_index('DATE')
7、搞定。