pandas去除重复列 Python的pandas中,drop_duplicates函数怎么根据索引来去重?
Python的pandas中,drop_duplicates函数怎么根据索引来去重?
今天,我想去重复熊猫的台词。很长一段时间后,我找到了相关的函数
让我们先看一个小例子
[Python]查看纯拷贝
来自pandas import series,dataframe
data=dataframe({“K”:[1,1,2,2] })
打印数据
isduplicated=数据。重复()
打印重复
打印类型(重复)
数据=data.drop复制()
打印数据
执行结果是:
[Python]查看纯拷贝
k
0 1
1 1
2 2
3 2
[Python]查看纯拷贝
0 false
1true
2 false
3 true
[Python]查看纯拷贝
k
0 1
2
dataframe的duplicated方法返回一个布尔序列,指示每行是否重复。
And drop_u2;replications方法,用于返回删除重复行的数据帧
这两个方法将判断所有列,您还可以指定一些列来判断重复项。
例如,您要对名为K2的列进行重复数据消除data.drop我要介绍的第一个任务是添加一些列,然后添加sum列。
首先,我们将Excel数据导入panda数据框架。
importpandasaspd
importnumpyansp
df=pd.readexcel(“excel组件-数据.xlsx")
我用pandas做数据处理,去重后数据怎么引用?
1. 前提:加载numpy、pandas和series、dataframe。生成一个序列并删除索引为“C”的项,如图所示。
2. 如果要连续删除多个指定项,可以在下拉列表中添加这些项的列表。
3. 接下来,让我们看看dataframe如何删除数据,并将其转换为具有四行四列的DF1。
4. 如果你直接使用DF1。Drop([“Beijing”、“Shanghai”]),可以删除索引为“Beijing”、“Shanghai”的数据。这就完成了操作。
pandas去除重复列 pandas删除满足条件的行 pandas保存excel
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。