インデックスが重複している行を削除する(Pandas DataFrameおよびTimeSeries)


251

Webから自動気象データを読んでいます。観測は5分ごとに行われ、各測候所の月次ファイルにコンパイルされます。ファイルの解析が完了すると、DataFrameは次のようになります。

                      Sta  Precip1hr  Precip5min  Temp  DewPnt  WindSpd  WindDir  AtmPress
Date                                                                                      
2001-01-01 00:00:00  KPDX          0           0     4       3        0        0     30.31
2001-01-01 00:05:00  KPDX          0           0     4       3        0        0     30.30
2001-01-01 00:10:00  KPDX          0           0     4       3        4       80     30.30
2001-01-01 00:15:00  KPDX          0           0     3       2        5       90     30.30
2001-01-01 00:20:00  KPDX          0           0     3       2       10      110     30.28

私が抱えている問題は、科学者が時々戻って観察を修正することです-エラーのある行を編集するのではなく、ファイルの最後に重複する行を追加することによって。このようなケースの簡単な例を以下に示します。

import pandas 
import datetime
startdate = datetime.datetime(2001, 1, 1, 0, 0)
enddate = datetime.datetime(2001, 1, 1, 5, 0)
index = pandas.DatetimeIndex(start=startdate, end=enddate, freq='H')
data1 = {'A' : range(6), 'B' : range(6)}
data2 = {'A' : [20, -30, 40], 'B' : [-50, 60, -70]}
df1 = pandas.DataFrame(data=data1, index=index)
df2 = pandas.DataFrame(data=data2, index=index[:3])
df3 = df2.append(df1)
df3
                       A   B
2001-01-01 00:00:00   20 -50
2001-01-01 01:00:00  -30  60
2001-01-01 02:00:00   40 -70
2001-01-01 03:00:00    3   3
2001-01-01 04:00:00    4   4
2001-01-01 05:00:00    5   5
2001-01-01 00:00:00    0   0
2001-01-01 01:00:00    1   1
2001-01-01 02:00:00    2   2

そして、私はdf3公平になる必要があります:

                       A   B
2001-01-01 00:00:00    0   0
2001-01-01 01:00:00    1   1
2001-01-01 02:00:00    2   2
2001-01-01 03:00:00    3   3
2001-01-01 04:00:00    4   4
2001-01-01 05:00:00    5   5

行番号の列(df3['rownum'] = range(df3.shape[0]))を追加すると、の任意の値の一番下の行を選択するのに役立つDatetimeIndexと思いましたが、group_byor pivot(または???)ステートメントを理解して、それを機能させています。


1
重複を取得する別の方法は、夏時間のクロックが戻された夜の1時間ごとのデータです:午前1時、
2、3、2、3

回答:


467

私はパンダスインデックス自体で複製された方法を使用することをお勧めします:

df3 = df3.loc[~df3.index.duplicated(keep='first')]

他のすべての方法は機能しますが、現在受け入れられている回答は、提供されている例のパフォーマンスが最も低いです。さらに、groupbyメソッドのパフォーマンスはわずかですが、複製されたメソッドの方が読みやすくなっています。

提供されたサンプルデータを使用:

>>> %timeit df3.reset_index().drop_duplicates(subset='index', keep='first').set_index('index')
1000 loops, best of 3: 1.54 ms per loop

>>> %timeit df3.groupby(df3.index).first()
1000 loops, best of 3: 580 µs per loop

>>> %timeit df3[~df3.index.duplicated(keep='first')]
1000 loops, best of 3: 307 µs per loop

keep引数を変更すると、最後の要素を保持できることに注意してください。

また、このメソッドはMultiIndexPaulの例で指定されているようにdf1を使用して)動作することにも注意してください。

>>> %timeit df1.groupby(level=df1.index.names).last()
1000 loops, best of 3: 771 µs per loop

>>> %timeit df1[~df1.index.duplicated(keep='last')]
1000 loops, best of 3: 365 µs per loop

3
loc必要ないかもしれません。単純にを実行しますdf3 = df3[~df3.index.duplicated(keep='first')]。これにより、最初の出現を除いて、インデックスが重複するすべての行が削除されます。
リンジャンコン

1
複製が通常最初または最後の値のみである非常に大きな時系列にこれを使用することは理にかなっていますか?
cheesus

1
誰かが答えてもかまわない場合、df3 = df3.loc [〜df3.index.duplicated(keep = 'first')]で何をしますか?
jsl5703

3
@ jsl5703マスクを反転させます。だから、それは真偽であったすべてを逆にし、逆もまた同様です。この場合、それはメソッドに従って複製されていないものを選択することを意味します。
n8yoder

115

私の元の回答は現在は古くなっていますが、参照用に保管されています。

簡単な解決策は drop_duplicates

df4 = df3.drop_duplicates(subset='rownum', keep='last')

私にとっては、これは大規模なデータセットですばやく動作しました。

これには、「rownum」が重複する列であることが必要です。変更された例では、「rownum」には重複がないため、何も削除されません。私たちが本当に望んでいるのは、「cols」をインデックスに設定することです。drop_duplicatesにインデックスのみを考慮するように指示する方法が見つかりませんでした。

次は、インデックスをデータフレーム列として追加し、重複を削除してから、新しい列を削除するソリューションです。

df3 = df3.reset_index().drop_duplicates(subset='index', keep='last').set_index('index')

そして、あなたが物事を適切な順序に戻したい場合sortは、データフレームを呼び出すだけです。

df3 = df3.sort()

10
この上の別の変形は次のとおりです。df.reset_index().drop_duplicates(cols='index',take_last=True).set_index('index')
ルチアーノ

このメソッドは機能しますが、DataFrameの2つの一時的なコピーも作成し、代替の回答として提案された重複したインデックスまたはgroupbyメソッドを使用するよりもパフォーマンスが大幅に低下します。
n8yoder

インデックスがMultiIndexの場合、reset_index()列level_0、level_1などを追加します。インデックスに名前がある場合、その名前が「インデックス」ラベルの代わりに使用されます。つまり、これは、任意のDataFrameに対して正しく実行するための1行よりも少し多くなります。index_label = getattr(df.index, 'names', getattr(df.index, 'name', 'index'))その後cols=index_labelset_index(index_labels)これは完全に保証されていません(名前のないマルチインデックスでは機能しません)。
ホブ、2016年

1
インデックスを列に移動し、重複をクリアし、インデックスをリセットするのは素晴らしかったです。
mxplusb 2016

与えられたidx = df.index.name or 'index'、1も行うことができますdf2 = df.reset_index(); df2.drop_duplicates(idx, inplace=True); df2.set_index(idx, inplace=True)(による中間コピーを避けるためにinplace=True
Anakhand

67

ああ。これは実際にはとても簡単です!

grouped = df3.groupby(level=0)
df4 = grouped.last()
df4
                      A   B  rownum

2001-01-01 00:00:00   0   0       6
2001-01-01 01:00:00   1   1       7
2001-01-01 02:00:00   2   2       8
2001-01-01 03:00:00   3   3       3
2001-01-01 04:00:00   4   4       4
2001-01-01 05:00:00   5   5       5

フォローアップ編集2013-10-29 かなり複雑な場合、私はMultiIndexこのgroupbyアプローチを好むと思います。後世の簡単な例を次に示します。

import numpy as np
import pandas

# fake index
idx = pandas.MultiIndex.from_tuples([('a', letter) for letter in list('abcde')])

# random data + naming the index levels
df1 = pandas.DataFrame(np.random.normal(size=(5,2)), index=idx, columns=['colA', 'colB'])
df1.index.names = ['iA', 'iB']

# artificially append some duplicate data
df1 = df1.append(df1.select(lambda idx: idx[1] in ['c', 'e']))
df1
#           colA      colB
#iA iB                    
#a  a  -1.297535  0.691787
#   b  -1.688411  0.404430
#   c   0.275806 -0.078871
#   d  -0.509815 -0.220326
#   e  -0.066680  0.607233
#   c   0.275806 -0.078871  # <--- dup 1
#   e  -0.066680  0.607233  # <--- dup 2

そしてここに重要な部分があります

# group the data, using df1.index.names tells pandas to look at the entire index
groups = df1.groupby(level=df1.index.names)  
groups.last() # or .first()
#           colA      colB
#iA iB                    
#a  a  -1.297535  0.691787
#   b  -1.688411  0.404430
#   c   0.275806 -0.078871
#   d  -0.509815 -0.220326
#   e  -0.066680  0.607233

それらに名前がある場合、それ以外の場合(1つの名前がNoneの場合)level=[0,1]は、2つのレベルがある場合に機能しますdf1.groupby(level=[0,1]).last()。これは、drop_duplicates
追加

@dashesyええ。を使用df.index.namesすると、インデックスのすべてのレベルでグループ化する簡単な方法になります。
Paul H

素晴らしい解決策、ありがとうございます!また、私は、この作品のことを追加するxarrayと、重複のDateTimeインデックスに対処するためには十分に行うことをds.resampleds.groupby操作が失敗する
DRG

私の以前のコメントの修正:にxarray変更grouped = df3.groupby(level=0)するgrouped = df3.groupby(dim='time')か、重複を含むディメンションが何であれ、機能します
drg

4

残念ながら、Pandasがインデックスからダプを削除することを許可しているとは思いません。私は以下を提案します:

df3 = df3.reset_index() # makes date column part of your data
df3.columns = ['timestamp','A','B','rownum'] # set names
df3 = df3.drop_duplicates('timestamp',take_last=True).set_index('timestamp') #done!

1

私のような誰かがパンダのドット表記(パイピングなど)を使用した連鎖可能なデータ操作が好きな場合は、次のものが役立つことがあります。

df3 = df3.query('~index.duplicated()')

これにより、次のようなステートメントの連鎖が可能になります。

df3.assign(C=2).query('~index.duplicated()').mean()

私はこれを試しましたが動作しませんでした..次のようなエラーが発生します:TypeError: 'Series' objects are mutable, thus they cannot be hashed..これは実際に動作しましたか?
Onno Eberhard

1

重複を削除する(最初に保持)

idx = np.unique( df.index.values, return_index = True )[1]
df = df.iloc[idx]

重複を削除(最後を保持)

df = df[::-1]
df = df.iloc[ np.unique( df.index.values, return_index = True )[1] ]

テスト:OPのデータを使用した10kループ

numpy method - 3.03 seconds
df.loc[~df.index.duplicated(keep='first')] - 4.43 seconds
df.groupby(df.index).first() - 21 seconds
reset_index() method - 29 seconds
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.