2列のリストを行単位で効率的に比較する


16

次のようなPandas DataFrameがある場合:

import pandas as pd
import numpy as np
df = pd.DataFrame({'today': [['a', 'b', 'c'], ['a', 'b'], ['b']], 
                   'yesterday': [['a', 'b'], ['a'], ['a']]})
                 today        yesterday
0      ['a', 'b', 'c']       ['a', 'b']
1           ['a', 'b']            ['a']
2                ['b']            ['a']                          
... etc

しかし、約10万のエントリがあるため、これらのリストの追加と削除を2つの列で行ごとに見つけようとしています。

それはこの質問に匹敵します:パンダ:リストの列をDataFrameで行ごとにパンダ(forループではない)と比較する方法は? しかし、私は違いを見ています、そしてPandas.apply方法はそれほど多くのエントリのためにそれほど速くないようです。これは私が現在使用しているコードです。方法:Pandas.applynumpy's setdiff1d

additions = df.apply(lambda row: np.setdiff1d(row.today, row.yesterday), axis=1)
removals  = df.apply(lambda row: np.setdiff1d(row.yesterday, row.today), axis=1)

これは正常に機能しますが、120 000エントリの場合は約1分かかります。これを達成するより速い方法はありますか?


これらの列の1つが保持できる項目(最大1行)はいくつですか?
したがって、hsh89 89

2
リンクしたその投稿のメソッドを試しましたか?具体的には、セットの交差を使用するものは、代わりにセットの差を使用するだけです。
gold_cy

1
@aws_apprenticeそのソリューションは本質的にOPがここに持っているものです。
クアンホアン

Pandas DataFrameは、これに適したデータ構造ではない可能性があります。プログラムとデータについてもう少し背景を教えてください。
AMC

回答:


14

パフォーマンスについてはわかりませんが、より良いソリューションがない場合は、これが当てはまる可能性があります。

temp = df[['today', 'yesterday']].applymap(set)
removals = temp.diff(periods=1, axis=1).dropna(axis=1)
additions = temp.diff(periods=-1, axis=1).dropna(axis=1) 

削除:

  yesterday
0        {}
1        {}
2       {a}

追加:

  today
0   {c}
1   {b}
2   {b}

2
これは非常に高速です。
rpanai

2
これは確かに非常に高速です。約2秒になりました!
メガクッキー

2
うわー、パフォーマンスもびっくりしましたが、うまくapplymapいきました!
r.ook

2
今、私たちはルークの解決策が速いことを知っているので、誰かが私に説明できますか?なぜそれがより高速でしたか?
Grijesh Chauhan

7
df['today'].apply(set) - df['yesterday'].apply(set)

ありがとう!これが最も読みやすいソリューションだと思いますが、r.ookのソリューションは少し高速です。
メガクッキー

5

私はあなたが計算することをお勧めしますadditionsし、removals同じ内適用されます。

より大きな例を生成する

import pandas as pd
import numpy as np
df = pd.DataFrame({'today': [['a', 'b', 'c'], ['a', 'b'], ['b']], 
                   'yesterday': [['a', 'b'], ['a'], ['a']]})
df = pd.concat([df for i in range(10_000)], ignore_index=True)

あなたの解決策

%%time
additions = df.apply(lambda row: np.setdiff1d(row.today, row.yesterday), axis=1)
removals  = df.apply(lambda row: np.setdiff1d(row.yesterday, row.today), axis=1)
CPU times: user 10.9 s, sys: 29.8 ms, total: 11 s
Wall time: 11 s

1回の適用でのソリューション

%%time
df["out"] = df.apply(lambda row: [np.setdiff1d(row.today, row.yesterday),
                                  np.setdiff1d(row.yesterday, row.today)], axis=1)
df[['additions','removals']] = pd.DataFrame(df['out'].values.tolist(), columns=['additions','removals'])
df = df.drop("out", axis=1)

CPU times: user 4.97 s, sys: 16 ms, total: 4.99 s
Wall time: 4.99 s

使用する set

あなたのリストが非常に大きくない限り、あなたは避けることができます numpy

def fun(x):
    a = list(set(x["today"]).difference(set(x["yesterday"])))
    b = list((set(x["yesterday"])).difference(set(x["today"])))
    return [a,b]

%%time
df["out"] = df.apply(fun, axis=1)
df[['additions','removals']] = pd.DataFrame(df['out'].values.tolist(), columns=['additions','removals'])
df = df.drop("out", axis=1)

CPU times: user 1.56 s, sys: 0 ns, total: 1.56 s
Wall time: 1.56 s

@ r.ookのソリューション

リストの代わりにセットを出力として使用することに満足している場合は、@ r.ookのコードを使用できます。

%%time
temp = df[['today', 'yesterday']].applymap(set)
removals = temp.diff(periods=1, axis=1).dropna(axis=1)
additions = temp.diff(periods=-1, axis=1).dropna(axis=1) 
CPU times: user 93.1 ms, sys: 12 ms, total: 105 ms
Wall time: 104 ms

@Andreas K.のソリューション

%%time
df['additions'] = (df['today'].apply(set) - df['yesterday'].apply(set))
df['removals'] = (df['yesterday'].apply(set) - df['today'].apply(set))

CPU times: user 161 ms, sys: 28.1 ms, total: 189 ms
Wall time: 187 ms

最終的に追加.apply(list)して同じ出力を取得できます


1
あなたがしたクールな比較!
メガクッキー

1

これは、ベクトル化されたNumPyツールに計算部分をオフロードするという考えを持つものです。すべてのデータを各ヘッダーの単一の配列に収集し、NumPyで必要なすべてのマッチングを実行し、最後に必要な行エントリにスライスします。負荷のかかる部分を実行するNumPyでは、グループIDおよび各グループ内のIDに基づくハッシュを使用しnp.searchsortedます。NumPyの方が高速なので、数値も使用しています。実装は次のようになります-

t = df['today']
y = df['yesterday']
tc = np.concatenate(t)
yc = np.concatenate(y)

tci,tcu = pd.factorize(tc)

tl = np.array(list(map(len,t)))
ty = np.array(list(map(len,y)))

grp_t = np.repeat(np.arange(len(tl)),tl)
grp_y = np.repeat(np.arange(len(ty)),ty)

sidx = tcu.argsort()
idx = sidx[np.searchsorted(tcu,yc,sorter=sidx)]

s = max(tci.max(), idx.max())+1
tID = grp_t*s+tci
yID = grp_y*s+idx

t_mask = np.isin(tID, yID, invert=True)
y_mask = np.isin(yID, tID, invert=True)

t_se = np.r_[0,np.bincount(grp_t,t_mask).astype(int).cumsum()]
y_se = np.r_[0,np.bincount(grp_y,y_mask).astype(int).cumsum()]

Y = yc[y_mask].tolist()
T = tc[t_mask].tolist()

A = pd.Series([T[i:j] for (i,j) in zip(t_se[:-1],t_se[1:])])
R = pd.Series([Y[i:j] for (i,j) in zip(y_se[:-1],y_se[1:])])

さらなる最適化は、計算する段階で可能であるt_masky_mask、どこnp.searchsortedを再び使用することができます。

我々はまた、の代替として、単純な配列割り当てを使用することができますisin取得するステップt_masky_maskそうのように、 -

M = max(tID.max(), yID.max())+1
mask = np.empty(M, dtype=bool)

mask[tID] = True
mask[yID] = False
t_mask = mask[tID]

mask[yID] = True
mask[tID] = False
y_mask = mask[yID]
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.