私は(ノート、このプログラマが接近し、ない統計学者、そうindubitablyのような巧妙なトリックがあるかもしれない、適度に効率的に計算赦免偏差に、過去に以下のアプローチを使用しましたshabbychefの方が効率的かもしれません)。
警告:これはオンラインアルゴリズムではありません。O(n)
メモリが必要です。さらに、次のO(n)
ようなデータセットに対して[1, -2, 4, -8, 16, -32, ...]
(つまり、完全な再計算と同じ)の最悪の場合のパフォーマンスがあります。[1]
ただし、多くのユースケースで引き続き良好に機能するため、ここに投稿する価値があります。たとえば、各アイテムが到着するときに、-100から100までの10000個の乱数の絶対偏差を計算するために、アルゴリズムは1秒未満で完了しますが、完全な再計算には17秒以上かかります(私のマシンでは、マシンごとに異なり、入力データに応じて)。ただし、ベクトル全体をメモリに保持する必要がありますが、これは用途によっては制約になる場合があります。アルゴリズムの概要は次のとおりです。
- 過去の測定値を保存するための単一のベクトルを持つ代わりに、3つの並べ替えられた優先度キュー(最小/最大ヒープのようなもの)を使用します。これらの3つのリストは、入力を3つに分割します。平均より大きいアイテム、平均より小さいアイテム、平均に等しいアイテムです。
- (ほぼ)アイテムを追加するたびに平均値が変化するため、パーティションを再分割する必要があります。重要なことは、パーティションのソートされた性質です。つまり、リスト内のすべてのアイテムをスキャンしてパーティションを分割するのではなく、移動しているアイテムを読み取るだけで済みます。最悪の場合、これには
O(n)
移動操作が必要になりますが、多くのユースケースではそうではありません。
- 巧妙な簿記を使用することで、パーティションの再分割時や新しいアイテムの追加時に常に逸脱が正しく計算されるようにできます。
Pythonのサンプルコードを以下に示します。リストに追加できるのはアイテムのみであり、削除はできないことに注意してください。これは簡単に追加できますが、私がこれを書いたとき、私はそれを必要としませんでした。プライオリティキューを自分で実装するのではなく、私が使用しているSortedListのをダニエルStutzbachの優れたからblistパッケージの使用、B +ツリーが内部的です。
MITライセンスの下でライセンスされているこのコードを検討してください。大幅に最適化または洗練されたわけではありませんが、過去に私のために機能しました。新しいバージョンはこちらから入手できます。質問がある場合、またはバグを見つける場合はお知らせください。
from blist import sortedlist
import operator
class deviance_list:
def __init__(self):
self.mean = 0.0
self._old_mean = 0.0
self._sum = 0L
self._n = 0 #n items
# items greater than the mean
self._toplist = sortedlist()
# items less than the mean
self._bottomlist = sortedlist(key = operator.neg)
# Since all items in the "eq list" have the same value (self.mean) we don't need
# to maintain an eq list, only a count
self._eqlistlen = 0
self._top_deviance = 0
self._bottom_deviance = 0
@property
def absolute_deviance(self):
return self._top_deviance + self._bottom_deviance
def append(self, n):
# Update summary stats
self._sum += n
self._n += 1
self._old_mean = self.mean
self.mean = self._sum / float(self._n)
# Move existing things around
going_up = self.mean > self._old_mean
self._rebalance(going_up)
# Add new item to appropriate list
if n > self.mean:
self._toplist.add(n)
self._top_deviance += n - self.mean
elif n == self.mean:
self._eqlistlen += 1
else:
self._bottomlist.add(n)
self._bottom_deviance += self.mean - n
def _move_eqs(self, going_up):
if going_up:
self._bottomlist.update([self._old_mean] * self._eqlistlen)
self._bottom_deviance += (self.mean - self._old_mean) * self._eqlistlen
self._eqlistlen = 0
else:
self._toplist.update([self._old_mean] * self._eqlistlen)
self._top_deviance += (self._old_mean - self.mean) * self._eqlistlen
self._eqlistlen = 0
def _rebalance(self, going_up):
move_count, eq_move_count = 0, 0
if going_up:
# increase the bottom deviance of the items already in the bottomlist
if self.mean != self._old_mean:
self._bottom_deviance += len(self._bottomlist) * (self.mean - self._old_mean)
self._move_eqs(going_up)
# transfer items from top to bottom (or eq) list, and change the deviances
for n in iter(self._toplist):
if n < self.mean:
self._top_deviance -= n - self._old_mean
self._bottom_deviance += (self.mean - n)
# we increment movecount and move them after the list
# has finished iterating so we don't modify the list during iteration
move_count += 1
elif n == self.mean:
self._top_deviance -= n - self._old_mean
self._eqlistlen += 1
eq_move_count += 1
else:
break
for _ in xrange(0, move_count):
self._bottomlist.add(self._toplist.pop(0))
for _ in xrange(0, eq_move_count):
self._toplist.pop(0)
# decrease the top deviance of the items remain in the toplist
self._top_deviance -= len(self._toplist) * (self.mean - self._old_mean)
else:
if self.mean != self._old_mean:
self._top_deviance += len(self._toplist) * (self._old_mean - self.mean)
self._move_eqs(going_up)
for n in iter(self._bottomlist):
if n > self.mean:
self._bottom_deviance -= self._old_mean - n
self._top_deviance += n - self.mean
move_count += 1
elif n == self.mean:
self._bottom_deviance -= self._old_mean - n
self._eqlistlen += 1
eq_move_count += 1
else:
break
for _ in xrange(0, move_count):
self._toplist.add(self._bottomlist.pop(0))
for _ in xrange(0, eq_move_count):
self._bottomlist.pop(0)
# decrease the bottom deviance of the items remain in the bottomlist
self._bottom_deviance -= len(self._bottomlist) * (self._old_mean - self.mean)
if __name__ == "__main__":
import random
dv = deviance_list()
# Test against some random data, and calculate result manually (nb. slowly) to ensure correctness
rands = [random.randint(-100, 100) for _ in range(0, 1000)]
ns = []
for n in rands:
dv.append(n)
ns.append(n)
print("added:%4d, mean:%3.2f, oldmean:%3.2f, mean ad:%3.2f" %
(n, dv.mean, dv._old_mean, dv.absolute_deviance / dv.mean))
assert sum(ns) == dv._sum, "Sums not equal!"
assert len(ns) == dv._n, "Counts not equal!"
m = sum(ns) / float(len(ns))
assert m == dv.mean, "Means not equal!"
real_abs_dev = sum([abs(m - x) for x in ns])
# Due to floating point imprecision, we check if the difference between the
# two ways of calculating the asb. dev. is small rather than checking equality
assert abs(real_abs_dev - dv.absolute_deviance) < 0.01, (
"Absolute deviances not equal. Real:%.2f, calc:%.2f" % (real_abs_dev, dv.absolute_deviance))
[1]症状が続く場合は、医師にご相談ください。