誰かがPythonでreduce()関数を使用する便利なコードを持っていますか?例にある通常の+および*以外のコードはありますか?
GvRによるPython 3000のreduce()の運命を参照してください
誰かがPythonでreduce()関数を使用する便利なコードを持っていますか?例にある通常の+および*以外のコードはありますか?
GvRによるPython 3000のreduce()の運命を参照してください
回答:
+と*以外に私が見つけた他の用途は、andとorでしたが、今ではany
andall
、これらのケースを交換します。
foldl
そして foldr
、Schemeでたくさん登場します...
ここにいくつかのかわいい使用法があります:
リストをフラット化する
目標:ターン[[1, 2, 3], [4, 5], [6, 7, 8]]
へ[1, 2, 3, 4, 5, 6, 7, 8]
。
reduce(list.__add__, [[1, 2, 3], [4, 5], [6, 7, 8]], [])
数字への数字のリスト
目標:ターン[1, 2, 3, 4, 5, 6, 7, 8]
へ12345678
。
醜い、遅い方法:
int("".join(map(str, [1,2,3,4,5,6,7,8])))
かなりのreduce
方法:
reduce(lambda a,d: 10*a+d, [1,2,3,4,5,6,7,8], 0)
timeit.repeat('int("".join(map(str, digit_list)))', setup = 'digit_list = list(d%10 for d in xrange(1,1000))', number=1000)
約0.09秒timeit.repeat('reduce(lambda a,d: 10*a+d, digit_list)', setup = 'digit_list = list(d%10 for d in xrange(1,1000))', number=1000)
かかりますが、0.36秒かかります(約4倍遅くなります)。基本的に、リストが大きくなると10による乗算は高価になりますが、strと連結のintは安価なままです。
timeit.repeat('convert_digit_list_to_int(digit_list)', setup = 'digit_list = [d%10 for d in xrange(1,10)]\ndef convert_digit_list_to_int(digits):\n i = 0\n for d in digits:\n i = 10*i + d\n return i', number=100000)
、0.06秒timeit.repeat('reduce(lambda a,d: 10*a+d, digit_list)', setup = 'digit_list = list(d%10 for d in xrange(1,10))', number=100000)
かかり、0.12秒かかり、桁をstrメソッドに変換するには、0.16秒かかります。
reduce()
3つ以上の数値の最小公倍数を見つけるために使用できます。
#!/usr/bin/env python
from fractions import gcd
from functools import reduce
def lcm(*args):
return reduce(lambda a,b: a * b // gcd(a, b), args)
例:
>>> lcm(100, 23, 98)
112700
>>> lcm(*range(1, 20))
232792560
lcm
2行目は何ですか?
N個の与えられたリストの共通部分を見つけます。
input_list = [[1, 2, 3, 4, 5], [2, 3, 4, 5, 6], [3, 4, 5, 6, 7]]
result = reduce(set.intersection, map(set, input_list))
戻り値:
result = set([3, 4, 5])
via:Python-2つのリストの交差
reduce
コードで見つけた使用法には、論理式のクラス構造があり、これらの式オブジェクトのリストを式の結合に変換する必要がある状況が含まれていました。make_and
2つの式を与えられた結合詞を作成する関数はすでに持っていたので、と書きましたreduce(make_and,l)
。(私はリストが空ではないことを知っていました;そうでなければそれはのようなものだったでしょうreduce(make_and,l,make_true)
。)
これがまさに、(一部の)関数型プログラマーが好むreduce
(または、そのような関数が通常呼び出されるため、関数を折り畳む)理由です。以下のような、既に多くのバイナリの機能がしばしばあり+
、*
、min
、max
、連結と、私の場合では、make_and
とmake_or
。持っているreduce
するとこれらの操作をリスト(またはツリーや、一般にフォールド関数の場合は取得したもの)に引き上げることが簡単になります。
もちろん、特定のインスタンス化(などsum
)が頻繁に使用される場合は、書き続けたくありませんreduce
。ただし、sum
forループを使用してを定義する代わりに、することができます同じように簡単でそれを定義しますreduce
。
他の人が言うように、読みやすさは確かに問題です。しかし、人々がreduce
「明確でない」と感じる理由は、それが多くの人々が知っている、または使用している機能ではないためだと主張できます。
and
演算子の短絡動作を悪用する可能性L and reduce(make_and, L)
があります。この場合、空のリストを返すことが適切な場合
関数構成:次のように、続けて適用したい関数のリストがある場合:
color = lambda x: x.replace('brown', 'blue')
speed = lambda x: x.replace('quick', 'slow')
work = lambda x: x.replace('lazy', 'industrious')
fs = [str.lower, color, speed, work, str.title]
次に、次のようにしてすべてを連続して適用できます。
>>> call = lambda s, func: func(s)
>>> s = "The Quick Brown Fox Jumps Over the Lazy Dog"
>>> reduce(call, fs, s)
'The Slow Blue Fox Jumps Over The Industrious Dog'
この場合、メソッドチェーンの方が読みやすくなります。しかし、それができない場合もあり、この種の構成は、f1(f2(f3(f4(x))))
一種の構文よりも読みやすく、保守しやすい場合があります。
次のように置き換えることができますvalue = json_obj['a']['b']['c']['d']['e']
:
value = reduce(dict.__getitem__, 'abcde', json_obj)
パスa/b/c/..
がリストとして既にある場合。たとえば、リスト内のアイテムを使用して、ネストされたdictのdictの値を変更します。
@Blair Conrad:次のように、sumを使用してglob / reduceを実装することもできます。
files = sum([glob.glob(f) for f in args], [])
これは2つの例のどちらよりも冗長ではなく、完全にPythonであり、コードは1行だけです。
元の質問に答えるために、私は個人的には、reduceの使用を避けようとしています。なぜなら、reduceは本当に必要なことは決してなく、他のアプローチよりも明確ではないからです。しかし、一部の人々は、内包表記を一覧表示するよりも減らして好むようになります(特にHaskellプログラマ)。ただし、reduceの問題をまだ考えていない場合は、おそらくそれを使用することについて心配する必要はありません。
sum
、reduce
2次動作につながります。これは線形時間で実行できますfiles = chain.from_iterable(imap(iglob, args))
。この場合、glob()がディスクにアクセスするのに時間がかかるため、おそらく問題ではありません。
reduce
のset
ようなオブジェクトのシーケンスの和集合または交差を見つける必要がある場合に役立ちます。
>>> reduce(operator.or_, ({1}, {1, 2}, {1, 3})) # union
{1, 2, 3}
>>> reduce(operator.and_, ({1}, {1, 2}, {1, 3})) # intersection
{1}
(実際set
のsは別として、これらの例はDjangoのQオブジェクトです。)
一方、bool
s を扱う場合は、any
and を使用する必要がありall
ます。
>>> any((True, False, True))
True
コードをgrepした後、reduceを使用したのは階乗の計算だけです。
reduce(operator.mul, xrange(1, x+1) or (1,))
言語の作成関数を作成しているので、reduce演算子とapply演算子を使用して、作成した関数を作成します。
簡単に言えば、composeは関数のリストを取り、単一の関数に構成します。段階的に適用される複雑な操作がある場合は、次のようにまとめます。
complexop = compose(stage4, stage3, stage2, stage1)
このようにして、それを次のような式に適用できます。
complexop(expression)
そして、私はそれが以下と同等であることを望みます:
stage4(stage3(stage2(stage1(expression))))
ここで、内部オブジェクトを作成するために、次のように伝えます。
Lambda([Symbol('x')], Apply(stage4, Apply(stage3, Apply(stage2, Apply(stage1, Symbol('x'))))))
(Lambdaクラスはユーザー定義関数を作成し、Applyは関数アプリケーションを作成します。)
さて、残念ながら、フォールドが間違った方法で縮小されるので、大まかに使用してしまいました。
reduce(lambda x,y: Apply(y, x), reversed(args + [Symbol('x')]))
reduceが何を生成するかを理解するには、REPLで以下を試してください。
reduce(lambda x, y: (x, y), range(1, 11))
reduce(lambda x, y: (y, x), reversed(range(1, 11)))
compose = lambda *func: lambda arg: reduce(lambda x, f: f(x), reversed(funcs), arg)
を生成する
reduceを使用して、最大のn番目の要素を持つリストを取得できます
reduce(lambda x,y: x if x[2] > y[2] else y,[[1,2,3,4],[5,2,5,7],[1,6,0,2]])
それは最大の3番目の要素+を持つリストであるため、[5、2、5、7]を返します
Reduceはスカラー演算に限定されません。物をバケットに分類するためにも使用できます。(これは、私が頻繁に使用するものです)。
オブジェクトのリストがあり、オブジェクトにフラットに格納されているプロパティに基づいて階層的に再編成したいとします。次の例では、articles
関数を使用して、XMLエンコードされた新聞の記事に関連するメタデータオブジェクトのリストを生成します。articles
XML要素のリストを生成し、それらを1つずつマッピングして、それらに関する興味深い情報を保持するオブジェクトを生成します。フロントエンドでは、ユーザーがセクション/サブセクション/ヘッドラインで記事を閲覧できるようにしたいと思います。したがってreduce
、記事のリストを取得して、セクション/サブセクション/記事の階層を反映する単一の辞書を返すために使用します。
from lxml import etree
from Reader import Reader
class IssueReader(Reader):
def articles(self):
arts = self.q('//div3') # inherited ... runs an xpath query against the issue
subsection = etree.XPath('./ancestor::div2/@type')
section = etree.XPath('./ancestor::div1/@type')
header_text = etree.XPath('./head//text()')
return map(lambda art: {
'text_id': self.id,
'path': self.getpath(art)[0],
'subsection': (subsection(art)[0] or '[none]'),
'section': (section(art)[0] or '[none]'),
'headline': (''.join(header_text(art)) or '[none]')
}, arts)
def by_section(self):
arts = self.articles()
def extract(acc, art): # acc for accumulator
section = acc.get(art['section'], False)
if section:
subsection = acc.get(art['subsection'], False)
if subsection:
subsection.append(art)
else:
section[art['subsection']] = [art]
else:
acc[art['section']] = {art['subsection']: [art]}
return acc
return reduce(extract, arts, {})
オブジェクトを処理するときにmapとreduceが互いにうまく補完できることを示していると思うので、ここで両方の関数を指定します。同じことはforループでも実現できたかもしれませんが、関数型言語で真剣な時間を費やすと、マップの観点から考えて還元する傾向があります。
ちなみに、誰かが私がやっているようにプロパティを設定するより良い方法がある場合 extract
たいプロパティの親がまだ存在しない可能性がありますので、お知らせください。
これがあなたの目的であるかどうかはわかりませんが、Googleでソースコードを検索できます。
「function:reduce()lang:python」を検索するには、リンクをクリックしてくださいGoogle Code検索を
一見、以下のプロジェクトが使用します reduce()
などなどですが、巨大なプロジェクトであるため、これらは驚くに値しません。
reduceの機能は、関数の再帰を使用して実行できます。これは、Guidoがより明示的であると私が思ったと思います。
更新:
Googleのコード検索は2012年1月15日に廃止されたため、通常のGoogle検索に戻る以外に、有望に見えるコードスニペットコレクションがあります。他の多くのリソースが、この(終了した)質問の回答で言及されています。。
アップデート2(2017年5月29日):
Pythonの例(オープンソースコード内)の優れたソースは、Nullege検索エンジンです。
for
ループ。
lang:python "reduce("
にreduce
応じた定義が見つかります。
import os
files = [
# full filenames
"var/log/apache/errors.log",
"home/kane/images/avatars/crusader.png",
"home/jane/documents/diary.txt",
"home/kane/images/selfie.jpg",
"var/log/abc.txt",
"home/kane/.vimrc",
"home/kane/images/avatars/paladin.png",
]
# unfolding of plain filiname list to file-tree
fs_tree = ({}, # dict of folders
[]) # list of files
for full_name in files:
path, fn = os.path.split(full_name)
reduce(
# this fucction walks deep into path
# and creates placeholders for subfolders
lambda d, k: d[0].setdefault(k, # walk deep
({}, [])), # or create subfolder storage
path.split(os.path.sep),
fs_tree
)[1].append(fn)
print fs_tree
#({'home': (
# {'jane': (
# {'documents': (
# {},
# ['diary.txt']
# )},
# []
# ),
# 'kane': (
# {'images': (
# {'avatars': (
# {},
# ['crusader.png',
# 'paladin.png']
# )},
# ['selfie.jpg']
# )},
# ['.vimrc']
# )},
# []
# ),
# 'var': (
# {'log': (
# {'apache': (
# {},
# ['errors.log']
# )},
# ['abc.txt']
# )},
# [])
#},
#[])
私が使用reduce
PostgreSQLの検索ベクトルのリストを連結すると||
SQLAlchemyの検索可能でオペレーター:
vectors = (self.column_vector(getattr(self.table.c, column_name))
for column_name in self.indexed_columns)
concatenated = reduce(lambda x, y: x.op('||')(y), vectors)
compiled = concatenated.compile(self.conn)
私は、reduceとglobモジュールを使用して処理するファイルのリストを作成するpipegrepの古いPython実装を持っています。
files = []
files.extend(reduce(lambda x, y: x + y, map(glob.glob, args)))
当時は便利だと思いましたが、似たようなものが同じくらいよく、おそらくもっと読みやすいので、それは本当に必要ではありません
files = []
for f in args:
files.extend(glob.glob(f))
files = [glob.glob(f) for f in args]
itertools
、docs.python.org/library/itertools.htmlのflatten()
レシピを使用して、次のように記述することをお勧めします (今回は、コードを投稿する前にテストしましたが、これは正しく動作することがわかっています。)files = flatten(glob.glob(f) for f in args)
files = chain.from_iterable(imap(iglob, args))
ここでchain
、imap
はitertools
モジュールglob.iglob
からのものでargs
あり、パターンが複数のディレクトリからファイルを生成する場合に役立ちます。
カウンタのリストが保存されている年間統計データがあるとします。異なる年の各月のMIN / MAX値を検索します。たとえば、1月の場合は10、2月の場合は15になります。新しいカウンターに結果を保存する必要があります。
from collections import Counter
stat2011 = Counter({"January": 12, "February": 20, "March": 50, "April": 70, "May": 15,
"June": 35, "July": 30, "August": 15, "September": 20, "October": 60,
"November": 13, "December": 50})
stat2012 = Counter({"January": 36, "February": 15, "March": 50, "April": 10, "May": 90,
"June": 25, "July": 35, "August": 15, "September": 20, "October": 30,
"November": 10, "December": 25})
stat2013 = Counter({"January": 10, "February": 60, "March": 90, "April": 10, "May": 80,
"June": 50, "July": 30, "August": 15, "September": 20, "October": 75,
"November": 60, "December": 15})
stat_list = [stat2011, stat2012, stat2013]
print reduce(lambda x, y: x & y, stat_list) # MIN
print reduce(lambda x, y: x | y, stat_list) # MAX
ある種の重なり合う間隔(ゲノムエクソン)を表すオブジェクトがあり、それらを使用して交差を再定義しました__and__
。
class Exon:
def __init__(self):
...
def __and__(self,other):
...
length = self.length + other.length # (e.g.)
return self.__class__(...length,...)
次に、それらのコレクション(たとえば、同じ遺伝子内)がある場合は、
intersection = reduce(lambda x,y: x&y, exons)
私はただの便利な使い方見つかっreduce
:区切り文字を削除せずに分割文字列を。コードは完全にプログラム的に話すブログからです。これがコードです:
reduce(lambda acc, elem: acc[:-1] + [acc[-1] + elem] if elem == "\n" else acc + [elem], re.split("(\n)", "a\nb\nc\n"), [])
結果は次のとおりです。
['a\n', 'b\n', 'c\n', '']
SOでの一般的な回答では対応できないエッジケースを処理することに注意してください。より詳しい説明については、元のブログ投稿にリダイレクトします。
reduce()を使用して、日付のリストが連続しているかどうかを確認します。
from datetime import date, timedelta
def checked(d1, d2):
"""
We assume the date list is sorted.
If d2 & d1 are different by 1, everything up to d2 is consecutive, so d2
can advance to the next reduction.
If d2 & d1 are not different by 1, returning d1 - 1 for the next reduction
will guarantee the result produced by reduce() to be something other than
the last date in the sorted date list.
Definition 1: 1/1/14, 1/2/14, 1/2/14, 1/3/14 is consider consecutive
Definition 2: 1/1/14, 1/2/14, 1/2/14, 1/3/14 is consider not consecutive
"""
#if (d2 - d1).days == 1 or (d2 - d1).days == 0: # for Definition 1
if (d2 - d1).days == 1: # for Definition 2
return d2
else:
return d1 + timedelta(days=-1)
# datelist = [date(2014, 1, 1), date(2014, 1, 3),
# date(2013, 12, 31), date(2013, 12, 30)]
# datelist = [date(2014, 2, 19), date(2014, 2, 19), date(2014, 2, 20),
# date(2014, 2, 21), date(2014, 2, 22)]
datelist = [date(2014, 2, 19), date(2014, 2, 21),
date(2014, 2, 22), date(2014, 2, 20)]
datelist.sort()
if datelist[-1] == reduce(checked, datelist):
print "dates are consecutive"
else:
print "dates are not consecutive"
from functools import reduce
同じコードをPython 2と3の両方で動作させることができます