9.7. itertools —为高效循环创建迭代器的函数

2.3 版的新Function。

该模块实现了许多iterator构建块,这些构建块受 APL,Haskell 和 SML 的构造启发。每个都已经以适合 Python 的形式进行了重铸。

该模块标准化了一组核心的快速,高效内存工具,这些工具本身或结合使用很有用。它们共同构成了一个“迭代器代数”,从而可以在纯 Python 中简洁高效地构建专用工具。

例如,SML 提供了一个制表工具:tabulate(f),它产生一个序列f(0), f(1), ...。pass将imap()count()组合成imap(f, count()),可以在 Python 中获得相同的效果。

这些工具及其内置的对应工具也可以与operator模块中的高速Function很好地配合使用。例如,可以将乘法运算符 Map 到两个向量上,以形成有效的点积:sum(imap(operator.mul, vector1, vector2))

Infinite Iterators:

IteratorArgumentsResultsExample
count()start, [step]开始,开始,开始 2 *步骤,...count(10) --> 10 11 12 13 14 ...
cycle()pp0,p1,…plast,p0,p1,…cycle('ABCD') --> A B C D A B C D ...
repeat()elem [,n]elem,elem,elem……无休止或最多 n 次repeat(10, 3) --> 10 10 10

迭代器以最短的 Importing 序列终止:

IteratorArgumentsResultsExample
chain()p,q,...p0,p1,…plast,q0,q1,…chain('ABC', 'DEF') --> A B C D E F
compress()data, selectors(如果 s [0]为 d [0]),(如果 s [1]为 d [1]),...compress('ABCDEF', [1,0,1,0,1,1]) --> A C E F
dropwhile()pred, seqseq [n],seq [n 1],在 pred 失败时开始dropwhile(lambda x: x<5, [1,4,6,4,1]) --> 6 4 1
groupby()iterable[, keyfunc]子迭代器按 keyfunc(v)的值分组
ifilter()pred, seqseq 的元素,其中 pred(elem)为 trueifilter(lambda x: x%2, range(10)) --> 1 3 5 7 9
ifilterfalse()pred, seqseq 的元素,其中 pred(elem)为 falseifilterfalse(lambda x: x%2, range(10)) --> 0 2 4 6 8
islice()seq,[开始,]停止[,步骤]seq 中的元素[开始:停止:步骤]islice('ABCDEFG', 2, None) --> C D E F G
imap()func,p,q,...func(p0,q0),func(p1,q1),…imap(pow, (2,3,10), (5,2,3)) --> 32 9 1000
starmap()func, seqfunc(* seq [0]),func(* seq [1]),…starmap(pow, [(2,5), (3,2), (10,3)]) --> 32 9 1000
tee()it, nit1,it2,…itn 将一个迭代器拆分为 n
takewhile()pred, seqseq [0],seq [1],直到 pred 失败takewhile(lambda x: x<5, [1,4,6,4,1]) --> 1 4
izip()p,q,...(p [0],q [0]),(p [1],q [1]),...izip('ABCD', 'xy') --> Ax By
izip_longest()p,q,...(p [0],q [0]),(p [1],q [1]),...izip_longest('ABCD', 'xy', fillvalue='-') --> Ax By C- D-

Combinatoric generators:

IteratorArgumentsResults
product()p,q,…[repeat = 1]笛卡尔积,等效于嵌套的 for 循环
permutations()p[, r]r 长度 Tuples,所有可能的排序,没有重复的元素
combinations()p, rr 长度 Tuples,按排序 Sequences,无重复元素
combinations_with_replacement()p, rr 长度 Tuples,按排序 Sequences,带有重复的元素
product('ABCD', repeat=2)AA AB AC AD BA BB BC BD CA CB CC CD DA DB DC DD
permutations('ABCD', 2)AB AC AD BA BC BD CA CB CD DA DB DC
combinations('ABCD', 2)AB AC AD BC BD CD
combinations_with_replacement('ABCD', 2)AA AB AC AD BB BC BD CC CD DD

9.7.1. Itertool Function

以下模块负责所有构造和返回迭代器。有些提供无限长的流,因此只能由截断该流的函数或循环访问。

  • itertools. chain(** iterables *)
    • 创建一个迭代器,该迭代器从第一个可迭代对象返回元素,直到耗尽为止,然后 continue 进行下一个可迭代对象,直到所有可迭代对象都耗尽为止。用于将连续序列视为单个序列。大致相当于:
def chain(*iterables):
    # chain('ABC', 'DEF') --> A B C D E F
    for it in iterables:
        for element in it:
            yield element
  • 类方法 chain. from_iterable(可迭代)
    • chain()的备用构造函数。从一个延迟计算的单个可迭代参数获取链接 Importing。大致相当于:
def from_iterable(iterables):
    # chain.from_iterable(['ABC', 'DEF']) --> A B C D E F
    for it in iterables:
        for element in it:
            yield element

2.6 版的新Function。

  • itertools. combinations(* iterable r *)
    • 从* iterable Importing 中返回元素的 r *个长度子序列。

组合以字典 Sequences 排序。因此,如果对 Importing* iterable *进行排序,则将按排序 Sequences 生成组合 Tuples。

元素根据其位置而不是其价值被视为唯一。因此,如果 Importing 元素是唯一的,则每个组合中将没有重复值。

大致相当于:

def combinations(iterable, r):
    # combinations('ABCD', 2) --> AB AC AD BC BD CD
    # combinations(range(4), 3) --> 012 013 023 123
    pool = tuple(iterable)
    n = len(pool)
    if r > n:
        return
    indices = range(r)
    yield tuple(pool[i] for i in indices)
    while True:
        for i in reversed(range(r)):
            if indices[i] != i + n - r:
                break
        else:
            return
        indices[i] += 1
        for j in range(i+1, r):
            indices[j] = indices[j-1] + 1
        yield tuple(pool[i] for i in indices)

在过滤元素未按排序 Sequences(根据它们在 Importing 池中的位置)的条目之后,combinations()的代码也可以表示为permutations()的子序列:

def combinations(iterable, r):
    pool = tuple(iterable)
    n = len(pool)
    for indices in permutations(range(n), r):
        if sorted(indices) == list(indices):
            yield tuple(pool[i] for i in indices)

返回的项目数是0 <= r <= n时为n! / r! / (n-r)!,或r > n时为零。

2.6 版的新Function。

  • itertools. combinations_with_replacement(* iterable r *)
    • 从 Importing* iterable 返回元素的 r *长度子序列,从而允许单个元素重复多次。

组合以字典 Sequences 排序。因此,如果对 Importing* iterable *进行排序,则将按排序 Sequences 生成组合 Tuples。

元素根据其位置而不是其价值被视为唯一。因此,如果 Importing 元素是唯一的,则生成的组合也将是唯一的。

大致相当于:

def combinations_with_replacement(iterable, r):
    # combinations_with_replacement('ABC', 2) --> AA AB AC BB BC CC
    pool = tuple(iterable)
    n = len(pool)
    if not n and r:
        return
    indices = [0] * r
    yield tuple(pool[i] for i in indices)
    while True:
        for i in reversed(range(r)):
            if indices[i] != n - 1:
                break
        else:
            return
        indices[i:] = [indices[i] + 1] * (r - i)
        yield tuple(pool[i] for i in indices)

在过滤元素未按排序 Sequences(根据它们在 Importing 池中的位置)的条目之后,combinations_with_replacement()的代码也可以表示为product()的子序列:

def combinations_with_replacement(iterable, r):
    pool = tuple(iterable)
    n = len(pool)
    for indices in product(range(n), repeat=r):
        if sorted(indices) == list(indices):
            yield tuple(pool[i] for i in indices)

n > 0时,返回的项目数为(n+r-1)! / r! / (n-1)!

2.7 版的新Function。

  • itertools. compress(* data selectors *)
    • 创建一个迭代器,以从* data 过滤元素,仅返回那些在 selectors 中具有对应元素且其值为True的元素。当 data selectors *可迭代项用尽时停止。大致相当于:
def compress(data, selectors):
    # compress('ABCDEF', [1,0,1,0,1,1]) --> A C E F
    return (d for d, s in izip(data, selectors) if s)

2.7 版的新Function。

  • itertools. count(* start = 0 step = 1 *)
    • 使迭代器返回以* n *开头的均匀间隔的值。通常用作imap()的参数以生成连续的数据点。另外,与izip()一起添加序列号。相当于:
def count(start=0, step=1):
    # count(10) --> 10 11 12 13 14 ...
    # count(2.5, 0.5) -> 2.5 3.0 3.5 ...
    n = start
    while True:
        yield n
        n += step

用浮点数进行计数时,有时可以pass替换诸如(start + step * i for i in count())的乘法代码来获得更好的精度。

在 2.7 版中进行了更改:添加了* step *参数,并允许使用非整数参数。

  • itertools. cycle(可迭代)
    • 创建一个迭代器,从迭代器返回元素,并保存每个元素的副本。当 iterable 耗尽时,从保存的副本中返回元素。无限重复。大致相当于:
def cycle(iterable):
    # cycle('ABCD') --> A B C D A B C D A B C D ...
    saved = []
    for element in iterable:
        yield element
        saved.append(element)
    while saved:
        for element in saved:
              yield element

请注意,工具箱的此成员可能需要大量辅助存储(取决于迭代对象的长度)。

  • itertools. dropwhile(* predicate iterable *)
    • 只要谓词为真,就创建一个迭代器,从迭代器中删除元素。之后,返回每个元素。注意,在谓词首先变为假之前,迭代器不会产生* any *输出,因此启动时间可能很长。大致相当于:
def dropwhile(predicate, iterable):
    # dropwhile(lambda x: x<5, [1,4,6,4,1]) --> 6 4 1
    iterable = iter(iterable)
    for x in iterable:
        if not predicate(x):
            yield x
            break
    for x in iterable:
        yield x
  • itertools. groupby(* iterable * [,* key *])
    • 创建一个迭代器,该迭代器从* iterable *返回连续的键和组。 * key 是一个为每个元素计算键值的函数。如果未指定或为None,则 key *默认为标识函数,并返回不变的元素。通常,可迭代项需要已经在相同的键Function上进行了排序。

groupby()的操作类似于 Unix 中的uniq过滤器。每当键函数的值更改时,它都会生成一个break或新组(这就是为什么通常需要使用相同的键函数对数据进行排序的原因)。这种行为与 SQL 的 GROUP BY 不同,后者会聚集通用元素,而不管它们的 ImportingSequences 如何。

返回的组本身是一个迭代器,与groupby()共享基础可迭代对象。因为源是共享的,所以当groupby()对象高级时,上一个组将不再可见。因此,如果以后需要该数据,则应将其存储为列表:

groups = []
uniquekeys = []
data = sorted(data, key=keyfunc)
for k, g in groupby(data, keyfunc):
    groups.append(list(g))      # Store group iterator as a list
    uniquekeys.append(k)

groupby()大致等于:

class groupby(object):
    # [k for k, g in groupby('AAAABBBCCDAABBB')] --> A B C D A B
    # [list(g) for k, g in groupby('AAAABBBCCD')] --> AAAA BBB CC D
    def __init__(self, iterable, key=None):
        if key is None:
            key = lambda x: x
        self.keyfunc = key
        self.it = iter(iterable)
        self.tgtkey = self.currkey = self.currvalue = object()
    def __iter__(self):
        return self
    def next(self):
        while self.currkey == self.tgtkey:
            self.currvalue = next(self.it)    # Exit on StopIteration
            self.currkey = self.keyfunc(self.currvalue)
        self.tgtkey = self.currkey
        return (self.currkey, self._grouper(self.tgtkey))
    def _grouper(self, tgtkey):
        while self.currkey == tgtkey:
            yield self.currvalue
            self.currvalue = next(self.it)    # Exit on StopIteration
            self.currkey = self.keyfunc(self.currvalue)

2.4 版的新Function。

  • itertools. ifilter(* predicate iterable *)
    • 创建一个迭代器,从可迭代的元素中筛选出仅返回谓词为True的元素。如果* predicate *为None,则返回正确的项目。大致相当于:
def ifilter(predicate, iterable):
    # ifilter(lambda x: x%2, range(10)) --> 1 3 5 7 9
    if predicate is None:
        predicate = bool
    for x in iterable:
        if predicate(x):
            yield x
  • itertools. ifilterfalse(* predicate iterable *)
    • 创建一个迭代器,从可迭代的元素中筛选出仅返回谓词为False的元素。如果* predicate *为None,则返回错误的项目。大致相当于:
def ifilterfalse(predicate, iterable):
    # ifilterfalse(lambda x: x%2, range(10)) --> 0 2 4 6 8
    if predicate is None:
        predicate = bool
    for x in iterable:
        if not predicate(x):
            yield x
  • itertools. imap(* function * iterables *)
    • 创建一个迭代器,该迭代器使用每个可迭代对象的参数来计算函数。如果* function *设置为None,则imap()将参数作为 Tuples 返回。像map()一样,但是在最短的可迭代项耗尽时停止,而不是为较短的可迭代项填充None。造成这种差异的原因是,无限迭代器参数通常是map()的错误(因为对输出进行了充分评估),但代表了向imap()提供参数的常见且有用的方式。大致相当于:
def imap(function, *iterables):
    # imap(pow, (2,3,10), (5,2,3)) --> 32 9 1000
    iterables = map(iter, iterables)
    while True:
        args = [next(it) for it in iterables]
        if function is None:
            yield tuple(args)
        else:
            yield function(*args)
  • itertools. islice(可重复停止)

  • itertools. islice((* iterable start stop * [,* step *])

    • 使一个迭代器返回可迭代对象中的选定元素。如果* start 不为零,则跳过 iterable 中的元素,直到到达 start 为止。此后,除非将 step 设置为大于一个,否则将连续返回元素,这会导致项目被跳过。如果 stop None,那么迭代将一直持续到迭代器耗尽为止。否则,它将停在指定位置。与常规切片不同,islice()不支持 start stop step *的负值。可用于从内部结构已被展平的数据中提取相关字段(例如,多行报告可能每三行列出一个名称字段)。大致相当于:
def islice(iterable, *args):
    # islice('ABCDEFG', 2) --> A B
    # islice('ABCDEFG', 2, 4) --> C D
    # islice('ABCDEFG', 2, None) --> C D E F G
    # islice('ABCDEFG', 0, None, 2) --> A C E G
    s = slice(*args)
    start, stop, step = s.start or 0, s.stop or sys.maxint, s.step or 1
    it = iter(xrange(start, stop, step)))
    try:
        nexti = next(it)
    except StopIteration:
        # Consume *iterable* up to the *start* position.
        for i, element in izip(xrange(start), iterable):
            pass
        return
    try:
        for i, element in enumerate(iterable):
            if i == nexti:
                yield element
                nexti = next(it)
    except StopIteration:
        # Consume to *stop*.
        for i, element in izip(xrange(i + 1, stop), iterable):
            pass

如果* start None,则迭代从零开始。如果 step *为None,则该步骤默认为 1.

在版本 2.5 中更改:接受None值作为默认* start step *。

  • itertools. izip(** iterables *)
    • 创建一个迭代器,以聚合每个可迭代对象中的元素。类似于zip(),不同之处在于它返回迭代器而不是列表。一次用于多个可迭代对象的锁步迭代。大致相当于:
def izip(*iterables):
    # izip('ABCD', 'xy') --> Ax By
    iterators = map(iter, iterables)
    while iterators:
        yield tuple(map(next, iterators))

在版本 2.4 中进行了更改:如果未指定可迭代项,则返回零长度的迭代器,而不引发TypeError异常。

保证了可迭代对象的从左到右的评估 Sequences。这使使用izip(*[iter(s)]*n)将数据系列聚类为 n 个长度的组成为一个习惯用法。

当您不关心较长的可迭代项的尾部不匹配的值时,izip()仅应与不等长的 Importing 一起使用。如果这些值很重要,请改用izip_longest()

  • itertools. izip_longest(** iterables * [,* fillvalue *])
    • 创建一个迭代器,以聚合每个可迭代对象中的元素。如果可迭代项的长度不均匀,则用* fillvalue *填充缺失值。迭代一直持续到最长的可迭代耗尽为止。大致相当于:
class ZipExhausted(Exception):
    pass

def izip_longest(*args, **kwds):
    # izip_longest('ABCD', 'xy', fillvalue='-') --> Ax By C- D-
    fillvalue = kwds.get('fillvalue')
    counter = [len(args) - 1]
    def sentinel():
        if not counter[0]:
            raise ZipExhausted
        counter[0] -= 1
        yield fillvalue
    fillers = repeat(fillvalue)
    iterators = [chain(it, sentinel(), fillers) for it in args]
    try:
        while iterators:
            yield tuple(map(next, iterators))
    except ZipExhausted:
        pass

如果一个可迭代的对象可能是无限的,则izip_longest()函数应该用限制调用次数的内容包装(例如islice()takewhile())。如果未指定,则* fillvalue *默认为None

2.6 版的新Function。

  • itertools. permutations(* iterable * [,* r *])
    • 返回* iterable 中元素的连续 r *长度排列。

如果未指定* r 或__,则 r 默认为 iterable *的长度,并生成所有可能的全长排列。

排列以字典 Sequences 排序。因此,如果对 Importing* iterable *进行排序,则将按排序 Sequences 生成置换 Tuples。

元素根据其位置而不是其价值被视为唯一。因此,如果 Importing 元素是唯一的,则每个排列中都不会有重复值。

大致相当于:

def permutations(iterable, r=None):
    # permutations('ABCD', 2) --> AB AC AD BA BC BD CA CB CD DA DB DC
    # permutations(range(3)) --> 012 021 102 120 201 210
    pool = tuple(iterable)
    n = len(pool)
    r = n if r is None else r
    if r > n:
        return
    indices = range(n)
    cycles = range(n, n-r, -1)
    yield tuple(pool[i] for i in indices[:r])
    while n:
        for i in reversed(range(r)):
            cycles[i] -= 1
            if cycles[i] == 0:
                indices[i:] = indices[i+1:] + indices[i:i+1]
                cycles[i] = n - i
            else:
                j = cycles[i]
                indices[i], indices[-j] = indices[-j], indices[i]
                yield tuple(pool[i] for i in indices[:r])
                break
        else:
            return

permutations()的代码也可以表示为product()的子序列,经过过滤以排除具有重复元素的条目(这些元素来自 Importing 池中的相同位置):

def permutations(iterable, r=None):
    pool = tuple(iterable)
    n = len(pool)
    r = n if r is None else r
    for indices in product(range(n), repeat=r):
        if len(set(indices)) == r:
            yield tuple(pool[i] for i in indices)

返回的项目数是0 <= r <= n时为n! / (n-r)!,或r > n时为零。

2.6 版的新Function。

  • itertools. product(** iterables * [,* repeat *])
    • Importing 可迭代项的笛卡尔积。

大致等效于生成器表达式中的嵌套 for 循环。例如,product(A, B)返回与((x,y) for x in A for y in B)相同。

嵌套循环就像里程表一样循环,最右边的元素在每次迭代中都前进。此模式创建字典 Sequences,以便如果对 Importing 的可迭代对象进行排序,则将按排序 Sequences 发出产品 Tuples。

要计算自身的可乘积,请使用可选的* repeat *关键字参数指定重复次数。例如,product(A, repeat=4)的含义与product(A, A, A, A)相同。

此函数与以下代码大致等效,除了实际的实现不会在内存中构建中间结果之外:

def product(*args, **kwds):
    # product('ABCD', 'xy') --> Ax Ay Bx By Cx Cy Dx Dy
    # product(range(2), repeat=3) --> 000 001 010 011 100 101 110 111
    pools = map(tuple, args) * kwds.get('repeat', 1)
    result = [[]]
    for pool in pools:
        result = [x+[y] for x in result for y in pool]
    for prod in result:
        yield tuple(prod)

2.6 版的新Function。

  • itertools. repeat(* object * [,* times *])
    • 使迭代器一次又一次返回* object 。除非指定 times *参数,否则将无限期运行。用作不变函数参数的imap()的参数。也与izip()一起在 TuplesLogging 创建常量字段。大致相当于:
def repeat(object, times=None):
    # repeat(10, 3) --> 10 10 10
    if times is None:
        while True:
            yield object
    else:
        for i in xrange(times):
            yield object
  • repeat 的常见用法是向 imap zip *提供常量值流:
>>> list(imap(pow, xrange(10), repeat(2)))
[0, 1, 4, 9, 16, 25, 36, 49, 64, 81]
  • itertools. starmap(* function iterable *)
    • 创建一个迭代器,该迭代器使用从迭代器获得的参数来计算函数。当参数参数已从单个可迭代项的 Tuples 中分组时(而不是数据已“预压缩”),代替imap()imap()starmap()之间的区别类似于function(a,b)function(*c)之间的区别。大致相当于:
def starmap(function, iterable):
    # starmap(pow, [(2,5), (3,2), (10,3)]) --> 32 9 1000
    for args in iterable:
        yield function(*args)

在 2.6 版中进行了更改:以前,starmap()要求函数参数为 Tuples。现在,任何可迭代的都是允许的。

  • itertools. takewhile(* predicate iterable *)
    • 只要谓词为 true,就可以使迭代器返回可迭代对象的元素。大致相当于:
def takewhile(predicate, iterable):
    # takewhile(lambda x: x<5, [1,4,6,4,1]) --> 1 4
    for x in iterable:
        if predicate(x):
            yield x
        else:
            break
  • itertools. tee(* iterable * [,* n = 2 *])
    • 从单个可迭代器返回* n *个独立的迭代器。大致相当于:
def tee(iterable, n=2):
    it = iter(iterable)
    deques = [collections.deque() for i in range(n)]
    def gen(mydeque):
        while True:
            if not mydeque:             # when the local deque is empty
                newval = next(it)       # fetch a new value and
                for d in deques:        # load it to all the deques
                    d.append(newval)
            yield mydeque.popleft()
    return tuple(gen(d) for d in deques)

tee()分割后,原始的* iterable 不应在其他任何地方使用;否则,在不通知 tee 对象的情况下, iterable *可能会 Developing。

tee迭代器不是线程安全的。当同时使用由同一tee()调用返回的迭代器时,即使原始的* iterable *是线程安全的,也可能引发RuntimeError

此 itertool 可能需要大量辅助存储(取决于需要存储多少临时数据)。通常,如果一个迭代器在另一个迭代器启动之前使用了大部分或全部数据,则使用list()而不是tee()会更快。

2.4 版的新Function。

9.7.2. Recipes

本节显示使用现有 itertools 作为构建块来创建扩展工具集的方法。

扩展工具提供与基础工具集相同的高性能。pass一次处理一个元素,而不是一次将整个可迭代对象全部放入内存,可以保持卓越的内存性能。pass以一种Function样式将工具链接在一起,可以减少代码量,这有助于消除临时变量。与使用 for 循环和generator s 相比,优先使用“矢量化”构建块来保持高速,这会导致解释器开销。

def take(n, iterable):
    "Return first n items of the iterable as a list"
    return list(islice(iterable, n))

def tabulate(function, start=0):
    "Return function(0), function(1), ..."
    return imap(function, count(start))

def consume(iterator, n=None):
    "Advance the iterator n-steps ahead. If n is None, consume entirely."
    # Use functions that consume iterators at C speed.
    if n is None:
        # feed the entire iterator into a zero-length deque
        collections.deque(iterator, maxlen=0)
    else:
        # advance to the empty slice starting at position n
        next(islice(iterator, n, n), None)

def nth(iterable, n, default=None):
    "Returns the nth item or a default value"
    return next(islice(iterable, n, None), default)

def all_equal(iterable):
    "Returns True if all the elements are equal to each other"
    g = groupby(iterable)
    return next(g, True) and not next(g, False)

def quantify(iterable, pred=bool):
    "Count how many times the predicate is true"
    return sum(imap(pred, iterable))

def padnone(iterable):
    """Returns the sequence elements and then returns None indefinitely.

    Useful for emulating the behavior of the built-in map() function.
    """
    return chain(iterable, repeat(None))

def ncycles(iterable, n):
    "Returns the sequence elements n times"
    return chain.from_iterable(repeat(tuple(iterable), n))

def dotproduct(vec1, vec2):
    return sum(imap(operator.mul, vec1, vec2))

def flatten(listOfLists):
    "Flatten one level of nesting"
    return chain.from_iterable(listOfLists)

def repeatfunc(func, times=None, *args):
    """Repeat calls to func with specified arguments.

    Example:  repeatfunc(random.random)
    """
    if times is None:
        return starmap(func, repeat(args))
    return starmap(func, repeat(args, times))

def pairwise(iterable):
    "s -> (s0,s1), (s1,s2), (s2, s3), ..."
    a, b = tee(iterable)
    next(b, None)
    return izip(a, b)

def grouper(iterable, n, fillvalue=None):
    "Collect data into fixed-length chunks or blocks"
    # grouper('ABCDEFG', 3, 'x') --> ABC DEF Gxx
    args = [iter(iterable)] * n
    return izip_longest(fillvalue=fillvalue, *args)

def roundrobin(*iterables):
    "roundrobin('ABC', 'D', 'EF') --> A D E B F C"
    # Recipe credited to George Sakkis
    pending = len(iterables)
    nexts = cycle(iter(it).next for it in iterables)
    while pending:
        try:
            for next in nexts:
                yield next()
        except StopIteration:
            pending -= 1
            nexts = cycle(islice(nexts, pending))

def powerset(iterable):
    "powerset([1,2,3]) --> () (1,) (2,) (3,) (1,2) (1,3) (2,3) (1,2,3)"
    s = list(iterable)
    return chain.from_iterable(combinations(s, r) for r in range(len(s)+1))

def unique_everseen(iterable, key=None):
    "List unique elements, preserving order. Remember all elements ever seen."
    # unique_everseen('AAAABBBCCDAABBB') --> A B C D
    # unique_everseen('ABBCcAD', str.lower) --> A B C D
    seen = set()
    seen_add = seen.add
    if key is None:
        for element in ifilterfalse(seen.__contains__, iterable):
            seen_add(element)
            yield element
    else:
        for element in iterable:
            k = key(element)
            if k not in seen:
                seen_add(k)
                yield element

def unique_justseen(iterable, key=None):
    "List unique elements, preserving order. Remember only the element just seen."
    # unique_justseen('AAAABBBCCDAABBB') --> A B C D A B
    # unique_justseen('ABBCcAD', str.lower) --> A B C A D
    return imap(next, imap(itemgetter(1), groupby(iterable, key)))

def iter_except(func, exception, first=None):
    """ Call a function repeatedly until an exception is raised.

    Converts a call-until-exception interface to an iterator interface.
    Like __builtin__.iter(func, sentinel) but uses an exception instead
    of a sentinel to end the loop.

    Examples:
        bsddbiter = iter_except(db.next, bsddb.error, db.first)
        heapiter = iter_except(functools.partial(heappop, h), IndexError)
        dictiter = iter_except(d.popitem, KeyError)
        dequeiter = iter_except(d.popleft, IndexError)
        queueiter = iter_except(q.get_nowait, Queue.Empty)
        setiter = iter_except(s.pop, KeyError)

    """
    try:
        if first is not None:
            yield first()
        while 1:
            yield func()
    except exception:
        pass

def random_product(*args, **kwds):
    "Random selection from itertools.product(*args, **kwds)"
    pools = map(tuple, args) * kwds.get('repeat', 1)
    return tuple(random.choice(pool) for pool in pools)

def random_permutation(iterable, r=None):
    "Random selection from itertools.permutations(iterable, r)"
    pool = tuple(iterable)
    r = len(pool) if r is None else r
    return tuple(random.sample(pool, r))

def random_combination(iterable, r):
    "Random selection from itertools.combinations(iterable, r)"
    pool = tuple(iterable)
    n = len(pool)
    indices = sorted(random.sample(xrange(n), r))
    return tuple(pool[i] for i in indices)

def random_combination_with_replacement(iterable, r):
    "Random selection from itertools.combinations_with_replacement(iterable, r)"
    pool = tuple(iterable)
    n = len(pool)
    indices = sorted(random.randrange(n) for i in xrange(r))
    return tuple(pool[i] for i in indices)

def tee_lookahead(t, i):
    """Inspect the i-th upcomping value from a tee object
       while leaving the tee object at its current position.

       Raise an IndexError if the underlying iterator doesn't
       have enough values.

    """
    for value in islice(t.__copy__(), i, None):
        return value
    raise IndexError(i)

注意,可以pass将全局查找替换为定义为默认值的局部变量来优化上述许多配方。例如,* dotproduct *配方可以写为:

def dotproduct(vec1, vec2, sum=sum, imap=imap, mul=operator.mul):
    return sum(imap(mul, vec1, vec2))