共计 2148 个字符,预计需要花费 6 分钟才能阅读完成。
上一篇文章:Python 实用技法第 32 篇:对齐文本字符串
下一篇文章:
问题
我们想将许多小字符串合并成一个大的字符串。
解决方案
如果想要合并的字符串在一个序列或可迭代对象中,那么将它们合并起来的最快方法就是使用 join()方法。示例如下:
>>> parts = ['Is', 'Chicago', 'Not', 'Chicago?']
>>> ''.join(parts)'Is Chicago Not Chicago?'>>>','.join(parts)'Is,Chicago,Not,Chicago?'>>>''.join(parts)
'IsChicagoNotChicago?'
>>>
初看上去语法可能显得有些怪异,但是 join()操作其实是字符串对象的一个方法。这么设计的部分原因是因为想要合并在一起的对象可能来自于各种不同的数据序列,比如列表、元组、字典、文件、集合或生成器,如果单独在每一种序列对象中实现一个 join()方法就显得太冗余了。因此只需要指定想要的分隔字符串,然后在字符串对象上使用 join()方法将文本片段粘合在一起就可以了。
如果只是想连接一些字符串,一般使用 + 操作符就足够完成任务了:
>>> a = 'Is Chicago'
>>> b = 'Not Chicago?'
>>> a + '' + b'Is Chicago Not Chicago?'
>>>
针对更加复杂的字符串格式化操作,+ 操作符同样可以作为 format()的替代,很好地完成任务:
>>> print('{} {}'.format(a,b))
Is Chicago Not Chicago?
>>> print(a + ' ' + b)
Is Chicago Not Chicago?
>>>
如果打算在源代码中将字符串字面值合并在一起,可以简单地将它们排列在一起,中间不加 + 操作符。示例如下:
>>> a = 'Hello' 'World'
>>> a
'HelloWorld'
>>>
讨论
字符串连接这个主题可能看起来还没有高级到要用一整节的篇幅来讲解,但是程序员常常会在这个问题上做出错误的编程选择,使得他们的代码性能受到影响。
最重要的一点是要意识到使用 + 操作符做大量的字符串连接是非常低效的,原因是由于内存拷贝和垃圾收集产生的影响。特别是你绝不会想写出这样的字符串连接代码:
s = ''
for p in parts:
s += p
这种做法比使用 join()方法要慢上许多。主要是因为每个 += 操作都会创建一个新的字符串对象。我们最好先收集所有要连接的部分,最后再一次将它们连接起来。
一个相关的技巧(很漂亮的技巧)是利用生成器表达式(见 1.19 节)在将数据转换为字符串的同时完成连接操作。示例如下:
>>> data = ['ACME', 50, 91.1]
>>> ','.join(str(d) for d in data)
'ACME,50,91.1'
>>>
对于不必要的字符串连接操作也要引起重视。有时候在技术上并非必需的时候,程序员们也会忘乎所以地使用字符串连接操作。例如在打印的时候:
print(a + ':' + b + ':' + c) # Ugly
print(':'.join([a, b, c])) # Still ugly
print(a, b, c, sep=':') # Better
将字符串连接同 I / O 操作混合起来的时候需要对应用做仔细的分析。例如,考虑如下两段代码:
# Version 1 (string concatenation)
f.write(chunk1 + chunk2)
# Version 2 (separate I/O operations)
f.write(chunk1)
f.write(chunk2)
如果这两个字符串都很小,那么第一个版本的代码能带来更好的性能,这是因为执行一次 I / O 系统调用的固有开销就很高。另一方面,如果这两个字符串都很大,那么第二个版本的代码会更加高效。因为这里避免了创建大的临时结果,也没有对大块的内存进行拷贝。这里必须再次强调,你需要对自己的数据做分析,以此才能判定哪一种方法可以获得最好的性能。
最后但也是最重要的是,如果我们编写的代码要从许多短字符串中构建输出,则应该考虑编写生成器函数,通过 yield 关键字生成字符串片段。示例如下:
def sample():
yield 'Is'
yield 'Chicago'
yield 'Not'
yield 'Chicago?'
关于这种方法有一个有趣的事实,那就是它不会假设产生的片段要如何组合在一起。比如说可以用 join()将它们简单的连接起来:
text = ''.join(sample())
或者,也可以将这些片段重定向到 I /O:
for part in sample():
f.write(part)
又或者我们能以混合的方式将 I / O 操作智能化地结合在一起:
def combine(source, maxsize):
parts = []
size = 0
for part in source:
parts.append(part)
size += len(part)
if size > maxsize:
yield ''.join(parts)
parts = []
size = 0
yield ''.join(parts)
for part in combine(sample(), 32768):
f.write(part)
关键在于这里的生成器函数并不需要知道精确的细节,它只是产生片段而已。