以下是一个解决大文本文件并发处理的示例代码:
import concurrent.futures
# 并发处理函数
def process_line(line):
# 处理每一行文本的逻辑
# 这里只是简单地将文本转为大写并返回
return line.upper()
def process_file(file_path):
processed_lines = []
with open(file_path, 'r') as file:
lines = file.readlines()
# 创建线程池
with concurrent.futures.ThreadPoolExecutor() as executor:
# 提交任务到线程池并获取结果
results = executor.map(process_line, lines)
# 迭代处理结果
for result in results:
processed_lines.append(result)
# 将处理结果写入新的文件
with open('output.txt', 'w') as output_file:
output_file.writelines(processed_lines)
# 主函数
if __name__ == '__main__':
process_file('input.txt')
这个示例代码中,首先定义了一个处理每一行文本的函数process_line()
,它接受一行文本作为参数,在这里简单地将文本转为大写并返回。然后定义了一个process_file()
函数,它接受一个文件路径作为参数。在process_file()
函数中,首先使用open()
函数打开文件,并使用readlines()
方法读取所有行文本。然后,使用concurrent.futures.ThreadPoolExecutor()
创建线程池,调用executor.map()
方法提交任务并获取结果。executor.map()
方法将process_line()
函数和所有行文本作为参数,这样线程池会自动创建并行的线程来处理每一行文本。最后,将处理结果写入新的文件。主函数调用process_file()
函数并传入输入文件路径作为参数,即可开始并发处理大文本文件。
下一篇:并发处理目录和子目录中的文件