在 AWS Glue 4.0 中,由于限制和配置问题,同一作业内的 Python 多进程可能被挂起。为了解决此问题,可以将多进程的代码移动到不同的 Python 模块中,并使用 GlueContext 来协调它们的工作。具体解决方法如下:
将多进程的代码移动到一个单独的 Python 模块中。假设这个模块的名字为 multiprocess_module.py
。
在 AWS Glue 4.0 作业的脚本中导入这个新的模块,并创建一个 multiprocessing.Pool
对象,用于启动进程池。
import multiprocessing
from multiprocess_module import your_multiprocess_function
# ...
def main():
# ...
with multiprocessing.Pool(processes=4) as pool:
pool.map(your_multiprocess_function, your_input_data)
# ...
glueContext
而不是 Python 的 multiprocessing.Queue
来发送和接收数据。from awsglue.context import GlueContext
glueContext = GlueContext(SparkContext.getOrCreate())
def your_multiprocess_function(input_data):
# ...
output_data = do_something_with_input_data(input_data)
# Send the output back to the main process using glueContext. Instead of "queue.put(output_data)"
glueContext.write_dynamic_frame.from_options(frame=output_data, connection_type="s3", connection_options={"path": "s3://your/result/path"})
这种方法可以让多进程代码在 AWS Glue 4.0 中正常工作,而不会发生挂起的情况。同时也确保了多进程之间的数据传输正常进行。