对于AWS Glue中同时运行的多个作业,每个作业会独立地占用执行资源,可能会造成资源争用的问题。为了解决这个问题,可以通过对每个作业在代码中设置最大并行任务数,来控制同时运行的作业数量。
以下是一个示例代码,通过使用参数“--max-task-concurrency”来限制最大并行任务数为4:
import sys
import boto3
from awsglue.utils import getResolvedOptions
# 获取参数
args = getResolvedOptions(sys.argv, ['JOB_NAME', 'max-task-concurrency'])
# 创建 Glue 客户端
glue_client = boto3.client('glue')
# 设置作业参数
job_args = {
'--job-bookmark-option': 'job-bookmark-disable',
'--enable-continuous-cloudwatch-log': 'true',
'--spark-event-logs-path': 's3://mybucket/logs'
}
# 如果参数中指定了最大并行任务数,则添加到作业参数中
if 'max-task-concurrency' in args:
job_args['--conf'] = 'spark.task.maxFailures=4'
job_args['--conf'] = 'spark.default.parallelism=' + args['max-task-concurrency']
# 启动作业
response = glue_client.start_job_run(
JobName=args['JOB_NAME'],
Arguments=job_args
)
以上代码中,如果通过参数指定了最大并行任务数,那么就将该参数添加到作业参数“--conf”中,以控制作业的最大并行数。同时,也可以通过更改“spark.default.parallelism”参数来控制Spark作业的并行度。这样就可以避免同时运行的多个作业之间的资源争用问题。