Airflow中的EmrCreateJobFlowOperator是一种在Amazon Elastic MapReduce (EMR)中创建作业流的方法。作业流是一个由Hadoop作业组成的有序集合,可以以特定的顺序运行。此操作符提供了一个可选的参数,即JOB_flow_overrides,它允许您指定键值对,覆盖在作业流创建期间生成的默认值。以下是一个简单示例:
from datetime import datetime, timedelta
from airflow import DAG
from airflow.contrib.operators.emr_create_job_flow_operator import EmrCreateJobFlowOperator
default_args = {
'owner': 'airflow',
'start_date': datetime(2021, 5, 1),
'depends_on_past': False,
'email_on_failure': False,
'email_on_retry': False,
'retries': 1,
'retry_delay': timedelta(minutes=5),
}
JOB_FLOW_OVERRIDES = {
'Name': 'custom_emr_cluster_name',
'ReleaseLabel': 'emr-6.2.0',
'LogUri': 's3://my-bucket/logs/',
'Applications': [{'Name': 'Spark'}, {'Name': 'Hive'}, {'Name': 'Pig'}],
'Steps': [{'Name': 'My Spark Job', 'HadoopJarStep': {'Jar': 'command-runner.jar', 'Args': ['spark-submit', '--class', 'org.apache.spark.examples.SparkPi', '--master', 'yarn', '--deploy-mode', 'cluster', '--executor-memory', '1g', '--num-executors', '2', 's3://my-bucket/examples/jars/spark-examples.jar', '10']}}],
'ServiceRole': 'EMR_DefaultRole',
'JobFlowRole': 'EMR_EC2_DefaultRole',
}
dag = DAG(
dag_id='example_emr_job_flow',
default_args=default_args,
schedule_interval='0 3 * * *',
catchup=False
)
create_emr = EmrCreateJobFlowOperator(
task_id='create_emr_cluster',
job_flow_overrides=JOB_FLOW_OVERRIDES,
aws_conn_id='aws_default',
dag=dag
)
在上面的示例中,JOB_FLOW_OVERRIDES变量是一个包含多个覆盖项的字典。这些覆盖项将用于替换默认值,以创建具有自定义名称、版本和日志位置的作业流