在Airflow中,可以使用BashOperator来执行外部的bash脚本,并且可以通过提供参数来传递给该脚本。以下是一个示例代码:
from airflow import DAG
from airflow.operators.bash_operator import BashOperator
from datetime import datetime
default_args = {
'start_date': datetime(2021, 1, 1),
'retries': 3,
'retry_delay': timedelta(minutes=5),
}
dag = DAG('bash_operator_example', default_args=default_args, schedule_interval='@daily')
# 定义一个BashOperator,执行外部的bash脚本,并传递参数
bash_command = 'bash_script.sh "{{ dag_run.conf["param1"] }}" "{{ dag_run.conf["param2"] }}"'
bash_operator = BashOperator(
task_id='execute_bash_script',
bash_command=bash_command,
dag=dag
)
在上面的示例中,bash_script.sh
是外部的bash脚本文件。我们可以在BashOperator
的bash_command
参数中使用dag_run.conf
来获取传递给DAG的参数。在示例中,param1
和param2
是传递给脚本的参数。
当DAG运行时,Airflow会将{{ dag_run.conf["param1"] }}
和{{ dag_run.conf["param2"] }}
替换为实际的参数值,并执行bash_script.sh
脚本。
请注意,dag_run.conf
是一个特殊的变量,它可以用于在DAG运行时传递参数。在运行DAG时,可以使用dag_run.conf
参数来指定参数的值,例如:
airflow trigger_dag bash_operator_example -c '{"param1": "value1", "param2": "value2"}'
在上面的命令中,-c
参数用于传递JSON格式的参数值。