在Airflow中,可以使用BashOperator来运行包含Bash命令的Python脚本。要在Python脚本之间传递参数,可以使用jinja模板语法和BashOperator的op_args
参数。
以下是一个示例解决方案:
script1.py
,该脚本接收一个参数param1
:import sys
param1 = sys.argv[1]
print("Parameter 1:", param1)
script2.py
,该脚本接收两个参数param1
和param2
:import sys
param1 = sys.argv[1]
param2 = sys.argv[2]
print("Parameter 1:", param1)
print("Parameter 2:", param2)
op_args
参数中,可以使用jinja模板语法来动态地传递参数:from airflow import DAG
from airflow.operators.bash_operator import BashOperator
from datetime import datetime
default_args = {
'start_date': datetime(2021, 1, 1)
}
dag = DAG(
'passing_parameters',
default_args=default_args,
schedule_interval=None
)
op1 = BashOperator(
task_id='run_script1',
bash_command='python /path/to/script1.py {{ params.param1 }}',
op_args=[{'param1': 'value1'}],
dag=dag
)
op2 = BashOperator(
task_id='run_script2',
bash_command='python /path/to/script2.py {{ params.param1 }} {{ params.param2 }}',
op_args=[{'param1': 'value1', 'param2': 'value2'}],
dag=dag
)
op1 >> op2
在上面的示例中,op_args
参数是一个包含参数键值对的列表,可以在Bash命令中使用{{ params.param1 }}
来引用参数的值。
在实际使用中,可以根据需要自行调整参数的值和传递方式。