在Airflow中,可以使用trigger_rule
参数来等待前一个DAG运行完成。trigger_rule
参数定义在DAG定义中的每个Task之间,可以设置为以下几个选项之一:
all_success
: 默认值,表示所有上游任务都成功后才会触发当前任务。all_failed
: 表示所有上游任务都失败后才会触发当前任务。one_success
: 表示只要有一个上游任务成功就会触发当前任务。one_failed
: 表示只要有一个上游任务失败就会触发当前任务。none_failed
: 表示只要没有上游任务失败就会触发当前任务。下面是一个示例代码,演示了如何使用trigger_rule
参数来等待前一个DAG运行完成:
from airflow import DAG
from airflow.operators.python_operator import PythonOperator
from datetime import datetime
def task1():
print("Task 1")
def task2():
print("Task 2")
def task3():
print("Task 3")
# 定义DAG
with DAG("my_dag", start_date=datetime(2022, 1, 1)) as dag:
# 定义三个任务,设置它们的trigger_rule参数为all_success
t1 = PythonOperator(task_id="task1", python_callable=task1, trigger_rule="all_success")
t2 = PythonOperator(task_id="task2", python_callable=task2, trigger_rule="all_success")
t3 = PythonOperator(task_id="task3", python_callable=task3, trigger_rule="all_success")
# 设置任务之间的依赖关系
t1 >> t2 >> t3
在上述示例中,task1
会在上一个DAG运行成功后触发,然后task2
会在task1
成功后触发,最后task3
会在task2
成功后触发。如果任何一个任务失败,后续任务将不会触发。