为了确保在DAG成功但某些任务失败的情况下触发on_failure_callback函数,我们可以使用DAG中的id关键字参数来重写DAG的构造函数,并添加一个新的任务来处理所有失败的任务。以下是示例代码:
from airflow import DAG
from airflow.operators.bash_operator import BashOperator
from datetime import datetime, timedelta
def on_failure_callback(context):
print("Task failed but the DAG still succeeded", context)
default_args = {
'owner': 'airflow',
'depends_on_past': False,
'start_date': datetime(2022, 1, 1),
'email_on_failure': False,
'email_on_retry': False,
'retries': 1,
'retry_delay': timedelta(minutes=5),
'on_failure_callback': on_failure_callback,
}
dag = DAG(
dag_id='example_dag',
default_args=default_args,
schedule_interval=timedelta(days=1),
start_date=datetime(2022, 1, 1),
)
task1 = BashOperator(
task_id='task1',
bash_command='sleep 5 && exit 1',
dag=dag,
)
failure_handler = BashOperator(
task_id='failure_handler',
bash_command='echo "All tasks failed"',
dag=dag,
)
task1 >> failure_handler
在这个示例中,我们使用BashOperator来模拟一个失败的任务,然后添加一个新的任务failure_handler,在任务task1 失败后自动执行来处理其他所有失败的任务。任务task1 和任务failure_handler 之间的关系由操作符 >> 表示,这意味着当task1 完成并且它的状态为失败时,将自动执行failure_handler 任务。此外,在DAG的default_args字典中设置了on_failure_callback参数。如果其他任务失败但仍然使DAG成功,on_failure_callback函数将被调用以向我们发送通知。