在airflow.cfg中确认是否有remote_logging配置。若没有,请添加以下配置:
[remote_logging]
remote_log_conn_id =
其中CONN_ID为连接器ID,REMOTE_BASE_LOG_FOLDER为远程日志文件夹。
确认远程日志存储服务是否有足够的权限,例如在使用S3存储时,需要设置S3的bucket policy或IAM role。
确认remote_base_log_folder配置的路径是否正确,以及书写格式是否正确。
下面是一个Python示例:
from airflow import DAG from airflow.operators.bash import BashOperator
default_args = { 'owner': 'airflow', 'depends_on_past': False, 'start_date': datetime(2021, 11, 22), 'email_on_failure': False, 'email_on_retry': False, 'retries': 1, 'retry_delay': timedelta(minutes=1), }
dag = DAG( 'remote_logging_sample', default_args=default_args, description='A simple tutorial DAG', schedule_interval=timedelta(days=1), )
t1 = BashOperator( task_id='print_date', bash_command='date', dag=dag, )
t2 = BashOperator( task_id='sleep', depends_on_past=False, bash_command='sleep 5', retries=15, dag=dag, )
t1 >> t2