要将Airflow参数传递给Postgres Operator,可以在Airflow的DAG定义中使用DAG的default_args
参数来设置默认的Operator参数。然后,在创建Postgres Operator时,可以使用Python的字符串格式化来将Airflow参数传递给Operator。
以下是一个示例代码,演示如何将Airflow参数传递给Postgres Operator:
from airflow import DAG
from airflow.operators.postgres_operator import PostgresOperator
from datetime import datetime
default_args = {
'postgres_conn_id': 'postgres_default',
'database': 'my_database',
'user': 'my_user',
'password': 'my_password',
'start_date': datetime(2022, 1, 1),
}
dag = DAG(
'my_dag',
default_args=default_args,
schedule_interval='0 0 * * *',
)
create_table_sql = """
CREATE TABLE IF NOT EXISTS my_table (
id SERIAL PRIMARY KEY,
name VARCHAR(100) NOT NULL
);
"""
create_table_task = PostgresOperator(
task_id='create_table',
postgres_conn_id=default_args['postgres_conn_id'],
sql=create_table_sql,
dag=dag,
)
create_table_task
在上面的代码中,我们定义了一个default_args
字典,其中包含了要传递给Postgres Operator的参数,例如postgres_conn_id
、database
、user
和password
。然后,我们使用default_args
来创建DAG,并将其作为default_args
参数传递给DAG构造函数。
在创建Postgres Operator时,我们通过字符串格式化将Airflow参数传递给Operator的postgres_conn_id
参数,以确保每个Operator都使用相同的连接。
接下来,我们定义了一个SQL语句create_table_sql
,用于在PostgreSQL中创建一个表。然后,我们创建了一个Postgres Operator任务create_table_task
,将postgres_conn_id
、sql
和dag
参数传递给Operator构造函数。
最后,我们将create_table_task
添加到DAG中,以便在Airflow中运行该任务。
请注意,上述示例中的Airflow参数是虚构的,您需要根据自己的环境和需求进行相应的配置。