在Airflow中,可以通过创建不同的Connection来定义与多个服务器的连接。每个Connection都有一个唯一的conn_id,可以在任务中引用。以下是使用Airflow conn_id与多个服务器的解决方法的示例代码:
首先,在Airflow的Web UI中,创建多个Connection,每个Connection对应一个服务器。可以通过导航到Admin -> Connections 来创建。 例如,你可以创建两个Connection,一个连接到服务器A,另一个连接到服务器B。给它们分别命名为"server_a"和"server_b",并填写相应的主机名、用户名、密码等信息。
在Airflow的DAG文件中,可以通过使用Hook来引用conn_id,并在任务中使用相应的连接。 以下是一个示例代码:
from airflow import DAG
from airflow.operators.python_operator import PythonOperator
from airflow.hooks.base_hook import BaseHook
def fetch_data_from_server(**kwargs):
# 获取服务器连接信息
conn_id = kwargs['conn_id']
conn = BaseHook.get_connection(conn_id)
host = conn.host
username = conn.login
password = conn.password
# 在这里执行获取数据的操作,例如使用SSHHook连接到服务器并执行命令
# ...
with DAG('example_dag', schedule_interval='@once', default_args=args) as dag:
task_1 = PythonOperator(
task_id='fetch_data_from_server_a',
python_callable=fetch_data_from_server,
op_kwargs={'conn_id': 'server_a'}
)
task_2 = PythonOperator(
task_id='fetch_data_from_server_b',
python_callable=fetch_data_from_server,
op_kwargs={'conn_id': 'server_b'}
)
task_1 >> task_2
在上面的代码中,fetch_data_from_server
函数使用BaseHook.get_connection
方法获取与给定的conn_id关联的连接信息。然后可以使用这些连接信息来执行相应的操作,例如使用SSHHook连接到服务器并执行命令。
通过在每个任务中使用不同的conn_id,可以轻松地从不同的服务器获取数据或执行其他操作。