使用Airflow的Operator和Hook来处理数据。Operator是Airflow的基本执行单元,可以将其视为一个任务,而Hook可以用于连接和执行特定的外部系统或服务。
以下是一个示例,演示如何使用CsvToMySqlOperator从CSV文件中提取数据并将其加载到MySQL中:
from airflow import DAG
from airflow.operators.mysql_operator import MySqlOperator
from airflow.operators.csv_to_mysql_operator import CsvToMySqlOperator
from datetime import datetime
default_args = {
'owner': 'airflow',
'start_date': datetime(2021, 1, 1),
'depends_on_past': False,
'retry_delay': timedelta(minutes=5),
}
dag = DAG(
'example_dag',
default_args=default_args,
schedule_interval=timedelta(days=1),
)
extract_csv = CsvToMySqlOperator(
task_id='extract_csv',
mysql_conn_id='mysql_conn',
sql='SELECT * FROM csv_data',
table='mysql_table',
delimiter=',',
dag=dag,
)
load_mysql = MySqlOperator(
task_id='load_mysql',
mysql_conn_id='mysql_conn',
sql='INSERT INTO mysql_table SELECT * FROM tmp_table',
dag=dag,
)
extract_csv >> load_mysql
此代码创建了一个DAG,其中包含两个任务——extract_csv和load_mysql。extract_csv任务从名为csv_data的表中选择数据,然后使用CsvToMySqlOperator将该数据加载到名为mysql_table的表中。接下来,load_mysql任务从名为tmp_table的临时表中选择数据,并使用MySqlOperator将其插入到mysql_table表中。
这只是Airflow数据处理的初步示例,但您可以使用其他Operator和Hook来连接和处理各种数据源和目标。