要在多天内批量调度URLs,可以使用Apache Airflow来完成。下面是一个简单的代码示例:
from airflow import DAG
from airflow.operators.http_operator import SimpleHttpOperator
from datetime import datetime, timedelta
default_args = {
'owner': 'airflow',
'start_date': datetime(2021, 1, 1),
'retries': 1,
'retry_delay': timedelta(minutes=5),
}
dag = DAG(
'schedule_urls',
default_args=default_args,
description='DAG for scheduling URLs',
schedule_interval='@daily',
)
urls = ['http://example.com/url1', 'http://example.com/url2', 'http://example.com/url3']
for url in urls:
task_id = f'fetch_{url.replace("http://", "").replace(".", "_")}'
fetch_url = SimpleHttpOperator(
task_id=task_id,
http_conn_id='http_default',
method='GET',
endpoint=url,
dag=dag,
)
上述代码创建了一个名为"schedule_urls"的DAG,使用了SimpleHttpOperator
操作符来调度URLs。在这个例子中,urls列表包含了要调度的URLs。
每个URL都会生成一个任务,任务ID根据URL生成,例如fetch_http_example_com_url1
。
通过定义default_args
,可以设置DAG的默认参数,例如所有任务重试1次,每次重试之间间隔5分钟。
schedule_interval
参数设置了DAG的调度间隔,这里设置为每天一次。
请注意,上述代码中的http_default
是对HTTP连接的引用,你需要在Airflow的连接配置中定义该连接,以便让SimpleHttpOperator
操作符使用。
这只是一个简单的示例,你可以根据需要进行修改和扩展。希望这可以帮助到你!