使用 Python 中的 aiohttp 库可以快速并行下载大文件。下面是一个简单的示例代码:
import aiohttp
import asyncio
async def download_file(url, session):
async with session.get(url) as response:
filename = url.split("/")[-1]
with open(filename, "wb") as f:
while True:
chunk = await response.content.read(1024*1024)
if not chunk:
break
f.write(chunk)
async def main():
urls = [
"http://example.com/file1",
"http://example.com/file2",
"http://example.com/file3",
"http://example.com/file4",
]
async with aiohttp.ClientSession() as session:
tasks = [asyncio.create_task(download_file(url, session)) for url in urls]
await asyncio.gather(*tasks)
if __name__ == "__main__":
asyncio.run(main())
在这个示例中,我们首先创建了一个异步函数 download_file
,它接受一个 URL 和一个 aiohttp 的会话对象作为参数。函数在会话对象的上下文中获取文件的内容,并将其存储在本地文件中。我们在主函数 main
中创建了一个 aiohttp 的客户端会话,并为我们要下载的每个文件创建了一个异步任务。最后,我们使用 asyncio.gather
方法并行地运行这些任务,以便快速下载这些大文件。