在 Uvicorn 中,默认情况下每个请求都在单独的进程中处理,因此并发任务会在不同的 Uvicorn worker 上运行,它们不会共享相同的 Python 上下文。
如果您希望并发任务在同一个 Uvicorn worker 上使用相同的 Python 上下文,可以使用一个共享的资源来实现。Python 中的 multiprocessing.Manager
类可以用来创建一个共享的命名空间,可以在不同的进程中共享数据。
以下是一个示例代码,演示了在 Uvicorn 中如何实现并发任务在同一个 worker 上共享 Python 上下文:
from multiprocessing import Manager
from fastapi import FastAPI
import uvicorn
app = FastAPI()
manager = Manager()
shared_data = manager.dict()
@app.get("/increment")
def increment_counter():
with shared_data.get_lock():
shared_data["counter"] += 1
return {"counter": shared_data["counter"]}
if __name__ == "__main__":
shared_data["counter"] = 0
uvicorn.run(app, host="0.0.0.0", port=8000, workers=1)
在上述代码中,我们使用 Manager
创建了一个共享的命名空间 shared_data
,其中包含一个计数器 counter
。在 /increment
路由中,使用 get_lock()
方法来获取一个锁,以确保并发任务对计数器的访问是线程安全的。
运行以上代码后,您可以使用多个并发请求来执行 /increment
路由,它们将在同一个 Uvicorn worker 上执行,并且共享相同的 Python 上下文。
请注意,由于使用了锁机制,这种方法可能会对性能产生一定的影响。因此,如果您的应用程序不需要共享大量的数据或临界资源,建议仍然使用默认的并发处理方式。
上一篇:并发任务确定性地生成伪随机数
下一篇:并发任务执行时间的测量差异