#python #api #apache-spark #pyspark #fastapi
Вопрос:
поэтому в основном у меня есть бэкэнд-сервис, который дает API
основывается на FastApi (Python)
том, что позволяет для асинхронных вызовов, а также, в пределах этих вызовов, я хотел бы использовать один и тот же Spark context
(я использую pyspark
) для различных целей (например, задержки), но я хотел бы понять, есть ли какие-то проблемы при этом: утечки данных? память иссякла? все рушится?
есть ли лучший способ сделать это?