Неожиданное поведение масштаба кластера Dask

#scheduled-tasks #cluster-computing #dask #slurm

Вопрос:

Я пытаюсь настроить планировщик dask в кластере, но не могу найти оптимальное значение cluster.scale(X) . Я не улучшаю время работы за счет увеличения количества узлов. У меня есть следующий сценарий:

 cluster = SLURMCluster(memory='{}g'.format(args.cores),
                       processes=args.cores,
                       cores=args.cores,
                       queue='photon',
                       header_skip=['-n 1', '-N 1'],
                       job_extra=['--ntasks-per-node {}'.format(args.ntasks), '-N {}'.format(args.Nodes)])
cluster.scale(1)
client = Client(cluster)
 

Я прошу помощи в настройке переданного целого scale числа . Я нашел документацию — https://docs.dask.org/en/stable/_modules/distributed/deploy/cluster.html?выделение=масштаб, но, кроме того факта, что это количество работников, я не получаю никакой дополнительной информации.