#python #dask #dask-distributed
Вопрос:
Мы столкнулись с проблемой при выполнении параллельного задания с использованием DASK MPI на Cray XC50
Мы установили mpi4py с исходным кодом, как показано ниже, с флагами cray в файле mpi.cfg: Ссылка на справку по установке : https://www.pdc.kth.se/software/software/mpi4py/crayos7/3.0.2/index_building.html
# -------------mpi.cfg file change
[cray]
#mpi_dir = /home/devel/mpi/mpich/4.0.0
mpicc = cc -D_Float128=__float128
mpicxx = CC
extra_compile_args = -shared
extra_link_args = -Wl,-rpath,/opt/cray/pe/mpt/7.7.8/gni/mpich-intel/16.0/lib -Wl,-
rpath,/pdc/vol/intel/18.0.0.128/compilers_and_libraries_2018.0.128/linux/compiler/lib/intel645
###########
Команды установки: python3 setup.py сборка —mpi=cray
python3 setup.py установить
Установлен dask-mpi со следующими пакетами
имя: dask-mpi зависимости: dask-ядро 2021.9.0 pyhd8ed1ab_0 conda-кузница dask-mpi 2.21.0 py38h4ecba47_1 конда-кузница распределенная 2021.9.0 py38h578d9bd_0 конда-кузница mpi4py 3.1.1 pypi_0 pypi
мы получаем ошибку: распределено.информация о работнике — Ожидание подключения к:
И пример программы проверки dask_mpi никогда не завершается.