Взаимоблокировка MPI отправки Recv

#multithreading #mpi #deadlock

#mpi #взаимоблокировка

Вопрос:

Я пишу программы, используя MPI, и у меня есть доступ к двум разным кластерам. Я не силен в системном администрировании, поэтому ничего не могу сказать о программном обеспечении, ОС, компиляторах, которые там используются. Но на одной машине у меня взаимоблокировка с использованием такого кода:

 #include "mpi.h"
#include <iostream>

int main(int argc, char **argv) {

  int rank, numprocs;
  MPI_Status status;

  MPI_Init(amp;argc, amp;argv);
  MPI_Comm_rank(MPI_COMM_WORLD, amp;rank);
  MPI_Comm_size(MPI_COMM_WORLD, amp;numprocs);

  int x = rank;

  if (rank == 0) {
      for (int i=0; i<numprocs;   i)
          MPI_Send(amp;x, 1, MPI_INT, i, 100500, MPI_COMM_WORLD);
  }
  MPI_Recv(amp;x, 1, MPI_INT, 0, 100500, MPI_COMM_WORLD, amp;status);

  MPI_Finalize();
  return 0;
}
  

Сообщение об ошибке связано:

 Fatal error in MPI_Send: Other MPI error, error stack:
MPI_Send(184): MPI_Send(buf=0x7fffffffceb0, count=1, MPI_INT, dest=0, tag=100500, MPI_COMM_WORLD) failed
MPID_Send(54): DEADLOCK: attempting to send a message to the local process without a prior matching receive
  

Почему это так? Я не могу понять, почему это происходит на одной машине, но не происходит на другой?

Ответ №1:

MPI_Send является блокирующей операцией. Это может не завершиться, пока не будет отправлено соответствующее получение. В вашем случае rank 0 пытается отправить сообщение самому себе до отправки соответствующего получения. Если вам необходимо сделать что-то подобное, вы бы заменили MPI_Send на MPI_Isend ( MPI_Wait…` после получения). Но вы могли бы с таким же успехом просто не заставлять его отправлять сообщение самому себе.

Правильная вещь для использования в вашем случае MPI_Bcast .

Комментарии:

1. Спасибо, Зулан, но в моем случае я не могу использовать MPI_Bcast (связанный код — это просто пример моей реальной программы).

2. MPI предоставляет множество различных коллективных операций. Обычно предпочтительнее использовать их всякий раз, когда это применимо. Я бы порекомендовал вам показать более близкий пример к схеме взаимодействия вашего приложения.

Ответ №2:

Поскольку ранг 0 уже имеет правильное значение x , вам не нужно отправлять его в сообщении. Это означает, что в цикле вы должны пропустить отправку в ранг 0 и вместо этого начать с ранга 1:

 if (rank == 0) {
    for (int i=1; i<numprocs;   i)
        MPI_Send(amp;x, 1, MPI_INT, i, 100500, MPI_COMM_WORLD);
}
MPI_Recv(amp;x, 1, MPI_INT, 0, 100500, MPI_COMM_WORLD, amp;status);
  

Теперь rank 0 не будет пытаться разговаривать сам с собой, но поскольку receive находится за пределами условного, он все равно попытается получить сообщение от самого себя. Решение состоит в том, чтобы просто заставить получать альтернативную ветку:

 if (rank == 0) {
    for (int i=1; i<numprocs;   i)
        MPI_Send(amp;x, 1, MPI_INT, i, 100500, MPI_COMM_WORLD);
}
else
    MPI_Recv(amp;x, 1, MPI_INT, 0, 100500, MPI_COMM_WORLD, amp;status);
  

Другим более сложным решением является использование неблокирующих операций для публикации получения перед операцией отправки:

 MPI_Request req;

MPI_Irecv(amp;x, 1, MPI_INT, 0, 100500, MPI_COMM_WORLD, amp;req);
if (rank == 0) {
    int xx = x;
    for (int i=0; i<numprocs;   i)
        MPI_Send(amp;xx, 1, MPI_INT, i, 100500, MPI_COMM_WORLD);
}
MPI_Wait(amp;req, amp;status);
  

Теперь ранг 0 не будет блокироваться MPI_Send , поскольку ранее уже было отправлено соответствующее сообщение о получении. Во всех других рангах MPI_Irecv сразу же последует MPI_Wait , что эквивалентно блокировке приема ( MPI_Recv ). Обратите внимание, что значение x копируется в другую переменную внутри условия, поскольку одновременная отправка из и прием в одну и ту же ячейку памяти запрещены стандартом MPI по очевидным причинам корректности.