Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'master' into clean_events
[simgrid.git] / teshsuite / smpi / isp / umpire / intercomm_create-deadlock4.c
1 /* -*- Mode: C; -*- */
2 /* Creator: Bronis R. de Supinski (bronis@llnl.gov) Fri Mar  17 2000 */
3 /* no-error.c -- do some MPI calls without any errors */
4
5 #include <stdio.h>
6 #include "mpi.h"
7
8 #define buf_size 128
9
10 #define INTERCOMM_CREATE_TAG 666
11
12 int
13 main (int argc, char **argv)
14 {
15   int nprocs = -1;
16   int rank = -1;
17   char processor_name[128];
18   int namelen = 128;
19   int buf0[buf_size];
20   int buf1[buf_size];
21   MPI_Status status;
22   MPI_Comm temp, intercomm;
23   int trank, tnprocs;
24   int drank, dnprocs, rleader, rnprocs;
25
26   /* init */
27   MPI_Init (&argc, &argv);
28   MPI_Comm_size (MPI_COMM_WORLD, &nprocs);
29   MPI_Comm_rank (MPI_COMM_WORLD, &rank);
30   MPI_Get_processor_name (processor_name, &namelen);
31   printf ("(%d) is alive on %s\n", rank, processor_name);
32   fflush (stdout);
33
34   MPI_Barrier (MPI_COMM_WORLD);
35
36   if (nprocs < 5) {
37     printf ("not enough tasks\n");
38   }
39   else {
40     /* need to make split communicator temporarily... */
41     MPI_Comm_split (MPI_COMM_WORLD, rank % 2, nprocs - rank, &temp);
42
43     if (temp != MPI_COMM_NULL) {
44       MPI_Comm_size (temp, &tnprocs);
45       MPI_Comm_rank (temp, &trank);
46
47       /* create an intercommunicator temporarily so can merge it... */
48       rleader = ((rank + nprocs) % 2) ?  nprocs - 2 : nprocs - 1;
49
50       if ((rank % 2) && (trank == 0)) {
51         MPI_Recv (buf0, buf_size, MPI_INT, 2, 0, MPI_COMM_WORLD, &status);
52       }
53       else if (rank == 0) {
54         MPI_Recv (buf0, buf_size, MPI_INT, 1, 0, MPI_COMM_WORLD, &status);
55       }
56
57       MPI_Intercomm_create (temp, 0, MPI_COMM_WORLD, rleader,
58                             INTERCOMM_CREATE_TAG, &intercomm);
59
60       if (rank == 2) {
61         memset (buf0, 0, buf_size);
62         
63         MPI_Send (buf0, buf_size, MPI_INT, rleader, 0, MPI_COMM_WORLD);
64       }
65       else if (rank == 1) {
66         memset (buf0, 0, buf_size);
67         
68         MPI_Send (buf0, buf_size, MPI_INT, 0, 0, MPI_COMM_WORLD);
69       }
70
71       MPI_Comm_free (&temp);
72
73       if (intercomm != MPI_COMM_NULL) {
74         MPI_Comm_size (intercomm, &dnprocs);
75         MPI_Comm_rank (intercomm, &drank);
76         MPI_Comm_remote_size (intercomm, &rnprocs);
77
78         if (rnprocs > drank) {
79           if (rank % 2) {
80             memset (buf1, 1, buf_size);
81
82             MPI_Recv (buf0, buf_size, MPI_INT, drank, 0, intercomm, &status);
83
84             MPI_Send (buf1, buf_size, MPI_INT, drank, 0, intercomm);
85           }
86           else {
87             memset (buf0, 0, buf_size);
88         
89             MPI_Send (buf0, buf_size, MPI_INT, drank, 0, intercomm);
90         
91             MPI_Recv (buf1, buf_size, MPI_INT, drank, 0, intercomm, &status);
92           }
93         }
94         else {
95           printf ("(%d) Intercomm too small (lrank = %d; remote size = %d)\n",
96                   rank, drank, rnprocs);
97         }
98
99         MPI_Comm_free (&intercomm);
100       }
101       else {
102         printf ("(%d) Got MPI_COMM_NULL\n", rank);
103       }
104     }
105     else {
106       printf ("(%d) MPI_Comm_split got MPI_COMM_NULL\n", rank);
107     }
108   }
109
110   MPI_Barrier (MPI_COMM_WORLD);
111
112   MPI_Finalize ();
113   printf ("(%d) Finished normally\n", rank);
114 }
115
116 /* EOF */