Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
aa777e0795f3dbb134d8bd9e3e46eb3d76a367d9
[simgrid.git] / teshsuite / smpi / coll-alltoallv / coll-alltoallv.c
1 /* Copyright (c) 2013-2019. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 /*
8  *  (C) 2001 by Argonne National Laboratory.
9  *      See COPYRIGHT in top-level directory.
10  */
11 #include <string.h>
12 #include <stdlib.h>
13 #include <stdio.h>
14 #include "mpi.h"
15
16 /* This program tests MPI_Alltoallv by having processor i send different amounts of data to each processor.
17
18    TODO As there are separate send and receive types to alltoallv, there need to be tests to rearrange data on the fly.
19    The first test sends i items to processor i from all processors.
20    Currently, the test uses only MPI_INT; this is adequate for testing systems that use point-to-point operations
21
22    Example values for 3 processes:
23  * <0> sbuf: (#9):   [0][1][2][3][4][5][6][7][8]
24    <0> scount: (#3): [0][1][2]
25    <0> rcount: (#3): [0][0][0]
26    <0> sdisp: (#3):  [0][1][3]
27    <0> rdisp: (#3):  [0][0][0]
28
29    <1> sbuf: (#9):   [100][101][102][103][104][105][106][107][108]
30    <1> scount: (#3): [0][1][2]
31    <1> rcount: (#3): [1][1][1]
32    <1> sdisp: (#3):  [0][1][3]
33    <1> rdisp: (#3):  [0][1][2]
34
35    <2> sbuf: (#9):   [200][201][202][203][204][205][206][207][208]
36    <2> scount: (#3): [0][1][2]
37    <2> rcount: (#3): [2][2][2]
38    <2> sdisp: (#3):  [0][1][3]
39    <2> rdisp: (#3):  [0][2][4]
40
41    after MPI_Alltoallvv :
42    <0> rbuf: (#9):   [-1][-1][-1][-1][-1][-1][-1][-1][-1]
43    <1> rbuf: (#9):   [1][101][201][-1][-1][-1][-1][-1][-1]
44    <2> rbuf: (#9):   [3][4][103][104][203][204][-1][-1][-1]
45 */
46
47 static void print_buffer_int(const int* buf, int len, const char* msg, int rank)
48 {
49   printf("[%d] %s (#%d): ", rank, msg, len);
50   for (int tmp = 0; tmp < len; tmp++) {
51     printf("[%d]", buf[tmp]);
52   }
53   printf("\n");
54 }
55
56 int main(int argc, char **argv)
57 {
58   MPI_Comm comm;
59   int i;
60   int rank;
61   int size;
62
63   MPI_Init(&argc, &argv);
64
65   comm = MPI_COMM_WORLD;
66
67   /* Create the buffer */
68   MPI_Comm_size(comm, &size);
69   if(size<=0){
70     printf("error : comm size <= 0, run with mpirun\n");
71     return -1;
72   }
73   MPI_Comm_rank(comm, &rank);
74   int size2 = size * size;
75   xbt_assert(size2 > 0);
76   int* sbuf = (int*)xbt_malloc(size2 * sizeof(int));
77   int* rbuf = (int*)xbt_malloc(size2 * sizeof(int));
78
79   /* Load up the buffers */
80   for (i = 0; i < size2; i++) {
81     sbuf[i] = i + 100 * rank;
82     rbuf[i] = -1;
83   }
84
85   /* Create and load the arguments to alltoallv */
86   int* sendcounts = (int*)xbt_malloc(size * sizeof(int));
87   int* recvcounts = (int*)xbt_malloc(size * sizeof(int));
88   int* rdispls    = (int*)xbt_malloc(size * sizeof(int));
89   int* sdispls    = (int*)xbt_malloc(size * sizeof(int));
90   for (i = 0; i < size; i++) {
91     sendcounts[i] = i;
92     recvcounts[i] = rank;
93     rdispls[i] = i * rank;
94     sdispls[i] = (i * (i + 1)) / 2;
95   }
96   int status;
97
98   status = MPI_Alltoallv(NULL, sendcounts, sdispls, MPI_INT, rbuf, recvcounts, rdispls, MPI_INT, MPI_COMM_WORLD);
99   if(status!=MPI_ERR_BUFFER)
100     printf("MPI_Alltoallv did not return MPI_ERR_BUFFER for empty sendbuf\n");
101   status = MPI_Alltoallv(sbuf, NULL, sdispls, MPI_INT, rbuf, recvcounts, rdispls, MPI_INT, MPI_COMM_WORLD);
102   if(status!=MPI_ERR_ARG)
103     printf("MPI_Alltoallv did not return MPI_ERR_ARG for NULL sendcounts\n");
104   status = MPI_Alltoallv(sbuf, sendcounts, NULL, MPI_INT, rbuf, recvcounts, rdispls, MPI_INT, MPI_COMM_WORLD);
105   if(status!=MPI_ERR_ARG)
106     printf("MPI_Alltoallv did not return MPI_ERR_ARG for NULL senddispl\n");
107   status = MPI_Alltoallv(sbuf, sendcounts, sdispls, MPI_DATATYPE_NULL, rbuf, recvcounts, rdispls, MPI_INT, MPI_COMM_WORLD);
108   if(status!=MPI_ERR_TYPE)
109     printf("MPI_Alltoallv did not return MPI_ERR_TYPE for MPI_DATATYPE_NULL sendtype\n");
110   status = MPI_Alltoallv(sbuf, sendcounts, sdispls, MPI_INT, NULL, recvcounts, rdispls, MPI_INT, MPI_COMM_WORLD);
111   if(status!=MPI_ERR_BUFFER)
112     printf("MPI_Alltoallv did not return MPI_ERR_BUFFER for empty recvbuf\n");
113   status = MPI_Alltoallv(sbuf, sendcounts, sdispls, MPI_INT, rbuf, NULL, rdispls, MPI_INT, MPI_COMM_WORLD);
114   if(status!=MPI_ERR_ARG)
115     printf("MPI_Alltoallv did not return MPI_ERR_ARG for NULL recvcounts\n");
116   status = MPI_Alltoallv(sbuf, sendcounts, sdispls, MPI_INT, rbuf, recvcounts, NULL, MPI_INT, MPI_COMM_WORLD);
117   if(status!=MPI_ERR_ARG)
118     printf("MPI_Alltoallv did not return MPI_ERR_ARG for NULL recvdispl\n");
119   status = MPI_Alltoallv(sbuf, sendcounts, sdispls, MPI_INT, rbuf, recvcounts, rdispls, MPI_DATATYPE_NULL, MPI_COMM_WORLD);
120   if(status!=MPI_ERR_TYPE)
121     printf("MPI_Alltoallv did not return MPI_ERR_TYPE for MPI_DATATYPE_NULL recvtype\n");
122   status = MPI_Alltoallv(sbuf, sendcounts, sdispls, MPI_INT, rbuf, recvcounts, rdispls, MPI_INT, MPI_COMM_NULL);
123   if(status!=MPI_ERR_COMM)
124     printf("MPI_Alltoallv did not return MPI_ERR_COMM for MPI_COMM_NULL comm\n");
125
126   print_buffer_int(sbuf, size2, "sbuf:", rank);
127   print_buffer_int(sendcounts, size, "scount:", rank);
128   print_buffer_int(recvcounts, size, "rcount:", rank);
129   print_buffer_int(sdispls, size, "sdisp:", rank);
130   print_buffer_int(rdispls, size, "rdisp:", rank);
131
132   MPI_Alltoallv(sbuf, sendcounts, sdispls, MPI_INT, rbuf, recvcounts, rdispls, MPI_INT, comm);
133
134   print_buffer_int(rbuf, size2, "rbuf:", rank);
135
136   MPI_Barrier(MPI_COMM_WORLD);
137   if (0 == rank) {
138     printf("Alltoallv TEST COMPLETE.\n");
139   }
140   free(sdispls);
141   free(rdispls);
142   free(recvcounts);
143   free(sendcounts);
144   free(rbuf);
145   free(sbuf);
146
147   MPI_Finalize();
148   return 0;
149 }