Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Add new entry in Release_Notes.
[simgrid.git] / src / smpi / colls / alltoall / alltoall-mvapich-scatter-dest.cpp
1 /* Copyright (c) 2013-2023. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 /*
8  * Copyright (c) 2004-2005 The Trustees of Indiana University and Indiana
9  *                         University Research and Technology
10  *                         Corporation.  All rights reserved.
11  * Copyright (c) 2004-2012 The University of Tennessee and The University
12  *                         of Tennessee Research Foundation.  All rights
13  *                         reserved.
14  * Copyright (c) 2004-2005 High Performance Computing Center Stuttgart,
15  *                         University of Stuttgart.  All rights reserved.
16  * Copyright (c) 2004-2005 The Regents of the University of California.
17  *                         All rights reserved.
18  * Copyright (c) 2008      Sun Microsystems, Inc.  All rights reserved.
19  * Copyright (c) 2009      University of Houston. All rights reserved.
20  *
21  * Additional copyrights may follow
22  */
23
24 /*
25  *
26  *  (C) 2001 by Argonne National Laboratory.
27  *      See COPYRIGHT in top-level directory.
28  */
29 /* Copyright (c) 2001-2014, The Ohio State University. All rights
30  * reserved.
31  *
32  * This file is part of the MVAPICH2 software package developed by the
33  * team members of The Ohio State University's Network-Based Computing
34  * Laboratory (NBCL), headed by Professor Dhabaleswar K. (DK) Panda.
35  *
36  * For detailed copyright and licensing information, please refer to the
37  * copyright file COPYRIGHT in the top level MVAPICH2 directory.
38  *
39  */
40
41 //correct on stampede
42 #define MV2_ALLTOALL_THROTTLE_FACTOR         4
43
44 #include "../colls_private.hpp"
45 namespace simgrid::smpi {
46 int alltoall__mvapich2_scatter_dest(const void *sendbuf,
47                                     int sendcount,
48                                     MPI_Datatype sendtype,
49                                     void *recvbuf,
50                                     int recvcount,
51                                     MPI_Datatype recvtype,
52                                     MPI_Comm comm)
53 {
54     int          comm_size, i, j;
55     MPI_Aint     sendtype_extent = 0, recvtype_extent = 0;
56     int mpi_errno=MPI_SUCCESS;
57     int dst, rank;
58
59     if (recvcount == 0) return MPI_SUCCESS;
60
61     comm_size =  comm->size();
62     rank = comm->rank();
63
64     /* Get extent of send and recv types */
65     recvtype_extent = recvtype->get_extent();
66     sendtype_extent = sendtype->get_extent();
67
68     /* Medium-size message. Use isend/irecv with scattered
69      destinations. Use Tony Ladd's modification to post only
70      a small number of isends/irecvs at a time. */
71     /* FIXME: This converts the Alltoall to a set of blocking phases.
72      Two alternatives should be considered:
73      1) the choice of communication pattern could try to avoid
74      contending routes in each phase
75      2) rather than wait for all communication to finish (waitall),
76      we could maintain constant queue size by using waitsome
77      and posting new isend/irecv as others complete.  This avoids
78      synchronization delays at the end of each block (when
79      there are only a few isend/irecvs left)
80      */
81     int ii, ss, bblock;
82
83     //Stampede is configured with
84     bblock = MV2_ALLTOALL_THROTTLE_FACTOR;//mv2_coll_param.alltoall_throttle_factor;
85
86     if (bblock >= comm_size) bblock = comm_size;
87     /* If throttle_factor is n, each process posts n pairs of isend/irecv
88      in each iteration. */
89
90     /* FIXME: This should use the memory macros (there are storage
91      leaks here if there is an error, for example) */
92     auto* reqarray = new MPI_Request[2 * bblock];
93
94     auto* starray = new MPI_Status[2 * bblock];
95
96     for (ii=0; ii<comm_size; ii+=bblock) {
97         ss = comm_size-ii < bblock ? comm_size-ii : bblock;
98         /* do the communication -- post ss sends and receives: */
99         for ( i=0; i<ss; i++ ) {
100             dst = (rank+i+ii) % comm_size;
101             reqarray[i]=Request::irecv((char *)recvbuf +
102                                       dst*recvcount*recvtype_extent,
103                                       recvcount, recvtype, dst,
104                                       COLL_TAG_ALLTOALL, comm);
105
106         }
107         for ( i=0; i<ss; i++ ) {
108             dst = (rank-i-ii+comm_size) % comm_size;
109             reqarray[i+ss]=Request::isend((char *)sendbuf +
110                                           dst*sendcount*sendtype_extent,
111                                           sendcount, sendtype, dst,
112                                           COLL_TAG_ALLTOALL, comm);
113
114         }
115
116         /* ... then wait for them to finish: */
117         Request::waitall(2*ss,reqarray,starray);
118
119
120         /* --BEGIN ERROR HANDLING-- */
121         if (mpi_errno == MPI_ERR_IN_STATUS) {
122                 for (j=0; j<2*ss; j++) {
123                      if (starray[j].MPI_ERROR != MPI_SUCCESS) {
124                          mpi_errno = starray[j].MPI_ERROR;
125                      }
126                 }
127         }
128     }
129     /* --END ERROR HANDLING-- */
130     delete[] starray;
131     delete[] reqarray;
132     return (mpi_errno);
133
134 }
135 } // namespace simgrid::smpi