Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Change malloc/free to new/delete.
[simgrid.git] / src / smpi / colls / allgather / allgather-mvapich-smp.cpp
1 /* Copyright (c) 2013-2019. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 /*
8  * Copyright (c) 2004-2005 The Trustees of Indiana University and Indiana
9  *                         University Research and Technology
10  *                         Corporation.  All rights reserved.
11  * Copyright (c) 2004-2009 The University of Tennessee and The University
12  *                         of Tennessee Research Foundation.  All rights
13  *                         reserved.
14  * Copyright (c) 2004-2005 High Performance Computing Center Stuttgart,
15  *                         University of Stuttgart.  All rights reserved.
16  * Copyright (c) 2004-2005 The Regents of the University of California.
17  *                         All rights reserved.
18  *
19  * Additional copyrights may follow
20  */
21  /* -*- Mode: C; c-basic-offset:4 ; -*- */
22 /* Copyright (c) 2001-2014, The Ohio State University. All rights
23  * reserved.
24  *
25  * This file is part of the MVAPICH2 software package developed by the
26  * team members of The Ohio State University's Network-Based Computing
27  * Laboratory (NBCL), headed by Professor Dhabaleswar K. (DK) Panda.
28  *
29  * For detailed copyright and licensing information, please refer to the
30  * copyright file COPYRIGHT in the top level MVAPICH2 directory.
31  */
32 /*
33  *
34  *  (C) 2001 by Argonne National Laboratory.
35  *      See COPYRIGHT in top-level directory.
36  */
37 #include "../colls_private.hpp"
38 namespace simgrid{
39 namespace smpi{
40
41 int Coll_allgather_mvapich2_smp::allgather(const void *sendbuf,int sendcnt, MPI_Datatype sendtype,
42                             void *recvbuf, int recvcnt,MPI_Datatype recvtype,
43                             MPI_Comm  comm)
44 {
45     int rank, size;
46     int local_rank, local_size;
47     int leader_comm_size = 0;
48     int mpi_errno = MPI_SUCCESS;
49     MPI_Aint recvtype_extent = 0;  /* Datatype extent */
50     MPI_Comm shmem_comm, leader_comm;
51
52   if(comm->get_leaders_comm()==MPI_COMM_NULL){
53     comm->init_smp();
54   }
55
56   if (not comm->is_uniform() || not comm->is_blocked())
57     THROWF(arg_error,0, "allgather MVAPICH2 smp algorithm can't be used with irregular deployment. Please insure that processes deployed on the same node are contiguous and that each node has the same number of processes");
58
59     if (recvcnt == 0) {
60         return MPI_SUCCESS;
61     }
62
63     rank = comm->rank();
64     size = comm->size();
65
66     /* extract the rank,size information for the intra-node communicator */
67     recvtype_extent=recvtype->get_extent();
68
69     shmem_comm = comm->get_intra_comm();
70     local_rank = shmem_comm->rank();
71     local_size = shmem_comm->size();
72
73     if (local_rank == 0) {
74         /* Node leader. Extract the rank, size information for the leader communicator */
75         leader_comm = comm->get_leaders_comm();
76         if(leader_comm==MPI_COMM_NULL){
77           leader_comm = MPI_COMM_WORLD;
78         }
79         leader_comm_size = leader_comm->size();
80     }
81
82     /*If there is just one node, after gather itself,
83      * root has all the data and it can do bcast*/
84     if(local_rank == 0) {
85         mpi_errno = Colls::gather(sendbuf, sendcnt,sendtype,
86                                     (void*)((char*)recvbuf + (rank * recvcnt * recvtype_extent)),
87                                      recvcnt, recvtype,
88                                      0, shmem_comm);
89     } else {
90         /*Since in allgather all the processes could have
91          * its own data in place*/
92         if(sendbuf == MPI_IN_PLACE) {
93             mpi_errno = Colls::gather((void*)((char*)recvbuf + (rank * recvcnt * recvtype_extent)),
94                                          recvcnt , recvtype,
95                                          recvbuf, recvcnt, recvtype,
96                                          0, shmem_comm);
97         } else {
98             mpi_errno = Colls::gather(sendbuf, sendcnt,sendtype,
99                                          recvbuf, recvcnt, recvtype,
100                                          0, shmem_comm);
101         }
102     }
103     /* Exchange the data between the node leaders*/
104     if (local_rank == 0 && (leader_comm_size > 1)) {
105         /*When data in each socket is different*/
106         if (comm->is_uniform() != 1) {
107
108             int *node_sizes = NULL;
109             int i = 0;
110
111             node_sizes = comm->get_non_uniform_map();
112
113             int* displs   = new int[leader_comm_size];
114             int* recvcnts = new int[leader_comm_size];
115             recvcnts[0] = node_sizes[0] * recvcnt;
116             displs[0] = 0;
117
118             for (i = 1; i < leader_comm_size; i++) {
119                 displs[i] = displs[i - 1] + node_sizes[i - 1] * recvcnt;
120                 recvcnts[i] = node_sizes[i] * recvcnt;
121             }
122
123
124             void* sendbuf=((char*)recvbuf)+recvtype->get_extent()*displs[leader_comm->rank()];
125
126             mpi_errno = Colls::allgatherv(sendbuf,
127                                        (recvcnt*local_size),
128                                        recvtype,
129                                        recvbuf, recvcnts,
130                                        displs, recvtype,
131                                        leader_comm);
132             delete[] displs;
133             delete[] recvcnts;
134         } else {
135         void* sendtmpbuf=((char*)recvbuf)+recvtype->get_extent()*(recvcnt*local_size)*leader_comm->rank();
136
137
138
139             mpi_errno = Coll_allgather_mpich::allgather(sendtmpbuf,
140                                                (recvcnt*local_size),
141                                                recvtype,
142                                                recvbuf, (recvcnt*local_size), recvtype,
143                                              leader_comm);
144
145         }
146     }
147
148     /*Bcast the entire data from node leaders to all other cores*/
149     mpi_errno = Colls::bcast (recvbuf, recvcnt * size, recvtype, 0, shmem_comm);
150     return mpi_errno;
151 }
152
153 }
154 }