Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
5b1febbe1efc2f34d7b9110880cfd593401b83fa
[simgrid.git] / src / smpi / colls / smpi_default_selector.cpp
1 /* selector with default/naive Simgrid algorithms. These should not be trusted for performance evaluations */
2
3 /* Copyright (c) 2009-2019. The SimGrid Team. All rights reserved.          */
4
5 /* This program is free software; you can redistribute it and/or modify it
6  * under the terms of the license (GNU LGPL) which comes with this package. */
7
8 #include "colls_private.hpp"
9 #include "src/smpi/include/smpi_actor.hpp"
10
11 namespace simgrid{
12 namespace smpi{
13
14 int Coll_bcast_default::bcast(void *buf, int count, MPI_Datatype datatype, int root, MPI_Comm comm)
15 {
16   return Coll_bcast_binomial_tree::bcast(buf, count, datatype, root, comm);
17 }
18
19 int Coll_barrier_default::barrier(MPI_Comm comm)
20 {
21   return Coll_barrier_ompi_basic_linear::barrier(comm);
22 }
23
24
25 int Coll_gather_default::gather(const void *sendbuf, int sendcount, MPI_Datatype sendtype,
26                      void *recvbuf, int recvcount, MPI_Datatype recvtype, int root, MPI_Comm comm)
27 {
28   MPI_Request request;
29   Colls::igather(sendbuf, sendcount, sendtype, recvbuf, recvcount, recvtype, root, comm, &request);
30   return Request::wait(&request, MPI_STATUS_IGNORE);
31 }
32
33 int Coll_reduce_scatter_default::reduce_scatter(const void *sendbuf, void *recvbuf, const int *recvcounts, MPI_Datatype datatype, MPI_Op op,
34                              MPI_Comm comm)
35 {
36   int rank = comm->rank();
37
38   /* arbitrarily choose root as rank 0 */
39   int size = comm->size();
40   int count = 0;
41   int* displs = new int[size];
42   for (int i = 0; i < size; i++) {
43     displs[i] = count;
44     count += recvcounts[i];
45   }
46   void *tmpbuf = static_cast<void*>(smpi_get_tmp_sendbuffer(count*datatype->get_extent()));
47
48   int ret = Coll_reduce_default::reduce(sendbuf, tmpbuf, count, datatype, op, 0, comm);
49   if(ret==MPI_SUCCESS)
50     ret = Colls::scatterv(tmpbuf, recvcounts, displs, datatype, recvbuf, recvcounts[rank], datatype, 0, comm);
51   delete[] displs;
52   smpi_free_tmp_buffer(tmpbuf);
53   return ret;
54 }
55
56
57 int Coll_allgather_default::allgather(const void *sendbuf, int sendcount, MPI_Datatype sendtype,
58                         void *recvbuf,int recvcount, MPI_Datatype recvtype, MPI_Comm comm)
59 {
60   MPI_Request request;
61   Colls::iallgather(sendbuf, sendcount, sendtype, recvbuf, recvcount, recvtype, comm, &request);
62   return Request::wait(&request, MPI_STATUS_IGNORE);
63 }
64
65 int Coll_allgatherv_default::allgatherv(const void *sendbuf, int sendcount, MPI_Datatype sendtype, void *recvbuf,
66                          const int *recvcounts, const int *displs, MPI_Datatype recvtype, MPI_Comm comm)
67 {
68   MPI_Request request;
69   Colls::iallgatherv(sendbuf, sendcount, sendtype, recvbuf, recvcounts, displs, recvtype, comm, &request);
70   MPI_Request* requests = request->get_nbc_requests();
71   int count = request->get_nbc_requests_size();
72   Request::waitall(count, requests, MPI_STATUS_IGNORE);
73   for (int other = 0; other < count; other++) {
74     Request::unref(&requests[other]);
75   }
76   delete[] requests;
77   Request::unref(&request);
78   return MPI_SUCCESS;
79 }
80
81 int Coll_scatter_default::scatter(const void *sendbuf, int sendcount, MPI_Datatype sendtype,
82                       void *recvbuf, int recvcount, MPI_Datatype recvtype, int root, MPI_Comm comm)
83 {
84   MPI_Request request;
85   Colls::iscatter(sendbuf, sendcount, sendtype, recvbuf, recvcount, recvtype, root, comm, &request);
86   return Request::wait(&request, MPI_STATUS_IGNORE);
87 }
88
89 int Coll_reduce_default::reduce(const void *sendbuf, void *recvbuf, int count, MPI_Datatype datatype, MPI_Op op, int root,
90                      MPI_Comm comm)
91 {
92   //non commutative case, use a working algo from openmpi
93   if (op != MPI_OP_NULL && (datatype->flags() & DT_FLAG_DERIVED || not op->is_commutative())) {
94     return Coll_reduce_ompi_basic_linear::reduce(sendbuf, recvbuf, count, datatype, op, root, comm);
95   }
96   MPI_Request request;
97   Colls::ireduce(sendbuf, recvbuf, count, datatype, op, root, comm, &request);
98   return Request::wait(&request, MPI_STATUS_IGNORE);
99 }
100
101 int Coll_allreduce_default::allreduce(const void *sendbuf, void *recvbuf, int count, MPI_Datatype datatype, MPI_Op op, MPI_Comm comm)
102 {
103   //FIXME: have mpi_ireduce and iallreduce handle derived datatypes correctly
104   if(datatype->flags() & DT_FLAG_DERIVED)
105     return Coll_allreduce_ompi::allreduce(sendbuf, recvbuf, count, datatype, op, comm);
106   int ret;
107   ret = Coll_reduce_default::reduce(sendbuf, recvbuf, count, datatype, op, 0, comm);
108   if(ret==MPI_SUCCESS)
109     ret = Coll_bcast_default::bcast(recvbuf, count, datatype, 0, comm);
110   return ret;
111 }
112
113 int Coll_alltoall_default::alltoall(const void *sbuf, int scount, MPI_Datatype sdtype, void* rbuf, int rcount, MPI_Datatype rdtype, MPI_Comm comm)
114 {
115   return Coll_alltoall_ompi::alltoall(sbuf, scount, sdtype, rbuf, rcount, rdtype, comm);
116 }
117
118 int Coll_alltoallv_default::alltoallv(const void *sendbuf, const int *sendcounts, const int *senddisps, MPI_Datatype sendtype,
119                               void *recvbuf, const int *recvcounts, const int *recvdisps, MPI_Datatype recvtype, MPI_Comm comm)
120 {
121   MPI_Request request;
122   Colls::ialltoallv(sendbuf, sendcounts, senddisps, sendtype, recvbuf, recvcounts, recvdisps, recvtype, comm, &request);
123   return Request::wait(&request, MPI_STATUS_IGNORE);
124 }
125
126 }
127 }
128