Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Update copyright lines.
[simgrid.git] / src / smpi / colls / alltoallv / alltoallv-ring-light-barrier.cpp
1 /* Copyright (c) 2013-2021. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "../colls_private.hpp"
8 /*****************************************************************************
9
10  * Function: alltoall_ring_light_barrier
11
12  * Return: int
13
14  * Inputs:
15     send_buff: send input buffer
16     send_count: number of elements to send
17     send_type: data type of elements being sent
18     recv_buff: receive output buffer
19     recv_count: number of elements to received
20     recv_type: data type of elements being received
21     comm: communicator
22
23  * Descrp: Function works in P - 1 steps. In step i, node j - i -> j -> j + i.
24            Light barriers are inserted between communications in different
25            phases.
26
27  * Author: Ahmad Faraj
28
29  ****************************************************************************/
30 namespace simgrid{
31 namespace smpi{
32 int alltoallv__ring_light_barrier(const void *send_buff, const int *send_counts, const int *send_disps,
33                                   MPI_Datatype send_type,
34                                   void *recv_buff, const int *recv_counts, const int *recv_disps,
35                                   MPI_Datatype recv_type,
36                                   MPI_Comm comm)
37 {
38   MPI_Aint send_chunk, recv_chunk;
39   MPI_Status s;
40   int i, src, dst, rank, num_procs, next_dst, next_src;
41   int tag = COLL_TAG_ALLTOALLV;
42
43   char send_sync = 'a', recv_sync = 'b';
44   char *send_ptr = (char *) send_buff;
45   char *recv_ptr = (char *) recv_buff;
46
47   rank = comm->rank();
48   num_procs = comm->size();
49   send_chunk = send_type->get_extent();
50   recv_chunk = recv_type->get_extent();
51
52   Request::sendrecv(send_ptr + send_disps[rank] * send_chunk, send_counts[rank], send_type, rank, tag,
53                recv_ptr + recv_disps[rank] * recv_chunk, recv_counts[rank], recv_type, rank, tag,
54                comm, &s);
55
56   for (i = 1; i < num_procs; i++) {
57     src = (rank - i + num_procs) % num_procs;
58     dst = (rank + i) % num_procs;
59
60     Request::sendrecv(send_ptr + send_disps[dst] * send_chunk, send_counts[dst], send_type,
61                  dst, tag, recv_ptr + recv_disps[src] * recv_chunk, recv_counts[src],
62                  recv_type, src, tag, comm, &s);
63
64     if ((i + 1) < num_procs) {
65       next_src = (rank - (i + 1) + num_procs) % num_procs;
66       next_dst = (rank + (i + 1) + num_procs) % num_procs;
67       Request::sendrecv(&send_sync, 1, MPI_CHAR, next_src, tag,
68                    &recv_sync, 1, MPI_CHAR, next_dst, tag, comm, &s);
69
70     }
71   }
72
73   return MPI_SUCCESS;
74 }
75 }
76 }