Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
MPI_Comm -> C++
[simgrid.git] / src / smpi / colls / alltoallv-ring-one-barrier.cpp
1 /* Copyright (c) 2013-2014. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "colls_private.h"
8 /*****************************************************************************
9
10  * Function: alltoall_ring
11
12  * Return: int
13
14  * Inputs:
15     send_buff: send input buffer
16     send_count: number of elements to send
17     send_type: data type of elements being sent
18     recv_buff: receive output buffer
19     recv_count: number of elements to received
20     recv_type: data type of elements being received
21     comm: communicator
22
23  * Descrp: Function works in P - 1 steps. In step i, node j - i -> j -> j + i.
24
25  * Auther: Ahmad Faraj
26
27  ****************************************************************************/
28 int
29 smpi_coll_tuned_alltoallv_ring_one_barrier(void *send_buff, int *send_counts, int *send_disps,
30                                           MPI_Datatype send_type,
31                                           void *recv_buff, int *recv_counts, int *recv_disps,
32                                           MPI_Datatype recv_type, MPI_Comm comm)
33 {
34   MPI_Status s;
35   MPI_Aint send_chunk, recv_chunk;
36   int i, src, dst, rank, num_procs;
37   int tag = COLL_TAG_ALLTOALLV;
38
39   char *send_ptr = (char *) send_buff;
40   char *recv_ptr = (char *) recv_buff;
41
42   rank = comm->rank();
43   num_procs = comm->size();
44   send_chunk = smpi_datatype_get_extent(send_type);
45   recv_chunk = smpi_datatype_get_extent(recv_type);
46
47   smpi_mpi_barrier(comm);
48   for (i = 0; i < num_procs; i++) {
49     src = (rank - i + num_procs) % num_procs;
50     dst = (rank + i) % num_procs;
51
52     smpi_mpi_sendrecv(send_ptr + send_disps[dst] * send_chunk, send_counts[dst], send_type, dst,
53                  tag, recv_ptr + recv_disps[src] * recv_chunk, recv_counts[src], recv_type,
54                  src, tag, comm, &s);
55   }
56   return MPI_SUCCESS;
57 }