Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'xbt_random' into 'master'
[simgrid.git] / src / smpi / colls / alltoallv / alltoallv-pair-one-barrier.cpp
1 /* Copyright (c) 2013-2019. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "../colls_private.hpp"
8 /*****************************************************************************
9
10  * Function: alltoall_pair
11
12  * Return: int
13
14  * Inputs:
15     send_buff: send input buffer
16     send_count: number of elements to send
17     send_type: data type of elements being sent
18     recv_buff: receive output buffer
19     recv_count: number of elements to received
20     recv_type: data type of elements being received
21     comm: communicator
22
23  * Descrp: Function works when P is power of two. In each phase of P - 1
24            phases, nodes in pair communicate their data.
25
26  * Author: Ahmad Faraj
27
28  ****************************************************************************/
29 namespace simgrid{
30 namespace smpi{
31 int alltoallv__pair_one_barrier(const void *send_buff, const int *send_counts, const int *send_disps,
32                                 MPI_Datatype send_type,
33                                 void *recv_buff,  const int *recv_counts, const int *recv_disps,                                                                                  MPI_Datatype recv_type, MPI_Comm comm)
34 {
35
36   MPI_Aint send_chunk, recv_chunk;
37   MPI_Status s;
38   int i, src, dst, rank, num_procs;
39   int tag = COLL_TAG_ALLTOALLV;
40
41   char *send_ptr = (char *) send_buff;
42   char *recv_ptr = (char *) recv_buff;
43
44   rank = comm->rank();
45   num_procs = comm->size();
46
47   if((num_procs&(num_procs-1)))
48     throw std::invalid_argument("alltoallv pair algorithm can't be used with non power of two number of processes!");
49
50   send_chunk = send_type->get_extent();
51   recv_chunk = recv_type->get_extent();
52
53   Colls::barrier(comm);
54   for (i = 0; i < num_procs; i++) {
55     src = dst = rank ^ i;
56     Request::sendrecv(send_ptr + send_disps[dst] * send_chunk, send_counts[dst], send_type, dst,
57                  tag, recv_ptr + recv_disps[src] * recv_chunk, recv_counts[src], recv_type,
58                  src, tag, comm, &s);
59   }
60
61   return MPI_SUCCESS;
62 }
63 }
64 }