Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
remove warning
[simgrid.git] / src / smpi / colls / alltoall-pair-light-barrier.c
index e6ab92a..96cf68d 100644 (file)
@@ -1,4 +1,4 @@
-#include "colls.h"
+#include "colls_private.h"
 /*****************************************************************************
 
  * Function: alltoall_pair_light_barrier
 
  ****************************************************************************/
 int
-smpi_coll_tuned_alltoall_pair_light_barrier(void * send_buff, int send_count,
-                           MPI_Datatype send_type, void * recv_buff,
-                           int recv_count, MPI_Datatype recv_type,
-                           MPI_Comm comm)
+smpi_coll_tuned_alltoall_pair_light_barrier(void *send_buff, int send_count,
+                                            MPI_Datatype send_type,
+                                            void *recv_buff, int recv_count,
+                                            MPI_Datatype recv_type,
+                                            MPI_Comm comm)
 {
   MPI_Aint send_chunk, recv_chunk;
   MPI_Status s;
   int i, src, dst, rank, num_procs, next_partner;
-  int tag = 1, success = 1; /*, failure = 0;*/
+  int tag = 1;     /*, failure = 0; */
 
   char send_sync = 'a', recv_sync = 'b';
-  char * send_ptr = (char *) send_buff;
-  char * recv_ptr = (char *) recv_buff;
-  
-  MPI_Comm_rank(comm, &rank);
-  MPI_Comm_size(comm, &num_procs);
-  MPI_Type_extent(send_type, &send_chunk);
-  MPI_Type_extent(recv_type, &recv_chunk);
+  char *send_ptr = (char *) send_buff;
+  char *recv_ptr = (char *) recv_buff;
+
+  rank = smpi_comm_rank(comm);
+  num_procs = smpi_comm_size(comm);
+  send_chunk = smpi_datatype_get_extent(send_type);
+  recv_chunk = smpi_datatype_get_extent(recv_type);
 
   send_chunk *= send_count;
   recv_chunk *= recv_count;
 
-  MPI_Sendrecv(send_ptr + rank * send_chunk, send_count, send_type, rank, tag,
-              recv_ptr + rank * recv_chunk, recv_count, recv_type, rank, tag,
-              comm, &s);
+  smpi_mpi_sendrecv(send_ptr + rank * send_chunk, send_count, send_type, rank, tag,
+               recv_ptr + rank * recv_chunk, recv_count, recv_type, rank, tag,
+               comm, &s);
+
+  for (i = 1; i < num_procs; i++) {
+    src = dst = rank ^ i;
 
-  for (i = 1; i < num_procs; i++)
-    {
-      src = dst = rank ^ i;
-      
-      MPI_Sendrecv(send_ptr + dst * send_chunk, send_count, send_type,
-                  dst, tag, recv_ptr + src * recv_chunk, recv_count,
-                  recv_type, src, tag, comm, &s);
+    smpi_mpi_sendrecv(send_ptr + dst * send_chunk, send_count, send_type,
+                 dst, tag, recv_ptr + src * recv_chunk, recv_count,
+                 recv_type, src, tag, comm, &s);
 
-      if ((i + 1) < num_procs)
-       {
-         next_partner = rank ^ (i + 1);
-         MPI_Sendrecv(&send_sync, 1, MPI_CHAR, next_partner, tag,
-                      &recv_sync, 1, MPI_CHAR, next_partner, tag,
-                      comm, &s);       
-       }
+    if ((i + 1) < num_procs) {
+      next_partner = rank ^ (i + 1);
+      smpi_mpi_sendrecv(&send_sync, 1, MPI_CHAR, next_partner, tag,
+                   &recv_sync, 1, MPI_CHAR, next_partner, tag, comm, &s);
     }
-  return success;
+  }
+  return MPI_SUCCESS;
 }