Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Update copyright lines for 2022.
[simgrid.git] / src / smpi / colls / allgather / allgather-rhv.cpp
index 8e7f44b..b321f34 100644 (file)
@@ -1,18 +1,22 @@
-/* Copyright (c) 2013-2014. The SimGrid Team.
+/* Copyright (c) 2013-2022. The SimGrid Team.
  * All rights reserved.                                                     */
 
 /* This program is free software; you can redistribute it and/or modify it
  * under the terms of the license (GNU LGPL) which comes with this package. */
 
-#include "../colls_private.h"
+#include "../colls_private.hpp"
+
+namespace simgrid{
+namespace smpi{
+
 
 // now only work with power of two processes
 
 int
-smpi_coll_tuned_allgather_rhv(void *sbuf, int send_count,
-                              MPI_Datatype send_type, void *rbuf,
-                              int recv_count, MPI_Datatype recv_type,
-                              MPI_Comm comm)
+allgather__rhv(const void *sbuf, int send_count,
+               MPI_Datatype send_type, void *rbuf,
+               int recv_count, MPI_Datatype recv_type,
+               MPI_Comm comm)
 {
   MPI_Status status;
   MPI_Aint s_extent, r_extent;
@@ -24,11 +28,11 @@ smpi_coll_tuned_allgather_rhv(void *sbuf, int send_count,
   unsigned int mask;
   int curr_count;
 
-  // get size of the communicator, followed by rank 
+  // get size of the communicator, followed by rank
   unsigned int num_procs = comm->size();
 
   if((num_procs&(num_procs-1)))
-    THROWF(arg_error,0, "allgather rhv algorithm can't be used with non power of two number of processes ! ");
+    throw std::invalid_argument("allgather rhv algorithm can't be used with non power of two number of processes!");
 
   unsigned int rank = comm->rank();
 
@@ -41,10 +45,10 @@ smpi_coll_tuned_allgather_rhv(void *sbuf, int send_count,
   recv_chunk = r_extent * recv_count;
 
   if (send_chunk != recv_chunk) {
-    XBT_WARN("MPI_allgather_rhv use default MPI_allgather.");  
-    smpi_mpi_allgather(sbuf, send_count, send_type, rbuf, recv_count,
-                              recv_type, comm);
-    return MPI_SUCCESS;        
+    XBT_INFO("MPI_allgather_rhv: send_chunk != recv_chunk, use default MPI_allgather.");
+    allgather__default(sbuf, send_count, send_type, rbuf, recv_count,
+                       recv_type, comm);
+    return MPI_SUCCESS;
   }
 
   // compute starting offset location to perform local copy
@@ -90,10 +94,8 @@ smpi_coll_tuned_allgather_rhv(void *sbuf, int send_count,
 
     //  printf("node %d send to %d in phase %d s_offset = %d r_offset = %d count = %d\n",rank,dst,phase, send_base_offset, recv_base_offset, curr_count);
 
-    Request::sendrecv((char *)rbuf + send_offset, curr_count, recv_type, dst, tag,
-                (char *)rbuf + recv_offset, curr_count, recv_type, dst, tag,
-                 comm, &status);
-
+    Request::sendrecv((char*)rbuf + send_offset, curr_count, recv_type, dst, tag, (char*)rbuf + recv_offset, curr_count,
+                      recv_type, dst, tag, comm, &status);
 
     curr_count *= 2;
     i *= 2;
@@ -103,3 +105,7 @@ smpi_coll_tuned_allgather_rhv(void *sbuf, int send_count,
 
   return MPI_SUCCESS;
 }
+
+
+}
+}