Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Spell check.
[simgrid.git] / src / smpi / colls / alltoallv / alltoallv-pair-mpi-barrier.cpp
index 76b8872..b63b487 100644 (file)
@@ -1,10 +1,10 @@
-/* Copyright (c) 2013-2014. The SimGrid Team.
+/* Copyright (c) 2013-2019. The SimGrid Team.
  * All rights reserved.                                                     */
 
 /* This program is free software; you can redistribute it and/or modify it
  * under the terms of the license (GNU LGPL) which comes with this package. */
 
  * All rights reserved.                                                     */
 
 /* This program is free software; you can redistribute it and/or modify it
  * under the terms of the license (GNU LGPL) which comes with this package. */
 
-#include "../colls_private.h"
+#include "../colls_private.hpp"
 /*****************************************************************************
 
  * Function: alltoall_pair_mpi_barrier
 /*****************************************************************************
 
  * Function: alltoall_pair_mpi_barrier
            phases, nodes in pair communicate their data. MPI barriers are
            inserted between each two phases.
 
            phases, nodes in pair communicate their data. MPI barriers are
            inserted between each two phases.
 
- * Auther: Ahmad Faraj
+ * Author: Ahmad Faraj
 
  ****************************************************************************/
 
  ****************************************************************************/
+namespace simgrid{
+namespace smpi{
 int
 int
-Coll_alltoallv_pair_mpi_barrier::alltoallv(void *send_buff, int *send_counts, int *send_disps,
+Coll_alltoallv_pair_mpi_barrier::alltoallv(const void *send_buff, const int *send_counts, const int *send_disps,
                                           MPI_Datatype send_type,
                                           MPI_Datatype send_type,
-                                          void *recv_buff, int *recv_counts, int *recv_disps,
+                                          void *recv_buff, const int *recv_counts, const int *recv_disps,
                                           MPI_Datatype recv_type, MPI_Comm comm)
 {
   MPI_Status s;
                                           MPI_Datatype recv_type, MPI_Comm comm)
 {
   MPI_Status s;
@@ -44,7 +46,7 @@ Coll_alltoallv_pair_mpi_barrier::alltoallv(void *send_buff, int *send_counts, in
   num_procs = comm->size();
 
   if((num_procs&(num_procs-1)))
   num_procs = comm->size();
 
   if((num_procs&(num_procs-1)))
-    THROWF(arg_error,0, "alltoallv pair algorithm can't be used with non power of two number of processes ! ");
+    throw std::invalid_argument("alltoallv pair algorithm can't be used with non power of two number of processes!");
 
   send_chunk = send_type->get_extent();
   recv_chunk = recv_type->get_extent();
 
   send_chunk = send_type->get_extent();
   recv_chunk = recv_type->get_extent();
@@ -58,3 +60,5 @@ Coll_alltoallv_pair_mpi_barrier::alltoallv(void *send_buff, int *send_counts, in
   }
   return MPI_SUCCESS;
 }
   }
   return MPI_SUCCESS;
 }
+}
+}