Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'master' of git+ssh://scm.gforge.inria.fr//gitroot/simgrid/simgrid
[simgrid.git] / src / smpi / colls / bcast / bcast-SMP-linear.cpp
index 356c53a..a63e905 100644 (file)
@@ -1,14 +1,15 @@
-/* Copyright (c) 2013-2014. The SimGrid Team.
+/* Copyright (c) 2013-2017. The SimGrid Team.
  * All rights reserved.                                                     */
 
 /* This program is free software; you can redistribute it and/or modify it
  * under the terms of the license (GNU LGPL) which comes with this package. */
 
-#include "../colls_private.h"
+#include "../colls_private.hpp"
 
 int bcast_SMP_linear_segment_byte = 8192;
-
-int smpi_coll_tuned_bcast_SMP_linear(void *buf, int count,
+namespace simgrid{
+namespace smpi{
+int Coll_bcast_SMP_linear::bcast(void *buf, int count,
                                      MPI_Datatype datatype, int root,
                                      MPI_Comm comm)
 {
@@ -32,12 +33,12 @@ int smpi_coll_tuned_bcast_SMP_linear(void *buf, int count,
     num_core = comm->get_intra_comm()->size();
   }else{
     //implementation buggy in this case
-    return smpi_coll_tuned_bcast_mpich( buf , count, datatype,
+    return Coll_bcast_mpich::bcast( buf , count, datatype,
               root, comm);
   }
 
   int segment = bcast_SMP_linear_segment_byte / extent;
-  segment =  segment == 0 ? 1 :segment; 
+  segment =  segment == 0 ? 1 :segment;
   int pipe_length = count / segment;
   int remainder = count % segment;
   int increment = segment * extent;
@@ -52,9 +53,9 @@ int smpi_coll_tuned_bcast_SMP_linear(void *buf, int count,
 
   // call native when MPI communication size is too small
   if (size <= num_core) {
-    XBT_WARN("MPI_bcast_SMP_linear use default MPI_bcast.");             
-    smpi_mpi_bcast(buf, count, datatype, root, comm);
-    return MPI_SUCCESS;            
+    XBT_WARN("MPI_bcast_SMP_linear use default MPI_bcast.");
+    Coll_bcast_default::bcast(buf, count, datatype, root, comm);
+    return MPI_SUCCESS;
   }
   // if root is not zero send to rank zero first
   if (root != 0) {
@@ -63,7 +64,7 @@ int smpi_coll_tuned_bcast_SMP_linear(void *buf, int count,
     else if (rank == 0)
       Request::recv(buf, count, datatype, root, tag, comm, &status);
   }
-  // when a message is smaller than a block size => no pipeline 
+  // when a message is smaller than a block size => no pipeline
   if (count <= segment) {
     // case ROOT
     if (rank == 0) {
@@ -169,10 +170,13 @@ int smpi_coll_tuned_bcast_SMP_linear(void *buf, int count,
 
   // when count is not divisible by block size, use default BCAST for the remainder
   if ((remainder != 0) && (count > segment)) {
-    XBT_WARN("MPI_bcast_SMP_linear use default MPI_bcast.");                    
-    smpi_mpi_bcast((char *) buf + (pipe_length * increment), remainder, datatype,
+    XBT_WARN("MPI_bcast_SMP_linear use default MPI_bcast.");
+    Colls::bcast((char *) buf + (pipe_length * increment), remainder, datatype,
               root, comm);
   }
 
   return MPI_SUCCESS;
 }
+
+}
+}