Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Update copyright lines.
[simgrid.git] / src / smpi / colls / bcast / bcast-SMP-linear.cpp
index a8c6bec..8fc7574 100644 (file)
@@ -1,4 +1,4 @@
-/* Copyright (c) 2013-2019. The SimGrid Team.
+/* Copyright (c) 2013-2021. The SimGrid Team.
  * All rights reserved.                                                     */
 
 /* This program is free software; you can redistribute it and/or modify it
@@ -9,9 +9,9 @@
 int bcast_SMP_linear_segment_byte = 8192;
 namespace simgrid{
 namespace smpi{
-int Coll_bcast_SMP_linear::bcast(void *buf, int count,
-                                     MPI_Datatype datatype, int root,
-                                     MPI_Comm comm)
+int bcast__SMP_linear(void *buf, int count,
+                      MPI_Datatype datatype, int root,
+                      MPI_Comm comm)
 {
   int tag = COLL_TAG_BCAST;
   MPI_Status status;
@@ -31,8 +31,7 @@ int Coll_bcast_SMP_linear::bcast(void *buf, int count,
     num_core = comm->get_intra_comm()->size();
   }else{
     //implementation buggy in this case
-    return Coll_bcast_mpich::bcast( buf , count, datatype,
-              root, comm);
+    return bcast__mpich(buf, count, datatype, root, comm);
   }
 
   int segment = bcast_SMP_linear_segment_byte / extent;
@@ -52,7 +51,7 @@ int Coll_bcast_SMP_linear::bcast(void *buf, int count,
   // call native when MPI communication size is too small
   if (size <= num_core) {
     XBT_WARN("MPI_bcast_SMP_linear use default MPI_bcast.");
-    Coll_bcast_default::bcast(buf, count, datatype, root, comm);
+    bcast__default(buf, count, datatype, root, comm);
     return MPI_SUCCESS;
   }
   // if root is not zero send to rank zero first
@@ -97,8 +96,8 @@ int Coll_bcast_SMP_linear::bcast(void *buf, int count,
   }
   // pipeline bcast
   else {
-    MPI_Request* request_array = new MPI_Request[size + pipe_length];
-    MPI_Status* status_array   = new MPI_Status[size + pipe_length];
+    auto* request_array = new MPI_Request[size + pipe_length];
+    auto* status_array  = new MPI_Status[size + pipe_length];
 
     // case ROOT of each SMP
     if (rank % num_core == 0) {
@@ -167,8 +166,7 @@ int Coll_bcast_SMP_linear::bcast(void *buf, int count,
   // when count is not divisible by block size, use default BCAST for the remainder
   if ((remainder != 0) && (count > segment)) {
     XBT_WARN("MPI_bcast_SMP_linear use default MPI_bcast.");
-    Colls::bcast((char *) buf + (pipe_length * increment), remainder, datatype,
-              root, comm);
+    colls::bcast((char*)buf + (pipe_length * increment), remainder, datatype, root, comm);
   }
 
   return MPI_SUCCESS;