Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Move collective algorithms to separate folders
[simgrid.git] / src / smpi / colls / allreduce-rab1.cpp
diff --git a/src/smpi/colls/allreduce-rab1.cpp b/src/smpi/colls/allreduce-rab1.cpp
deleted file mode 100644 (file)
index 687aa7d..0000000
+++ /dev/null
@@ -1,110 +0,0 @@
-/* Copyright (c) 2013-2014. The SimGrid Team.
- * All rights reserved.                                                     */
-
-/* This program is free software; you can redistribute it and/or modify it
- * under the terms of the license (GNU LGPL) which comes with this package. */
-
-#include "colls_private.h"
-//#include <star-reduction.c>
-
-// NP pow of 2 for now
-int smpi_coll_tuned_allreduce_rab1(void *sbuff, void *rbuff,
-                                   int count, MPI_Datatype dtype,
-                                   MPI_Op op, MPI_Comm comm)
-{
-  MPI_Status status;
-  MPI_Aint extent;
-  int tag = COLL_TAG_ALLREDUCE, send_size, newcnt, share;
-  unsigned int pof2 = 1, mask;
-  int send_idx, recv_idx, dst, send_cnt, recv_cnt;
-
-  void *recv, *tmp_buf;
-
-  int rank = comm->rank();
-  unsigned int nprocs = comm->size();
-
-  if((nprocs&(nprocs-1)))
-    THROWF(arg_error,0, "allreduce rab1 algorithm can't be used with non power of two number of processes ! ");
-
-  extent = dtype->get_extent();
-
-  pof2 = 1;
-  while (pof2 <= nprocs)
-    pof2 <<= 1;
-  pof2 >>= 1;
-
-  send_idx = recv_idx = 0;
-
-  // uneven count
-  if ((count % nprocs)) {
-    send_size = (count + nprocs) / nprocs;
-    newcnt = send_size * nprocs;
-
-    recv = (void *) smpi_get_tmp_recvbuffer(extent * newcnt);
-    tmp_buf = (void *) smpi_get_tmp_sendbuffer(extent * newcnt);
-    memcpy(recv, sbuff, extent * count);
-
-
-    mask = pof2 / 2;
-    share = newcnt / pof2;
-    while (mask > 0) {
-      dst = rank ^ mask;
-      send_cnt = recv_cnt = newcnt / (pof2 / mask);
-
-      if (rank < dst)
-        send_idx = recv_idx + (mask * share);
-      else
-        recv_idx = send_idx + (mask * share);
-
-      Request::sendrecv((char *) recv + send_idx * extent, send_cnt, dtype, dst, tag,
-                   tmp_buf, recv_cnt, dtype, dst, tag, comm, &status);
-
-      if(op!=MPI_OP_NULL) op->apply( tmp_buf, (char *) recv + recv_idx * extent, &recv_cnt,
-                     dtype);
-
-      // update send_idx for next iteration 
-      send_idx = recv_idx;
-      mask >>= 1;
-    }
-
-    memcpy(tmp_buf, (char *) recv + recv_idx * extent, recv_cnt * extent);
-    mpi_coll_allgather_fun(tmp_buf, recv_cnt, dtype, recv, recv_cnt, dtype, comm);
-
-    memcpy(rbuff, recv, count * extent);
-    smpi_free_tmp_buffer(recv);
-    smpi_free_tmp_buffer(tmp_buf);
-
-  }
-
-  else {
-    tmp_buf = (void *) smpi_get_tmp_sendbuffer(extent * count);
-    memcpy(rbuff, sbuff, count * extent);
-    mask = pof2 / 2;
-    share = count / pof2;
-    while (mask > 0) {
-      dst = rank ^ mask;
-      send_cnt = recv_cnt = count / (pof2 / mask);
-
-      if (rank < dst)
-        send_idx = recv_idx + (mask * share);
-      else
-        recv_idx = send_idx + (mask * share);
-
-      Request::sendrecv((char *) rbuff + send_idx * extent, send_cnt, dtype, dst,
-                   tag, tmp_buf, recv_cnt, dtype, dst, tag, comm, &status);
-
-      if(op!=MPI_OP_NULL) op->apply( tmp_buf, (char *) rbuff + recv_idx * extent, &recv_cnt,
-                     dtype);
-
-      // update send_idx for next iteration 
-      send_idx = recv_idx;
-      mask >>= 1;
-    }
-
-    memcpy(tmp_buf, (char *) rbuff + recv_idx * extent, recv_cnt * extent);
-    mpi_coll_allgather_fun(tmp_buf, recv_cnt, dtype, rbuff, recv_cnt, dtype, comm);
-    smpi_free_tmp_buffer(tmp_buf);
-  }
-
-  return MPI_SUCCESS;
-}