Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Move collective algorithms to separate folders
[simgrid.git] / src / smpi / colls / alltoallv-ompi-basic-linear.cpp
diff --git a/src/smpi/colls/alltoallv-ompi-basic-linear.cpp b/src/smpi/colls/alltoallv-ompi-basic-linear.cpp
deleted file mode 100644 (file)
index 3439a79..0000000
+++ /dev/null
@@ -1,106 +0,0 @@
-/* Copyright (c) 2013-2014. The SimGrid Team.
- * All rights reserved.                                                     */
-
-/* This program is free software; you can redistribute it and/or modify it
- * under the terms of the license (GNU LGPL) which comes with this package. */
-
-#include "colls_private.h"
-/*  
- * Linear functions are copied from the basic coll module.  For
- * some small number of nodes and/or small data sizes they are just as
- * fast as tuned/tree based segmenting operations and as such may be
- * selected by the decision functions.  These are copied into this module
- * due to the way we select modules in V1. i.e. in V2 we will handle this
- * differently and so will not have to duplicate code.  
- * GEF Oct05 after asking Jeff.  
- */
-int
-smpi_coll_tuned_alltoallv_ompi_basic_linear(void *sbuf, int *scounts, int *sdisps,
-                                            MPI_Datatype sdtype,
-                                            void *rbuf, int *rcounts, int *rdisps,
-                                            MPI_Datatype rdtype,
-                                            MPI_Comm comm)
-{
-    int i, size, rank;
-    char *psnd, *prcv;
-    int nreqs;
-    ptrdiff_t sext, rext;
-    MPI_Request *preq;
-    size = comm->size();
-    rank = comm->rank();
-    MPI_Request *ireqs= static_cast<MPI_Request*>(xbt_malloc(sizeof(MPI_Request) * size * 2));
-    XBT_DEBUG(
-                 "coll:tuned:alltoallv_intra_basic_linear rank %d", rank);
-
-    sext=sdtype->get_extent();
-    rext=rdtype->get_extent();
-
-    /* Simple optimization - handle send to self first */
-    psnd = ((char *) sbuf) + (sdisps[rank] * sext);
-    prcv = ((char *) rbuf) + (rdisps[rank] * rext);
-    if (0 != scounts[rank]) {
-        Datatype::copy(psnd, scounts[rank], sdtype,
-                              prcv, rcounts[rank], rdtype);
-    }
-
-    /* If only one process, we're done. */
-    if (1 == size) {
-        return MPI_SUCCESS;
-    }
-
-    /* Now, initiate all send/recv to/from others. */
-    nreqs = 0;
-    preq = ireqs;
-
-    /* Post all receives first */
-    for (i = 0; i < size; ++i) {
-        if (i == rank || 0 == rcounts[i]) {
-            continue;
-        }
-
-        prcv = ((char *) rbuf) + (rdisps[i] * rext);
-
-        *preq = Request::irecv_init(prcv, rcounts[i], rdtype,
-                                      i, COLL_TAG_ALLTOALLV, comm
-                                      );
-        preq++;
-        ++nreqs;
-        
-    }
-
-    /* Now post all sends */
-    for (i = 0; i < size; ++i) {
-        if (i == rank || 0 == scounts[i]) {
-            continue;
-        }
-
-        psnd = ((char *) sbuf) + (sdisps[i] * sext);
-        *preq=Request::isend_init(psnd, scounts[i], sdtype,
-                                      i, COLL_TAG_ALLTOALLV, comm
-                                      );
-        preq++;
-        ++nreqs;
-    }
-
-    /* Start your engines.  This will never return an error. */
-    Request::startall(nreqs, ireqs);
-
-    /* Wait for them all.  If there's an error, note that we don't care
-     * what the error was -- just that there *was* an error.  The PML
-     * will finish all requests, even if one or more of them fail.
-     * i.e., by the end of this call, all the requests are free-able.
-     * So free them anyway -- even if there was an error, and return the
-     * error after we free everything. */
-    Request::waitall(nreqs, ireqs,
-                                MPI_STATUSES_IGNORE);
-
-    /* Free the requests. */
-    for (i = 0; i < nreqs; ++i) {
-      if(ireqs[i]!=MPI_REQUEST_NULL)
-        Request::unref(&ireqs[i]);
-    }
-    free(ireqs);
-
-    return MPI_SUCCESS;
-}
-