Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Declare variables and allocate memory when needed (plug a memory leak).
[simgrid.git] / src / smpi / colls / alltoallv / alltoallv-ompi-basic-linear.cpp
index cbfd6e0..37008f7 100644 (file)
@@ -1,4 +1,4 @@
-/* Copyright (c) 2013-2017. The SimGrid Team.
+/* Copyright (c) 2013-2019. The SimGrid Team.
  * All rights reserved.                                                     */
 
 /* This program is free software; you can redistribute it and/or modify it
  */
 namespace simgrid{
 namespace smpi{
-int
-Coll_alltoallv_ompi_basic_linear::alltoallv(void *sbuf, int *scounts, int *sdisps,
-                                            MPI_Datatype sdtype,
-                                            void *rbuf, int *rcounts, int *rdisps,
-                                            MPI_Datatype rdtype,
-                                            MPI_Comm comm)
+int alltoallv__ompi_basic_linear(const void *sbuf, const int *scounts, const int *sdisps,
+                                 MPI_Datatype sdtype,
+                                 void *rbuf, const int *rcounts, const int *rdisps,
+                                 MPI_Datatype rdtype,
+                                 MPI_Comm comm)
 {
-    int i, size, rank;
-    char *psnd, *prcv;
-    int nreqs;
-    ptrdiff_t sext, rext;
-    MPI_Request *preq;
-    size = comm->size();
-    rank = comm->rank();
-    MPI_Request *ireqs= static_cast<MPI_Request*>(xbt_malloc(sizeof(MPI_Request) * size * 2));
-    XBT_DEBUG(
-                 "coll:tuned:alltoallv_intra_basic_linear rank %d", rank);
-
-    sext=sdtype->get_extent();
-    rext=rdtype->get_extent();
-
-    /* Simple optimization - handle send to self first */
-    psnd = ((char *) sbuf) + (sdisps[rank] * sext);
-    prcv = ((char *) rbuf) + (rdisps[rank] * rext);
-    if (0 != scounts[rank]) {
-        Datatype::copy(psnd, scounts[rank], sdtype,
-                              prcv, rcounts[rank], rdtype);
-    }
-
-    /* If only one process, we're done. */
-    if (1 == size) {
-        return MPI_SUCCESS;
-    }
-
-    /* Now, initiate all send/recv to/from others. */
-    nreqs = 0;
-    preq = ireqs;
-
-    /* Post all receives first */
-    for (i = 0; i < size; ++i) {
-        if (i == rank || 0 == rcounts[i]) {
-            continue;
-        }
-
-        prcv = ((char *) rbuf) + (rdisps[i] * rext);
-
-        *preq = Request::irecv_init(prcv, rcounts[i], rdtype,
-                                      i, COLL_TAG_ALLTOALLV, comm
-                                      );
-        preq++;
-        ++nreqs;
-
-    }
+  int size = comm->size();
+  int rank = comm->rank();
+  XBT_DEBUG("coll:tuned:alltoallv_intra_basic_linear rank %d", rank);
+
+  ptrdiff_t sext = sdtype->get_extent();
+  ptrdiff_t rext = rdtype->get_extent();
+
+  /* Simple optimization - handle send to self first */
+  char* psnd = ((char*)sbuf) + (sdisps[rank] * sext);
+  char* prcv = ((char*)rbuf) + (rdisps[rank] * rext);
+  if (0 != scounts[rank]) {
+    Datatype::copy(psnd, scounts[rank], sdtype, prcv, rcounts[rank], rdtype);
+  }
+
+  /* If only one process, we're done. */
+  if (1 == size) {
+    return MPI_SUCCESS;
+  }
 
-    /* Now post all sends */
-    for (i = 0; i < size; ++i) {
-        if (i == rank || 0 == scounts[i]) {
-            continue;
-        }
+  /* Now, initiate all send/recv to/from others. */
+  MPI_Request* ireqs = new MPI_Request[size * 2];
+  int nreqs          = 0;
+  MPI_Request* preq  = ireqs;
 
-        psnd = ((char *) sbuf) + (sdisps[i] * sext);
-        *preq=Request::isend_init(psnd, scounts[i], sdtype,
-                                      i, COLL_TAG_ALLTOALLV, comm
-                                      );
-        preq++;
-        ++nreqs;
+  /* Post all receives first */
+  for (int i = 0; i < size; ++i) {
+    if (i == rank) {
+      continue;
     }
 
-    /* Start your engines.  This will never return an error. */
-    Request::startall(nreqs, ireqs);
+    prcv = ((char*)rbuf) + (rdisps[i] * rext);
 
-    /* Wait for them all.  If there's an error, note that we don't care
-     * what the error was -- just that there *was* an error.  The PML
-     * will finish all requests, even if one or more of them fail.
-     * i.e., by the end of this call, all the requests are free-able.
-     * So free them anyway -- even if there was an error, and return the
-     * error after we free everything. */
-    Request::waitall(nreqs, ireqs,
-                                MPI_STATUSES_IGNORE);
+    *preq = Request::irecv_init(prcv, rcounts[i], rdtype, i, COLL_TAG_ALLTOALLV, comm);
+    preq++;
+    ++nreqs;
+  }
 
-    /* Free the requests. */
-    for (i = 0; i < nreqs; ++i) {
-      if(ireqs[i]!=MPI_REQUEST_NULL)
-        Request::unref(&ireqs[i]);
+  /* Now post all sends */
+  for (int i = 0; i < size; ++i) {
+    if (i == rank) {
+      continue;
     }
-    free(ireqs);
 
-    return MPI_SUCCESS;
+    psnd  = ((char*)sbuf) + (sdisps[i] * sext);
+    *preq = Request::isend_init(psnd, scounts[i], sdtype, i, COLL_TAG_ALLTOALLV, comm);
+    preq++;
+    ++nreqs;
+  }
+
+  /* Start your engines.  This will never return an error. */
+  Request::startall(nreqs, ireqs);
+
+  /* Wait for them all.  If there's an error, note that we don't care
+   * what the error was -- just that there *was* an error.  The PML
+   * will finish all requests, even if one or more of them fail.
+   * i.e., by the end of this call, all the requests are free-able.
+   * So free them anyway -- even if there was an error, and return the
+   * error after we free everything. */
+  Request::waitall(nreqs, ireqs, MPI_STATUSES_IGNORE);
+
+  /* Free the requests. */
+  for (int i = 0; i < nreqs; ++i) {
+    if (ireqs[i] != MPI_REQUEST_NULL)
+      Request::unref(&ireqs[i]);
+  }
+  delete[] ireqs;
+
+  return MPI_SUCCESS;
 }
 }
 }
-