Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
turn unimportant warnings into info in colls and improve messages
authorAugustin Degomme <adegomme@users.noreply.github.com>
Fri, 19 Feb 2021 06:52:01 +0000 (07:52 +0100)
committerAugustin Degomme <adegomme@users.noreply.github.com>
Fri, 19 Feb 2021 06:52:01 +0000 (07:52 +0100)
17 files changed:
src/smpi/colls/allgather/allgather-NTSLR-NB.cpp
src/smpi/colls/allgather/allgather-NTSLR.cpp
src/smpi/colls/allgather/allgather-SMP-NTS.cpp
src/smpi/colls/allgather/allgather-ompi-neighborexchange.cpp
src/smpi/colls/allgather/allgather-rhv.cpp
src/smpi/colls/allgatherv/allgatherv-ompi-neighborexchange.cpp
src/smpi/colls/allreduce/allreduce-lr.cpp
src/smpi/colls/bcast/bcast-NTSB.cpp
src/smpi/colls/bcast/bcast-NTSL-Isend.cpp
src/smpi/colls/bcast/bcast-NTSL.cpp
src/smpi/colls/bcast/bcast-SMP-binary.cpp
src/smpi/colls/bcast/bcast-SMP-linear.cpp
src/smpi/colls/bcast/bcast-arrival-pattern-aware-wait.cpp
src/smpi/colls/bcast/bcast-arrival-pattern-aware.cpp
src/smpi/colls/bcast/bcast-arrival-scatter.cpp
src/smpi/colls/bcast/bcast-flattree-pipeline.cpp
src/smpi/colls/reduce/reduce-NTSL.cpp

index 1745ced..0c400bc 100644 (file)
@@ -26,9 +26,8 @@ allgather__NTSLR_NB(const void *sbuf, int scount, MPI_Datatype stype,
   rextent = rtype->get_extent();
   sextent = stype->get_extent();
 
-  // irregular case use default MPI functions
   if (scount * sextent != rcount * rextent) {
-    XBT_WARN("MPI_allgather_NTSLR_NB use default MPI_allgather.");
+    XBT_INFO("MPI_allgather_NTSLR_NB: irregular case, use default MPI_allgather.");
     allgather__default(sbuf, scount, stype, rbuf, rcount, rtype, comm);
     return MPI_SUCCESS;
   }
index 8a9d68d..95dcae5 100644 (file)
@@ -26,9 +26,8 @@ allgather__NTSLR(const void *sbuf, int scount, MPI_Datatype stype,
   rextent = rtype->get_extent();
   sextent = stype->get_extent();
 
-  // irregular case use default MPI functions
   if (scount * sextent != rcount * rextent) {
-    XBT_WARN("MPI_allgather_NTSLR use default MPI_allgather.");
+    XBT_INFO("MPI_allgather_NTSLR: irregular case, use default MPI_allgather.");
     allgather__default(sbuf, scount, stype, rbuf, rcount, rtype, comm);
     return MPI_SUCCESS;
   }
index c0f4c54..de4a4e2 100644 (file)
@@ -46,7 +46,7 @@ int allgather__SMP_NTS(const void *sbuf, int scount,
 
   /* for too small number of processes, use default implementation */
   if (comm_size <= num_core) {
-    XBT_WARN("MPI_allgather_SMP_NTS use default MPI_allgather.");
+    XBT_INFO("MPI_allgather_SMP_NTS: comm_size <= num_core, use default MPI_allgather.");
     allgather__default(sbuf, scount, stype, rbuf, rcount, rtype, comm);
     return MPI_SUCCESS;
   }
index d3fc359..5ba4f24 100644 (file)
@@ -87,8 +87,8 @@ allgather__ompi_neighborexchange(const void *sbuf, int scount,
    rank = comm->rank();
 
    if (size % 2) {
-      XBT_DEBUG(
-                   "coll:tuned:allgather_intra_neighborexchange WARNING: odd size %d, switching to ring algorithm",
+      XBT_INFO(
+                   "coll:tuned:allgather_intra_neighborexchange: odd size %d, switching to ring algorithm",
                    size);
       return allgather__ring(sbuf, scount, sdtype,
                              rbuf, rcount, rdtype,
index fccc0fb..625dc79 100644 (file)
@@ -45,7 +45,7 @@ allgather__rhv(const void *sbuf, int send_count,
   recv_chunk = r_extent * recv_count;
 
   if (send_chunk != recv_chunk) {
-    XBT_WARN("MPI_allgather_rhv use default MPI_allgather.");
+    XBT_INFO("MPI_allgather_rhv: send_chunk != recv_chunk, use default MPI_allgather.");
     allgather__default(sbuf, send_count, send_type, rbuf, recv_count,
                        recv_type, comm);
     return MPI_SUCCESS;
index e7559fd..dd8b7f7 100644 (file)
@@ -88,7 +88,7 @@ allgatherv__ompi_neighborexchange(const void *sbuf, int scount,
     rank = comm->rank();
 
     if (size % 2) {
-        XBT_DEBUG("allgatherv__ompi_neighborexchange WARNING: odd size %d, switching to ring algorithm",
+        XBT_INFO("allgatherv__ompi_neighborexchange: odd size %d, switching to ring algorithm",
                      size);
         return allgatherv__ring(sbuf, scount, sdtype,
                                                      rbuf, rcounts,
@@ -213,7 +213,7 @@ allgatherv__ompi_neighborexchange(const void *sbuf, int scount,
     return MPI_SUCCESS;
 
  err_hndl:
-    XBT_DEBUG(  "%s:%4d\tError occurred %d, rank %2d",
+    XBT_WARN(  "%s:%4d\tError occurred %d, rank %2d",
                  __FILE__, line, err, rank);
     return err;
 }
index ad2197e..e8e46c7 100644 (file)
@@ -36,9 +36,8 @@ int allreduce__lr(const void *sbuf, void *rbuf, int rcount,
   MPI_Aint extent;
   extent = dtype->get_extent();
 
-  /* when communication size is smaller than number of process (not support) */
   if (rcount < size) {
-    XBT_WARN("MPI_allreduce_lr use default MPI_allreduce.");
+    XBT_INFO("MPI_allreduce_lr: communication size smaller than number of process, use default MPI_allreduce.");
     allreduce__default(sbuf, rbuf, rcount, dtype, op, comm);
     return MPI_SUCCESS;
   }
index 5ab5a46..8c81b02 100644 (file)
@@ -164,9 +164,8 @@ int bcast__NTSB(void *buf, int count, MPI_Datatype datatype,
     delete[] recv_status_array;
   }                             /* end pipeline */
 
-  /* when count is not divisible by block size, use default BCAST for the remainder */
   if ((remainder != 0) && (count > segment)) {
-    XBT_WARN("MPI_bcast_NTSB use default MPI_bcast.");
+    XBT_INFO("MPI_bcast_NTSB: count is not divisible by block size, use default MPI_bcast for remainder.");
     colls::bcast((char*)buf + (pipe_length * increment), remainder, datatype, root, comm);
   }
 
index 7ccc57b..4038bdc 100644 (file)
@@ -115,9 +115,8 @@ int bcast__NTSL_Isend(void *buf, int count, MPI_Datatype datatype,
     delete[] recv_status_array;
   }                             /* end pipeline */
 
-  /* when count is not divisible by block size, use default BCAST for the remainder */
   if ((remainder != 0) && (count > segment)) {
-    XBT_WARN("MPI_bcast_NTSL_Isend_nb use default MPI_bcast.");
+    XBT_INFO("MPI_bcast_NTSL_Isend_nb: count is not divisible by block size, use default MPI_bcast for remainder.");
     colls::bcast((char*)buf + (pipe_length * increment), remainder, datatype, root, comm);
   }
 
index c140e24..a2929b6 100644 (file)
@@ -115,9 +115,8 @@ int bcast__NTSL(void *buf, int count, MPI_Datatype datatype,
     delete[] recv_status_array;
   }                             /* end pipeline */
 
-  /* when count is not divisible by block size, use default BCAST for the remainder */
   if ((remainder != 0) && (count > segment)) {
-    XBT_WARN("MPI_bcast_arrival_NTSL use default MPI_bcast.");
+    XBT_INFO("MPI_bcast_arrival_NTSL: count is not divisible by block size, use default MPI_bcast for remainder.");
     colls::bcast((char*)buf + (pipe_length * increment), remainder, datatype, root, comm);
   }
 
index 813a000..c80ef36 100644 (file)
@@ -214,9 +214,8 @@ int bcast__SMP_binary(void *buf, int count,
     delete[] status_array;
   }
 
-  // when count is not divisible by block size, use default BCAST for the remainder
   if ((remainder != 0) && (count > segment)) {
-    XBT_WARN("MPI_bcast_SMP_binary use default MPI_bcast.");
+    XBT_INFO("MPI_bcast_SMP_binary: count is not divisible by block size, use default MPI_bcast for remainer.");
     colls::bcast((char*)buf + (pipe_length * increment), remainder, datatype, root, comm);
   }
 
index 8fc7574..9f5a2a1 100644 (file)
@@ -50,7 +50,7 @@ int bcast__SMP_linear(void *buf, int count,
 
   // call native when MPI communication size is too small
   if (size <= num_core) {
-    XBT_WARN("MPI_bcast_SMP_linear use default MPI_bcast.");
+    XBT_INFO("size <= num_core : MPI_bcast_SMP_linear use default MPI_bcast.");
     bcast__default(buf, count, datatype, root, comm);
     return MPI_SUCCESS;
   }
@@ -163,9 +163,8 @@ int bcast__SMP_linear(void *buf, int count,
     delete[] status_array;
   }
 
-  // when count is not divisible by block size, use default BCAST for the remainder
   if ((remainder != 0) && (count > segment)) {
-    XBT_WARN("MPI_bcast_SMP_linear use default MPI_bcast.");
+    XBT_INFO("MPI_bcast_SMP_linear: count is not divisible by block size, use default MPI_bcast for remainder.");
     colls::bcast((char*)buf + (pipe_length * increment), remainder, datatype, root, comm);
   }
 
index 9bce0ea..55c45c5 100644 (file)
@@ -236,9 +236,8 @@ int bcast__arrival_pattern_aware_wait(void *buf, int count,
   delete[] recv_status_array;
   /* end pipeline */
 
-  /* when count is not divisible by block size, use default BCAST for the remainder */
   if ((remainder != 0) && (count > segment)) {
-    XBT_WARN("MPI_bcast_arrival_pattern_aware_wait use default MPI_bcast.");
+    XBT_INFO("MPI_bcast_arrival_pattern_aware_wait: count is not divisible by block size, use default MPI_bcast for remainder.");
     colls::bcast((char*)buf + (pipe_length * increment), remainder, datatype, root, comm);
   }
 
index 92ab7b1..cf23628 100644 (file)
@@ -348,9 +348,8 @@ int bcast__arrival_pattern_aware(void *buf, int count,
     delete[] recv_status_array;
   }                             /* end pipeline */
 
-  /* when count is not divisible by block size, use default BCAST for the remainder */
   if ((remainder != 0) && (count > segment)) {
-    XBT_WARN("MPI_bcast_arrival_pattern_aware use default MPI_bcast.");
+    XBT_INFO("MPI_bcast_arrival_pattern_aware:  count is not divisible by block size, use default MPI_bcast for remainder.");
     colls::bcast((char*)buf + (pipe_length * increment), remainder, datatype, root, comm);
   }
 
index f0daaf6..042c8fa 100644 (file)
@@ -59,7 +59,7 @@ int bcast__arrival_scatter(void *buf, int count,
 
   /* message too small */
   if (count < size) {
-    XBT_WARN("MPI_bcast_arrival_scatter use default MPI_bcast.");
+    XBT_INFO("MPI_bcast_arrival_scatter: count < size, use default MPI_bcast.");
     colls::bcast(buf, count, datatype, root, comm);
     return MPI_SUCCESS;
   }
index 1d18349..3f77cbf 100644 (file)
@@ -24,7 +24,7 @@ int bcast__flattree_pipeline(void *buff, int count,
   int pipe_length = count / segment;
   int increment = segment * extent;
   if (pipe_length==0) {
-    XBT_WARN("MPI_bcast_flattree_pipeline use default MPI_bcast_flattree.");
+    XBT_INFO("MPI_bcast_flattree_pipeline: pipe_length=0, use default MPI_bcast_flattree.");
     return bcast__flattree(buff, count, data_type, root, comm);
   }
   rank = comm->rank();
index c738b7e..4986636 100644 (file)
@@ -130,9 +130,8 @@ int reduce__NTSL(const void *buf, void *rbuf, int count,
     delete[] recv_status_array;
   }                             /* end pipeline */
 
-  /* when count is not divisible by block size, use default BCAST for the remainder */
   if ((remainder != 0) && (count > segment)) {
-    XBT_WARN("MPI_reduce_NTSL use default MPI_reduce.");
+    XBT_INFO("MPI_reduce_NTSL: count is not divisible by block size, use default MPI_reduce for remainder.");
     reduce__default((char *)buf + (pipe_length * increment),
                     (char *)rbuf + (pipe_length * increment), remainder, datatype, op, root,
                     comm);