Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Adapt leak example to new display.
[simgrid.git] / teshsuite / smpi / coll-allreduce-with-leaks / mc-coll-allreduce-with-leaks.tesh
index 7d60136..796eb1b 100644 (file)
@@ -7,47 +7,25 @@ $ $VALGRIND_NO_LEAK_CHECK ${bindir:=.}/../../../smpi_script/bin/smpirun -wrapper
 > [rank 2] -> Tremblay
 > [rank 3] -> Tremblay
 > [0.000000] [mc_safety/INFO] Check a safety property. Reduction is: dpor.
-> [0.000000] [smpi_utils/INFO] Probable memory leaks in your code: SMPI detected 8 unfreed MPI handles : display types and addresses (n max) with --cfg=smpi/list-leaks:n.
-> Running smpirun with -wrapper "valgrind --leak-check=full" can provide more information
-> [0.000000] [smpi_utils/INFO] To get more information (location of allocations), compile your code with -trace-call-location flag of smpicc/f90
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Comm
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Group
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Comm
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Group
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Comm
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Group
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Comm
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Group
-> [0.000000] [smpi_utils/INFO] Probable memory leaks in your code: SMPI detected 4 unfreed buffers : display types and addresses (n max) with --cfg=smpi/list-leaks:n.
-> Running smpirun with -wrapper "valgrind --leak-check=full" can provide more information
-> [0.000000] [smpi_utils/INFO] Leaked buffer of size 16
-> [0.000000] [smpi_utils/INFO] Leaked buffer of size 16
-> [0.000000] [smpi_utils/INFO] Leaked buffer of size 16
-> [0.000000] [smpi_utils/INFO] Leaked buffer of size 16
-> [0.000000] [smpi_utils/INFO] Memory Usage: Simulated application allocated 128 bytes during its lifetime through malloc/calloc calls.
-> Largest allocation at once from a single process was 16 bytes, at coll-allreduce-with-leaks.c:27. It was called 4 times during the whole simulation.
+> [0.000000] [smpi_utils/INFO] Probable memory leaks in your code: SMPI detected 8 unfreed MPI handles :
+> [0.000000] [smpi_utils/WARNING] To get more information (location of allocations), compile your code with -trace-call-location flag of smpicc/f90
+> [0.000000] [smpi_utils/INFO] 4 leaked handles of type MPI_Comm
+> [0.000000] [smpi_utils/INFO] 4 leaked handles of type MPI_Group
+> [0.000000] [smpi_utils/INFO] Probable memory leaks in your code: SMPI detected 8 unfreed buffers :
+> [0.000000] [smpi_utils/INFO] leaked allocations of total size 152, called 8 times, with minimum size 16 and maximum size 28
+> [0.000000] [smpi_utils/INFO] Memory Usage: Simulated application allocated 152 bytes during its lifetime through malloc/calloc calls.
+> Largest allocation at once from a single process was 28 bytes, at coll-allreduce-with-leaks.c:28. It was called 1 times during the whole simulation.
 > If this is too much, consider sharing allocations for computation buffers.
 > This can be done automatically by setting --cfg=smpi/auto-shared-malloc-thresh to the minimum size wanted size (this can alter execution if data content is necessary)
 > 
-> [0.000000] [smpi_utils/INFO] Probable memory leaks in your code: SMPI detected 8 unfreed MPI handles : display types and addresses (n max) with --cfg=smpi/list-leaks:n.
-> Running smpirun with -wrapper "valgrind --leak-check=full" can provide more information
-> [0.000000] [smpi_utils/INFO] To get more information (location of allocations), compile your code with -trace-call-location flag of smpicc/f90
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Comm
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Group
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Comm
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Group
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Comm
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Group
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Comm
-> [0.000000] [smpi_utils/INFO] Leaked handle of type MPI_Group
-> [0.000000] [smpi_utils/INFO] Probable memory leaks in your code: SMPI detected 4 unfreed buffers : display types and addresses (n max) with --cfg=smpi/list-leaks:n.
-> Running smpirun with -wrapper "valgrind --leak-check=full" can provide more information
-> [0.000000] [smpi_utils/INFO] Leaked buffer of size 16
-> [0.000000] [smpi_utils/INFO] Leaked buffer of size 16
-> [0.000000] [smpi_utils/INFO] Leaked buffer of size 16
-> [0.000000] [smpi_utils/INFO] Leaked buffer of size 16
-> [0.000000] [smpi_utils/INFO] Memory Usage: Simulated application allocated 128 bytes during its lifetime through malloc/calloc calls.
-> Largest allocation at once from a single process was 16 bytes, at coll-allreduce-with-leaks.c:27. It was called 4 times during the whole simulation.
+> [0.000000] [smpi_utils/INFO] Probable memory leaks in your code: SMPI detected 8 unfreed MPI handles :
+> [0.000000] [smpi_utils/WARNING] To get more information (location of allocations), compile your code with -trace-call-location flag of smpicc/f90
+> [0.000000] [smpi_utils/INFO] 4 leaked handles of type MPI_Comm
+> [0.000000] [smpi_utils/INFO] 4 leaked handles of type MPI_Group
+> [0.000000] [smpi_utils/INFO] Probable memory leaks in your code: SMPI detected 8 unfreed buffers :
+> [0.000000] [smpi_utils/INFO] leaked allocations of total size 152, called 8 times, with minimum size 16 and maximum size 28
+> [0.000000] [smpi_utils/INFO] Memory Usage: Simulated application allocated 152 bytes during its lifetime through malloc/calloc calls.
+> Largest allocation at once from a single process was 28 bytes, at coll-allreduce-with-leaks.c:28. It was called 1 times during the whole simulation.
 > If this is too much, consider sharing allocations for computation buffers.
 > This can be done automatically by setting --cfg=smpi/auto-shared-malloc-thresh to the minimum size wanted size (this can alter execution if data content is necessary)
 >