Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
revalidate tesh to account for BIG FAT WARNING
[simgrid.git] / examples / msg / actions / actions.tesh
index d548647..250d703 100644 (file)
@@ -1,81 +1,91 @@
 # A little tesh file testing most MPI-related actions
 
-
 ! output sort
 $ ${bindir:=.}/actions --log=actions.thres=verbose homogeneous_3_hosts.xml deployment_split.xml "--log=root.fmt:[%10.6r]%e(%i:%P@%h)%e%m%n"
-> [500.005200] (1:p0@host0) p0 recv p1 500.005200
-> [500.005200] (2:p1@host1) p1 send p0 1e10 500.005200
-> [500.005201] (1:p0@host0) p0 compute 12 0.000001
-> [512.005200] (0:@) Simulation time 512.005
-> [512.005200] (2:p1@host1) p1 sleep 12 12.000000 
+> This example is still relevant if you want to learn about MSG-based trace replay, but if you want to simulate MPI-like traces, you should use the newer version that is in the examples/smpi/replay directory instead.
+> WARNING: THIS BINARY IS KINDA DEPRECATED
+> [ 10.831247] (1:p0@host0) p0 recv p1 10.831247
+> [ 10.831247] (2:p1@host1) p1 send p0 1e10 10.831247
+> [ 10.831248] (1:p0@host0) p0 compute 12 0.000001
+> [ 22.831247] (0:@) Simulation time 22.8312
+> [ 22.831247] (2:p1@host1) p1 sleep 12 12.000000
 
 ! output sort
 $ ${bindir:=.}/actions --log=actions.thres=verbose homogeneous_3_hosts.xml deployment.xml actions_allReduce.txt "--log=root.fmt:[%10.6r]%e(%i:%P@%h)%e%m%n"
+> This example is still relevant if you want to learn about MSG-based trace replay, but if you want to simulate MPI-like traces, you should use the newer version that is in the examples/smpi/replay directory instead.
+> WARNING: THIS BINARY IS KINDA DEPRECATED
 > [  0.000000] (1:p0@host0) p0 comm_size 3 0.000000
-> [100.010400] (1:p0@host0) p0 allReduce 5e8 5e8 100.010400
-> [100.010400] (2:p1@host1) p1 allReduce 5e8 5e8 100.010400
-> [100.010400] (3:p2@host2) p2 allReduce 5e8 5e8 100.010400
-> [150.010400] (0:@) Simulation time 150.01
-> [150.010400] (1:p0@host0) p0 compute 5e8 50.000000
-> [150.010400] (2:p1@host1) p1 compute 5e8 50.000000
-> [150.010400] (3:p2@host2) p2 compute 5e8 50.000000
+> [ 51.095484] (1:p0@host0) p0 allReduce 5e8 5e8 51.095484
+> [ 51.095484] (2:p1@host1) p1 allReduce 5e8 5e8 51.095484
+> [ 51.095484] (3:p2@host2) p2 allReduce 5e8 5e8 51.095484
+> [101.095484] (0:@) Simulation time 101.095
+> [101.095484] (1:p0@host0) p0 compute 5e8 50.000000
+> [101.095484] (2:p1@host1) p1 compute 5e8 50.000000
+> [101.095484] (3:p2@host2) p2 compute 5e8 50.000000
 
 ! output sort
 $ ${bindir:=.}/actions --log=actions.thres=verbose homogeneous_3_hosts.xml deployment.xml actions_barrier.txt "--log=root.fmt:[%10.6r]%e(%i:%P@%h)%e%m%n"
+> This example is still relevant if you want to learn about MSG-based trace replay, but if you want to simulate MPI-like traces, you should use the newer version that is in the examples/smpi/replay directory instead.
+> WARNING: THIS BINARY IS KINDA DEPRECATED
 > [  0.000000] (1:p0@host0) p0 comm_size 3 0.000000
 > [  0.000000] (2:p1@host1) p1 comm_size 3 0.000000
 > [  0.000000] (3:p2@host2) p2 comm_size 3 0.000000
-> [  0.505200] (1:p0@host0) p0 send p1 1E7 0.505200
-> [  0.505200] (2:p1@host1) p1 recv p0 0.505200
-> [  0.905200] (2:p1@host1) p1 compute 4E6 0.400000
-> [  0.905200] (3:p2@host2) p2 compute 4E6 0.400000
-> [  0.955200] (0:@) Simulation time 0.9552
-> [  0.955200] (1:p0@host0) p0 compute 4.5E6 0.450000
+> [  0.017330] (1:p0@host0) p0 send p1 1E7 0.017330
+> [  0.017330] (2:p1@host1) p1 recv p0 0.017330
+> [  0.417330] (2:p1@host1) p1 compute 4E6 0.400000
+> [  0.417330] (3:p2@host2) p2 compute 4E6 0.400000
+> [  0.467330] (0:@) Simulation time 0.46733
+> [  0.467330] (1:p0@host0) p0 compute 4.5E6 0.450000
 
 ! output sort
 $ ${bindir:=.}/actions --log=actions.thres=verbose homogeneous_3_hosts.xml deployment.xml actions_bcast.txt "--log=root.fmt:[%10.6r]%e(%i:%P@%h)%e%m%n"
+> This example is still relevant if you want to learn about MSG-based trace replay, but if you want to simulate MPI-like traces, you should use the newer version that is in the examples/smpi/replay directory instead.
+> WARNING: THIS BINARY IS KINDA DEPRECATED
 > [  0.000000] (1:p0@host0) p0 comm_size 3 0.000000
-> [ 25.005200] (1:p0@host0) p0 bcast 5e8 25.005200
-> [ 25.005200] (2:p1@host1) p1 bcast 5e8 25.005200
-> [ 25.005200] (3:p2@host2) p2 bcast 5e8 25.005200
-> [ 45.005200] (2:p1@host1) p1 compute 2e8 20.000000
-> [ 75.005200] (1:p0@host0) p0 compute 5e8 50.000000
-> [ 75.005200] (3:p2@host2) p2 compute 5e8 50.000000
-> [100.010400] (1:p0@host0) p0 bcast 5e8 25.005200
-> [100.010400] (2:p1@host1) p1 bcast 5e8 55.005200
-> [100.010400] (3:p2@host2) p2 bcast 5e8 25.005200
-> [120.010400] (2:p1@host1) p1 compute 2e8 20.000000
-> [150.010400] (1:p0@host0) p0 compute 5e8 50.000000
-> [150.010400] (3:p2@host2) p2 compute 5e8 50.000000
-> [175.015600] (2:p1@host1) p1 reduce 5e8 5e8 55.005200
-> [175.015600] (3:p2@host2) p2 reduce 5e8 5e8 25.005200
-> [225.015600] (0:@) Simulation time 225.016
-> [225.015600] (1:p0@host0) p0 reduce 5e8 5e8 75.005200
+> [  0.547742] (1:p0@host0) p0 bcast 5e8 0.547742
+> [  0.547742] (2:p1@host1) p1 bcast 5e8 0.547742
+> [  0.547742] (3:p2@host2) p2 bcast 5e8 0.547742
+> [ 20.547742] (2:p1@host1) p1 compute 2e8 20.000000
+> [ 50.547742] (1:p0@host0) p0 compute 5e8 50.000000
+> [ 50.547742] (3:p2@host2) p2 compute 5e8 50.000000
+> [ 51.095484] (1:p0@host0) p0 bcast 5e8 0.547742
+> [ 51.095484] (2:p1@host1) p1 bcast 5e8 30.547742
+> [ 51.095484] (3:p2@host2) p2 bcast 5e8 0.547742
+> [ 71.095484] (2:p1@host1) p1 compute 2e8 20.000000
+> [101.095484] (1:p0@host0) p0 compute 5e8 50.000000
+> [101.095484] (3:p2@host2) p2 compute 5e8 50.000000
+> [101.643226] (2:p1@host1) p1 reduce 5e8 5e8 30.547742
+> [101.643226] (3:p2@host2) p2 reduce 5e8 5e8 0.547742
+> [151.643226] (0:@) Simulation time 151.643
+> [151.643226] (1:p0@host0) p0 reduce 5e8 5e8 50.547742
 
 ! output sort
 $ ${bindir:=.}/actions --log=actions.thres=verbose homogeneous_3_hosts.xml deployment.xml actions_reduce.txt "--log=root.fmt:[%10.6r]%e(%i:%P@%h)%e%m%n"
+> This example is still relevant if you want to learn about MSG-based trace replay, but if you want to simulate MPI-like traces, you should use the newer version that is in the examples/smpi/replay directory instead.
+> WARNING: THIS BINARY IS KINDA DEPRECATED
 > [  0.000000] (1:p0@host0) p0 comm_size 3 0.000000
-> [ 25.005200] (2:p1@host1) p1 reduce 5e8 5e8 25.005200
-> [ 25.005200] (3:p2@host2) p2 reduce 5e8 5e8 25.005200
-> [ 75.005200] (1:p0@host0) p0 reduce 5e8 5e8 75.005200
-> [ 75.005200] (2:p1@host1) p1 compute 5e8 50.000000
-> [ 75.005200] (3:p2@host2) p2 compute 5e8 50.000000
-> [125.005200] (0:@) Simulation time 125.005
-> [125.005200] (1:p0@host0) p0 compute 5e8 50.000000
+> [  0.547742] (2:p1@host1) p1 reduce 5e8 5e8 0.547742
+> [  0.547742] (3:p2@host2) p2 reduce 5e8 5e8 0.547742
+> [ 50.547742] (1:p0@host0) p0 reduce 5e8 5e8 50.547742
+> [ 50.547742] (2:p1@host1) p1 compute 5e8 50.000000
+> [ 50.547742] (3:p2@host2) p2 compute 5e8 50.000000
+> [100.547742] (0:@) Simulation time 100.548
+> [100.547742] (1:p0@host0) p0 compute 5e8 50.000000
 
 ! output sort
 $ ${bindir:=.}/actions --log=actions.thres=verbose homogeneous_3_hosts.xml deployment.xml actions_with_isend.txt "--log=root.fmt:[%10.6r]%e(%i:%P@%h)%e%m%n"
+> This example is still relevant if you want to learn about MSG-based trace replay, but if you want to simulate MPI-like traces, you should use the newer version that is in the examples/smpi/replay directory instead.
+> WARNING: THIS BINARY IS KINDA DEPRECATED
 > [  0.000000] (2:p1@host1) p1 Irecv p0 0.000000
 > [  0.000000] (3:p2@host2) p2 Irecv p1 0.000000
+> [  1.088979] (1:p0@host0) p0 send p1 1e9 1.088979
 > [ 50.000000] (3:p2@host2) p2 compute 5e8 50.000000
-> [ 50.005200] (1:p0@host0) p0 send p1 1e9 50.005200
 > [100.000000] (2:p1@host1) p1 compute 1e9 100.000000
 > [100.000000] (2:p1@host1) p1 wait 0.000000
-> [150.005200] (1:p0@host0) p0 compute 1e9 100.000000
-> [150.005200] (2:p1@host1) p1 send p2 1e9 50.005200
-> [150.005200] (3:p2@host2) p2 wait 100.005200
-> [150.005200] (3:p2@host2) p2 Isend p0 1e9 0.000000
-> [200.005200] (0:@) Simulation time 200.005
-> [200.005200] (1:p0@host0) p0 recv p2 50.000000
-> [200.005200] (3:p2@host2) p2 compute 5e8 50.000000
-
+> [101.088979] (1:p0@host0) p0 compute 1e9 100.000000
+> [101.088979] (2:p1@host1) p1 send p2 1e9 1.088979
+> [101.088979] (3:p2@host2) p2 wait 51.088979
+> [101.088979] (3:p2@host2) p2 Isend p0 1e9 0.000000
+> [102.177958] (1:p0@host0) p0 recv p2 1.088979
+> [151.088979] (0:@) Simulation time 151.089
+> [151.088979] (3:p2@host2) p2 compute 5e8 50.000000