Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Free allocated string.
[simgrid.git] / examples / msg / actions / actions.tesh
1 # A little tesh file testing most MPI-related actions
2
3 ! output sort
4 $ ${bindir:=.}/actions --log=actions.thres=verbose homogeneous_3_hosts.xml deployment_split.xml "--log=root.fmt:[%10.6r]%e(%i:%P@%h)%e%m%n"
5 > This example is still relevant if you want to learn about MSG-based trace replay, but if you want to simulate MPI-like traces, you should use the newer version that is in the examples/smpi/replay directory instead.
6 > WARNING: THIS BINARY IS KINDA DEPRECATED
7 > [ 10.831247] (1:p0@host0) p0 recv p1 10.831247
8 > [ 10.831247] (2:p1@host1) p1 send p0 1e10 10.831247
9 > [ 10.831248] (1:p0@host0) p0 compute 12 0.000001
10 > [ 22.831247] (0:@) Simulation time 22.8312
11 > [ 22.831247] (2:p1@host1) p1 sleep 12 12.000000
12
13 ! output sort
14 $ ${bindir:=.}/actions --log=actions.thres=verbose homogeneous_3_hosts.xml deployment.xml actions_allReduce.txt "--log=root.fmt:[%10.6r]%e(%i:%P@%h)%e%m%n"
15 > This example is still relevant if you want to learn about MSG-based trace replay, but if you want to simulate MPI-like traces, you should use the newer version that is in the examples/smpi/replay directory instead.
16 > WARNING: THIS BINARY IS KINDA DEPRECATED
17 > [  0.000000] (1:p0@host0) p0 comm_size 3 0.000000
18 > [ 51.095484] (1:p0@host0) p0 allReduce 5e8 5e8 51.095484
19 > [ 51.095484] (2:p1@host1) p1 allReduce 5e8 5e8 51.095484
20 > [ 51.095484] (3:p2@host2) p2 allReduce 5e8 5e8 51.095484
21 > [101.095484] (0:@) Simulation time 101.095
22 > [101.095484] (1:p0@host0) p0 compute 5e8 50.000000
23 > [101.095484] (2:p1@host1) p1 compute 5e8 50.000000
24 > [101.095484] (3:p2@host2) p2 compute 5e8 50.000000
25
26 ! output sort
27 $ ${bindir:=.}/actions --log=actions.thres=verbose homogeneous_3_hosts.xml deployment.xml actions_barrier.txt "--log=root.fmt:[%10.6r]%e(%i:%P@%h)%e%m%n"
28 > This example is still relevant if you want to learn about MSG-based trace replay, but if you want to simulate MPI-like traces, you should use the newer version that is in the examples/smpi/replay directory instead.
29 > WARNING: THIS BINARY IS KINDA DEPRECATED
30 > [  0.000000] (1:p0@host0) p0 comm_size 3 0.000000
31 > [  0.000000] (2:p1@host1) p1 comm_size 3 0.000000
32 > [  0.000000] (3:p2@host2) p2 comm_size 3 0.000000
33 > [  0.017330] (1:p0@host0) p0 send p1 1E7 0.017330
34 > [  0.017330] (2:p1@host1) p1 recv p0 0.017330
35 > [  0.417330] (2:p1@host1) p1 compute 4E6 0.400000
36 > [  0.417330] (3:p2@host2) p2 compute 4E6 0.400000
37 > [  0.467330] (0:@) Simulation time 0.46733
38 > [  0.467330] (1:p0@host0) p0 compute 4.5E6 0.450000
39
40 ! output sort
41 $ ${bindir:=.}/actions --log=actions.thres=verbose homogeneous_3_hosts.xml deployment.xml actions_bcast.txt "--log=root.fmt:[%10.6r]%e(%i:%P@%h)%e%m%n"
42 > This example is still relevant if you want to learn about MSG-based trace replay, but if you want to simulate MPI-like traces, you should use the newer version that is in the examples/smpi/replay directory instead.
43 > WARNING: THIS BINARY IS KINDA DEPRECATED
44 > [  0.000000] (1:p0@host0) p0 comm_size 3 0.000000
45 > [  0.547742] (1:p0@host0) p0 bcast 5e8 0.547742
46 > [  0.547742] (2:p1@host1) p1 bcast 5e8 0.547742
47 > [  0.547742] (3:p2@host2) p2 bcast 5e8 0.547742
48 > [ 20.547742] (2:p1@host1) p1 compute 2e8 20.000000
49 > [ 50.547742] (1:p0@host0) p0 compute 5e8 50.000000
50 > [ 50.547742] (3:p2@host2) p2 compute 5e8 50.000000
51 > [ 51.095484] (1:p0@host0) p0 bcast 5e8 0.547742
52 > [ 51.095484] (2:p1@host1) p1 bcast 5e8 30.547742
53 > [ 51.095484] (3:p2@host2) p2 bcast 5e8 0.547742
54 > [ 71.095484] (2:p1@host1) p1 compute 2e8 20.000000
55 > [101.095484] (1:p0@host0) p0 compute 5e8 50.000000
56 > [101.095484] (3:p2@host2) p2 compute 5e8 50.000000
57 > [101.643226] (2:p1@host1) p1 reduce 5e8 5e8 30.547742
58 > [101.643226] (3:p2@host2) p2 reduce 5e8 5e8 0.547742
59 > [151.643226] (0:@) Simulation time 151.643
60 > [151.643226] (1:p0@host0) p0 reduce 5e8 5e8 50.547742
61
62 ! output sort
63 $ ${bindir:=.}/actions --log=actions.thres=verbose homogeneous_3_hosts.xml deployment.xml actions_reduce.txt "--log=root.fmt:[%10.6r]%e(%i:%P@%h)%e%m%n"
64 > This example is still relevant if you want to learn about MSG-based trace replay, but if you want to simulate MPI-like traces, you should use the newer version that is in the examples/smpi/replay directory instead.
65 > WARNING: THIS BINARY IS KINDA DEPRECATED
66 > [  0.000000] (1:p0@host0) p0 comm_size 3 0.000000
67 > [  0.547742] (2:p1@host1) p1 reduce 5e8 5e8 0.547742
68 > [  0.547742] (3:p2@host2) p2 reduce 5e8 5e8 0.547742
69 > [ 50.547742] (1:p0@host0) p0 reduce 5e8 5e8 50.547742
70 > [ 50.547742] (2:p1@host1) p1 compute 5e8 50.000000
71 > [ 50.547742] (3:p2@host2) p2 compute 5e8 50.000000
72 > [100.547742] (0:@) Simulation time 100.548
73 > [100.547742] (1:p0@host0) p0 compute 5e8 50.000000
74
75 ! output sort
76 $ ${bindir:=.}/actions --log=actions.thres=verbose homogeneous_3_hosts.xml deployment.xml actions_with_isend.txt "--log=root.fmt:[%10.6r]%e(%i:%P@%h)%e%m%n"
77 > This example is still relevant if you want to learn about MSG-based trace replay, but if you want to simulate MPI-like traces, you should use the newer version that is in the examples/smpi/replay directory instead.
78 > WARNING: THIS BINARY IS KINDA DEPRECATED
79 > [  0.000000] (2:p1@host1) p1 Irecv p0 0.000000
80 > [  0.000000] (3:p2@host2) p2 Irecv p1 0.000000
81 > [  1.088979] (1:p0@host0) p0 send p1 1e9 1.088979
82 > [ 50.000000] (3:p2@host2) p2 compute 5e8 50.000000
83 > [100.000000] (2:p1@host1) p1 compute 1e9 100.000000
84 > [100.000000] (2:p1@host1) p1 wait 0.000000
85 > [101.088979] (1:p0@host0) p0 compute 1e9 100.000000
86 > [101.088979] (2:p1@host1) p1 send p2 1e9 1.088979
87 > [101.088979] (3:p2@host2) p2 wait 51.088979
88 > [101.088979] (3:p2@host2) p2 Isend p0 1e9 0.000000
89 > [102.177958] (1:p0@host0) p0 recv p2 1.088979
90 > [151.088979] (0:@) Simulation time 151.089
91 > [151.088979] (3:p2@host2) p2 compute 5e8 50.000000