Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'master' of git+ssh://scm.gforge.inria.fr//gitroot/simgrid/simgrid
[simgrid.git] / src / smpi / colls / allreduce-smp-rsag-lr.c
1 #include "colls_private.h"
2 //#include <star-reduction.c>
3
4 /* change number of core per smp-node
5    we assume that number of core per process will be the same for all implementations */
6 #ifndef NUM_CORE
7 #define NUM_CORE 8
8 #endif
9
10 /*
11 This fucntion performs all-reduce operation as follow.
12 1) binomial_tree reduce inside each SMP node
13 2) reduce-scatter -inter between root of each SMP node
14 3) allgather - inter between root of each SMP node
15 4) binomial_tree bcast inside each SMP node
16 */
17 int smpi_coll_tuned_allreduce_smp_rsag_lr(void *send_buf, void *recv_buf,
18                                           int count, MPI_Datatype dtype,
19                                           MPI_Op op, MPI_Comm comm)
20 {
21   int comm_size, rank;
22   void *tmp_buf;
23   int tag = COLL_TAG_ALLREDUCE;
24   int mask, src, dst;
25   MPI_Status status;
26   int num_core = simcall_host_get_core(SIMIX_host_self());
27   // do we use the default one or the number of cores in the platform ?
28   // if the number of cores is one, the platform may be simulated with 1 node = 1 core
29   if (num_core == 1) num_core = NUM_CORE;
30   /*
31      #ifdef MPICH2_REDUCTION
32      MPI_User_function * uop = MPIR_Op_table[op % 16 - 1];
33      #else
34      MPI_User_function *uop;
35      struct MPIR_OP *op_ptr;
36      op_ptr = MPIR_ToPointer(op);
37      uop  = op_ptr->op;
38      #endif
39    */
40   comm_size = smpi_comm_size(comm);
41   rank = smpi_comm_rank(comm);
42   MPI_Aint extent;
43   extent = smpi_datatype_get_extent(dtype);
44   tmp_buf = (void *) xbt_malloc(count * extent);
45
46   int intra_rank, inter_rank;
47   intra_rank = rank % num_core;
48   inter_rank = rank / num_core;
49
50   //printf("node %d intra_rank = %d, inter_rank = %d\n", rank, intra_rank, inter_rank);
51
52   int inter_comm_size = (comm_size + num_core - 1) / num_core;
53
54   if (!rank) {
55     //printf("intra com size = %d\n",num_core);
56     //printf("inter com size = %d\n",inter_comm_size);
57   }
58
59
60   smpi_mpi_sendrecv(send_buf, count, dtype, rank, tag,
61                recv_buf, count, dtype, rank, tag, comm, &status);
62
63
64   // SMP_binomial_reduce
65   mask = 1;
66   while (mask < num_core) {
67     if ((mask & intra_rank) == 0) {
68       src = (inter_rank * num_core) + (intra_rank | mask);
69       //      if (src < ((inter_rank + 1) * num_core)) {
70       if (src < comm_size) {
71         smpi_mpi_recv(tmp_buf, count, dtype, src, tag, comm, &status);
72         smpi_op_apply(op, tmp_buf, recv_buf, &count, &dtype);
73         //printf("Node %d recv from node %d when mask is %d\n", rank, src, mask);
74       }
75     } else {
76
77       dst = (inter_rank * num_core) + (intra_rank & (~mask));
78       smpi_mpi_send(recv_buf, count, dtype, dst, tag, comm);
79       //printf("Node %d send to node %d when mask is %d\n", rank, dst, mask);
80       break;
81     }
82     mask <<= 1;
83   }
84
85
86
87   // INTER: reduce-scatter
88   if (intra_rank == 0) {
89     int send_offset, recv_offset;
90     int send_count, recv_count;
91     int curr_size = count / inter_comm_size;
92     int curr_remainder = count % inter_comm_size;
93
94     int to = ((inter_rank + 1) % inter_comm_size) * num_core;
95     int from =
96         ((inter_rank + inter_comm_size - 1) % inter_comm_size) * num_core;
97     int i;
98
99     //printf("node %d to %d from %d\n",rank,to,from);
100
101     /* last segment may have a larger size since it also include the remainder */
102     int last_segment_ptr =
103         (inter_comm_size - 1) * (count / inter_comm_size) * extent;
104
105     for (i = 0; i < (inter_comm_size - 1); i++) {
106
107       send_offset =
108           ((inter_rank - 1 - i +
109             inter_comm_size) % inter_comm_size) * curr_size * extent;
110       recv_offset =
111           ((inter_rank - 2 - i +
112             inter_comm_size) % inter_comm_size) * curr_size * extent;
113
114       /* adjust size */
115       if (send_offset != last_segment_ptr)
116         send_count = curr_size;
117       else
118         send_count = curr_size + curr_remainder;
119
120       if (recv_offset != last_segment_ptr)
121         recv_count = curr_size;
122       else
123         recv_count = curr_size + curr_remainder;
124
125       smpi_mpi_sendrecv((char *) recv_buf + send_offset, send_count, dtype, to,
126                    tag + i, tmp_buf, recv_count, dtype, from, tag + i, comm,
127                    &status);
128
129       // result is in rbuf
130       smpi_op_apply(op, tmp_buf, (char *) recv_buf + recv_offset, &recv_count,
131                      &dtype);
132     }
133
134     // INTER: allgather
135     for (i = 0; i < (inter_comm_size - 1); i++) {
136
137       send_offset =
138           ((inter_rank - i +
139             inter_comm_size) % inter_comm_size) * curr_size * extent;
140       recv_offset =
141           ((inter_rank - 1 - i +
142             inter_comm_size) % inter_comm_size) * curr_size * extent;
143
144       /* adjust size */
145       if (send_offset != last_segment_ptr)
146         send_count = curr_size;
147       else
148         send_count = curr_size + curr_remainder;
149
150       if (recv_offset != last_segment_ptr)
151         recv_count = curr_size;
152       else
153         recv_count = curr_size + curr_remainder;
154
155       smpi_mpi_sendrecv((char *) recv_buf + send_offset, send_count, dtype, to,
156                    tag + i, (char *) recv_buf + recv_offset, recv_count, dtype,
157                    from, tag + i, comm, &status);
158
159     }
160   }
161
162
163
164   /*
165      // INTER_binomial_reduce
166
167      // only root node for each SMP
168      if (intra_rank == 0) {
169
170      mask = 1;
171      while (mask < inter_comm_size) {
172      if ((mask & inter_rank) == 0) {
173      src = (inter_rank | mask) * num_core;
174      if (src < comm_size) {
175      smpi_mpi_recv(tmp_buf, count, dtype, src, tag, comm, &status);
176      (* uop) (tmp_buf, recv_buf, &count, &dtype);
177      //printf("Node %d recv from node %d when mask is %d\n", rank, src, mask);
178      }
179      }
180      else {
181      dst = (inter_rank & (~mask)) * num_core;
182      smpi_mpi_send(recv_buf, count, dtype, dst, tag, comm);
183      //printf("Node %d send to node %d when mask is %d\n", rank, dst, mask);
184      break;
185      }
186      mask <<=1;
187      }
188      }
189    */
190
191   /*
192      // INTER_binomial_bcast
193
194
195      if (intra_rank == 0) {
196      mask = 1;
197      while (mask < inter_comm_size) {
198      if (inter_rank & mask) {
199      src = (inter_rank - mask) * num_core;
200      //printf("Node %d recv from node %d when mask is %d\n", rank, src, mask);
201      smpi_mpi_recv(recv_buf, count, dtype, src, tag, comm, &status);
202      break;
203      }
204      mask <<= 1;
205      }
206
207      mask >>= 1;
208      //printf("My rank = %d my mask = %d\n", rank,mask);
209
210      while (mask > 0) {
211      if (inter_rank < inter_comm_size) {
212      dst = (inter_rank + mask) * num_core;
213      if (dst < comm_size) {
214      //printf("Node %d send to node %d when mask is %d\n", rank, dst, mask);
215      smpi_mpi_send(recv_buf, count, dtype, dst, tag, comm);
216      }
217      }
218      mask >>= 1;
219      }
220      }
221    */
222
223
224   // INTRA_binomial_bcast
225
226   int num_core_in_current_smp = num_core;
227   if (inter_rank == (inter_comm_size - 1)) {
228     num_core_in_current_smp = comm_size - (inter_rank * num_core);
229   }
230   //  printf("Node %d num_core = %d\n",rank, num_core_in_current_smp);
231   mask = 1;
232   while (mask < num_core_in_current_smp) {
233     if (intra_rank & mask) {
234       src = (inter_rank * num_core) + (intra_rank - mask);
235       //printf("Node %d recv from node %d when mask is %d\n", rank, src, mask);
236       smpi_mpi_recv(recv_buf, count, dtype, src, tag, comm, &status);
237       break;
238     }
239     mask <<= 1;
240   }
241
242   mask >>= 1;
243   //printf("My rank = %d my mask = %d\n", rank,mask);
244
245   while (mask > 0) {
246     dst = (inter_rank * num_core) + (intra_rank + mask);
247     if (dst < comm_size) {
248       //printf("Node %d send to node %d when mask is %d\n", rank, dst, mask);
249       smpi_mpi_send(recv_buf, count, dtype, dst, tag, comm);
250     }
251     mask >>= 1;
252   }
253
254
255   free(tmp_buf);
256   return MPI_SUCCESS;
257 }