Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
SMPI colls in not really C++. But cleaner than before.
[simgrid.git] / src / smpi / colls / allreduce / allreduce-smp-rsag-lr.cpp
1 /* Copyright (c) 2013-2014. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "../colls_private.h"
8 //#include <star-reduction.c>
9
10 /*
11 This fucntion performs all-reduce operation as follow.
12 1) binomial_tree reduce inside each SMP node
13 2) reduce-scatter -inter between root of each SMP node
14 3) allgather - inter between root of each SMP node
15 4) binomial_tree bcast inside each SMP node
16 */
17 int Coll_allreduce_smp_rsag_lr::allreduce(void *send_buf, void *recv_buf,
18                                           int count, MPI_Datatype dtype,
19                                           MPI_Op op, MPI_Comm comm)
20 {
21   int comm_size, rank;
22   void *tmp_buf;
23   int tag = COLL_TAG_ALLREDUCE;
24   int mask, src, dst;
25   MPI_Status status;
26   if(comm->get_leaders_comm()==MPI_COMM_NULL){
27     comm->init_smp();
28   }
29   int num_core=1;
30   if (comm->is_uniform()){
31     num_core = comm->get_intra_comm()->size();
32   }
33   /*
34      #ifdef MPICH2_REDUCTION
35      MPI_User_function * uop = MPIR_Op_table[op % 16 - 1];
36      #else
37      MPI_User_function *uop;
38      struct MPIR_OP *op_ptr;
39      op_ptr = MPIR_ToPointer(op);
40      uop  = op_ptr->op;
41      #endif
42    */
43   comm_size = comm->size();
44   rank = comm->rank();
45   MPI_Aint extent;
46   extent = dtype->get_extent();
47   tmp_buf = (void *) smpi_get_tmp_sendbuffer(count * extent);
48
49   int intra_rank, inter_rank;
50   intra_rank = rank % num_core;
51   inter_rank = rank / num_core;
52
53   //printf("node %d intra_rank = %d, inter_rank = %d\n", rank, intra_rank, inter_rank);
54
55   int inter_comm_size = (comm_size + num_core - 1) / num_core;
56
57   if (!rank) {
58     //printf("intra com size = %d\n",num_core);
59     //printf("inter com size = %d\n",inter_comm_size);
60   }
61
62
63   Request::sendrecv(send_buf, count, dtype, rank, tag,
64                recv_buf, count, dtype, rank, tag, comm, &status);
65
66
67   // SMP_binomial_reduce
68   mask = 1;
69   while (mask < num_core) {
70     if ((mask & intra_rank) == 0) {
71       src = (inter_rank * num_core) + (intra_rank | mask);
72       //      if (src < ((inter_rank + 1) * num_core)) {
73       if (src < comm_size) {
74         Request::recv(tmp_buf, count, dtype, src, tag, comm, &status);
75         if(op!=MPI_OP_NULL) op->apply( tmp_buf, recv_buf, &count, dtype);
76         //printf("Node %d recv from node %d when mask is %d\n", rank, src, mask);
77       }
78     } else {
79
80       dst = (inter_rank * num_core) + (intra_rank & (~mask));
81       Request::send(recv_buf, count, dtype, dst, tag, comm);
82       //printf("Node %d send to node %d when mask is %d\n", rank, dst, mask);
83       break;
84     }
85     mask <<= 1;
86   }
87
88
89
90   // INTER: reduce-scatter
91   if (intra_rank == 0) {
92     int send_offset, recv_offset;
93     int send_count, recv_count;
94     int curr_size = count / inter_comm_size;
95     int curr_remainder = count % inter_comm_size;
96
97     int to = ((inter_rank + 1) % inter_comm_size) * num_core;
98     int from =
99         ((inter_rank + inter_comm_size - 1) % inter_comm_size) * num_core;
100     int i;
101
102     //printf("node %d to %d from %d\n",rank,to,from);
103
104     /* last segment may have a larger size since it also include the remainder */
105     int last_segment_ptr =
106         (inter_comm_size - 1) * (count / inter_comm_size) * extent;
107
108     for (i = 0; i < (inter_comm_size - 1); i++) {
109
110       send_offset =
111           ((inter_rank - 1 - i +
112             inter_comm_size) % inter_comm_size) * curr_size * extent;
113       recv_offset =
114           ((inter_rank - 2 - i +
115             inter_comm_size) % inter_comm_size) * curr_size * extent;
116
117       /* adjust size */
118       if (send_offset != last_segment_ptr)
119         send_count = curr_size;
120       else
121         send_count = curr_size + curr_remainder;
122
123       if (recv_offset != last_segment_ptr)
124         recv_count = curr_size;
125       else
126         recv_count = curr_size + curr_remainder;
127
128       Request::sendrecv((char *) recv_buf + send_offset, send_count, dtype, to,
129                    tag + i, tmp_buf, recv_count, dtype, from, tag + i, comm,
130                    &status);
131
132       // result is in rbuf
133       if(op!=MPI_OP_NULL) op->apply( tmp_buf, (char *) recv_buf + recv_offset, &recv_count,
134                      dtype);
135     }
136
137     // INTER: allgather
138     for (i = 0; i < (inter_comm_size - 1); i++) {
139
140       send_offset =
141           ((inter_rank - i +
142             inter_comm_size) % inter_comm_size) * curr_size * extent;
143       recv_offset =
144           ((inter_rank - 1 - i +
145             inter_comm_size) % inter_comm_size) * curr_size * extent;
146
147       /* adjust size */
148       if (send_offset != last_segment_ptr)
149         send_count = curr_size;
150       else
151         send_count = curr_size + curr_remainder;
152
153       if (recv_offset != last_segment_ptr)
154         recv_count = curr_size;
155       else
156         recv_count = curr_size + curr_remainder;
157
158       Request::sendrecv((char *) recv_buf + send_offset, send_count, dtype, to,
159                    tag + i, (char *) recv_buf + recv_offset, recv_count, dtype,
160                    from, tag + i, comm, &status);
161
162     }
163   }
164
165
166
167      // INTER_binomial_reduce
168
169      // only root node for each SMP
170   /*
171      if (intra_rank == 0) {
172
173      mask = 1;
174      while (mask < inter_comm_size) {
175      if ((mask & inter_rank) == 0) {
176      src = (inter_rank | mask) * num_core;
177      if (src < comm_size) {
178      Request::recv(tmp_buf, count, dtype, src, tag, comm, &status);
179      (* uop) (tmp_buf, recv_buf, &count, &dtype);
180      //printf("Node %d recv from node %d when mask is %d\n", rank, src, mask);
181      }
182      }
183      else {
184      dst = (inter_rank & (~mask)) * num_core;
185      Request::send(recv_buf, count, dtype, dst, tag, comm);
186      //printf("Node %d send to node %d when mask is %d\n", rank, dst, mask);
187      break;
188      }
189      mask <<=1;
190      }
191      }
192    */
193
194      // INTER_binomial_bcast
195
196
197 //     if (intra_rank == 0) {
198 //     mask = 1;
199 //     while (mask < inter_comm_size) {
200 //     if (inter_rank & mask) {
201 //     src = (inter_rank - mask) * num_core;
202      //printf("Node %d recv from node %d when mask is %d\n", rank, src, mask);
203 //     Request::recv(recv_buf, count, dtype, src, tag, comm, &status);
204 //     break;
205 //     }
206 //     mask <<= 1;
207 //     }
208 //
209 //     mask >>= 1;
210      //printf("My rank = %d my mask = %d\n", rank,mask);
211
212 //     while (mask > 0) {
213 //     if (inter_rank < inter_comm_size) {
214 //     dst = (inter_rank + mask) * num_core;
215 //     if (dst < comm_size) {
216 //     //printf("Node %d send to node %d when mask is %d\n", rank, dst, mask);
217 //     Request::send(recv_buf, count, dtype, dst, tag, comm);
218 //     }
219 //     }
220 //     mask >>= 1;
221 //     }
222 //     }
223
224   // INTRA_binomial_bcast
225
226   int num_core_in_current_smp = num_core;
227   if (inter_rank == (inter_comm_size - 1)) {
228     num_core_in_current_smp = comm_size - (inter_rank * num_core);
229   }
230   //  printf("Node %d num_core = %d\n",rank, num_core_in_current_smp);
231   mask = 1;
232   while (mask < num_core_in_current_smp) {
233     if (intra_rank & mask) {
234       src = (inter_rank * num_core) + (intra_rank - mask);
235       //printf("Node %d recv from node %d when mask is %d\n", rank, src, mask);
236       Request::recv(recv_buf, count, dtype, src, tag, comm, &status);
237       break;
238     }
239     mask <<= 1;
240   }
241
242   mask >>= 1;
243   //printf("My rank = %d my mask = %d\n", rank,mask);
244
245   while (mask > 0) {
246     dst = (inter_rank * num_core) + (intra_rank + mask);
247     if (dst < comm_size) {
248       //printf("Node %d send to node %d when mask is %d\n", rank, dst, mask);
249       Request::send(recv_buf, count, dtype, dst, tag, comm);
250     }
251     mask >>= 1;
252   }
253
254
255   smpi_free_tmp_buffer(tmp_buf);
256   return MPI_SUCCESS;
257 }