Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
bee18b23b864dee5a7d3a5bff8152cebcab8c051
[simgrid.git] / src / smpi / colls / allreduce-smp-rsag.cpp
1 /* Copyright (c) 2013-2014. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "colls_private.h"
8
9 /*
10 This fucntion performs all-reduce operation as follow.
11 1) binomial_tree reduce inside each SMP node
12 2) reduce-scatter -inter between root of each SMP node
13 3) allgather - inter between root of each SMP node
14 4) binomial_tree bcast inside each SMP node
15 */
16 int smpi_coll_tuned_allreduce_smp_rsag(void *send_buf, void *recv_buf,
17                                        int count, MPI_Datatype dtype, MPI_Op op,
18                                        MPI_Comm comm)
19 {
20   int comm_size, rank;
21   void *tmp_buf;
22   int tag = COLL_TAG_ALLREDUCE;
23   int mask, src, dst;
24   MPI_Status status;
25   if(comm->get_leaders_comm()==MPI_COMM_NULL){
26     comm->init_smp();
27   }
28   int num_core=1;
29   if (comm->is_uniform()){
30     num_core = comm->get_intra_comm()->size();
31   }
32   /*
33      #ifdef MPICH2_REDUCTION
34      MPI_User_function * uop = MPIR_Op_table[op % 16 - 1];
35      #else
36      MPI_User_function *uop;
37      struct MPIR_OP *op_ptr;
38      op_ptr = MPIR_ToPointer(op);
39      uop  = op_ptr->op;
40      #endif
41    */
42   comm_size = comm->size();
43   rank = comm->rank();
44   MPI_Aint extent;
45   extent = smpi_datatype_get_extent(dtype);
46   tmp_buf = (void *) smpi_get_tmp_sendbuffer(count * extent);
47
48   int intra_rank, inter_rank;
49   intra_rank = rank % num_core;
50   inter_rank = rank / num_core;
51
52   //printf("node %d intra_rank = %d, inter_rank = %d\n", rank, intra_rank, inter_rank);
53
54   int inter_comm_size = (comm_size + num_core - 1) / num_core;
55
56   if (!rank) {
57     //printf("intra com size = %d\n",num_core);
58     //printf("inter com size = %d\n",inter_comm_size);
59   }
60
61
62   Request::sendrecv(send_buf, count, dtype, rank, tag,
63                recv_buf, count, dtype, rank, tag, comm, &status);
64
65
66   // SMP_binomial_reduce
67   mask = 1;
68   while (mask < num_core) {
69     if ((mask & intra_rank) == 0) {
70       src = (inter_rank * num_core) + (intra_rank | mask);
71       //      if (src < ((inter_rank + 1) * num_core)) {
72       if (src < comm_size) {
73         Request::recv(tmp_buf, count, dtype, src, tag, comm, &status);
74         if(op!=MPI_OP_NULL) op->apply( tmp_buf, recv_buf, &count, &dtype);
75         //printf("Node %d recv from node %d when mask is %d\n", rank, src, mask);
76       }
77     } else {
78
79       dst = (inter_rank * num_core) + (intra_rank & (~mask));
80       Request::send(recv_buf, count, dtype, dst, tag, comm);
81       //printf("Node %d send to node %d when mask is %d\n", rank, dst, mask);
82       break;
83     }
84     mask <<= 1;
85   }
86
87
88
89   // INTER: reduce-scatter
90   if (intra_rank == 0) {
91     int send_offset, recv_offset;
92     int seg_count = count / inter_comm_size;
93     int to = ((inter_rank + 1) % inter_comm_size) * num_core;
94     int from =
95         ((inter_rank + inter_comm_size - 1) % inter_comm_size) * num_core;
96     int i;
97
98     //printf("node %d to %d from %d\n",rank,to,from);
99
100     for (i = 0; i < (inter_comm_size - 1); i++) {
101
102       send_offset =
103           ((inter_rank - 1 - i +
104             inter_comm_size) % inter_comm_size) * seg_count * extent;
105       recv_offset =
106           ((inter_rank - 2 - i +
107             inter_comm_size) % inter_comm_size) * seg_count * extent;
108
109       Request::sendrecv((char *) recv_buf + send_offset, seg_count, dtype, to,
110                    tag + i, tmp_buf, seg_count, dtype, from, tag + i, comm,
111                    &status);
112
113       // result is in rbuf
114       if(op!=MPI_OP_NULL) op->apply( tmp_buf, (char *) recv_buf + recv_offset, &seg_count,
115                      &dtype);
116     }
117
118     // INTER: allgather
119     for (i = 0; i < (inter_comm_size - 1); i++) {
120
121       send_offset =
122           ((inter_rank - i +
123             inter_comm_size) % inter_comm_size) * seg_count * extent;
124       recv_offset =
125           ((inter_rank - 1 - i +
126             inter_comm_size) % inter_comm_size) * seg_count * extent;
127
128       Request::sendrecv((char *) recv_buf + send_offset, seg_count, dtype, to,
129                    tag + i, (char *) recv_buf + recv_offset, seg_count, dtype,
130                    from, tag + i, comm, &status);
131
132     }
133   }
134
135
136
137      // INTER_binomial_reduce
138
139      // only root node for each SMP
140 //     if (intra_rank == 0) {
141 //
142 //     mask = 1;
143 //     while (mask < inter_comm_size) {
144 //     if ((mask & inter_rank) == 0) {
145 //     src = (inter_rank | mask) * num_core;
146 //     if (src < comm_size) {
147 //     Request::recv(tmp_buf, count, dtype, src, tag, comm, &status);
148 //     (* uop) (tmp_buf, recv_buf, &count, &dtype);
149      //printf("Node %d recv from node %d when mask is %d\n", rank, src, mask);
150 //     }
151 //     }
152 //     else {
153 //     dst = (inter_rank & (~mask)) * num_core;
154 //     Request::send(recv_buf, count, dtype, dst, tag, comm);
155      //printf("Node %d send to node %d when mask is %d\n", rank, dst, mask);
156 //     break;
157 //     }
158 //     mask <<=1;
159 //     }
160 //     }
161
162      // INTER_binomial_bcast
163
164
165 //     if (intra_rank == 0) {
166 //     mask = 1;
167 //     while (mask < inter_comm_size) {
168 //     if (inter_rank & mask) {
169 //     src = (inter_rank - mask) * num_core;
170      //printf("Node %d recv from node %d when mask is %d\n", rank, src, mask);
171 //     Request::recv(recv_buf, count, dtype, src, tag, comm, &status);
172 //     break;
173 //     }
174 //     mask <<= 1;
175 //     }
176 //
177 //     mask >>= 1;
178      //printf("My rank = %d my mask = %d\n", rank,mask);
179
180 //     while (mask > 0) {
181 //     if (inter_rank < inter_comm_size) {
182 //     dst = (inter_rank + mask) * num_core;
183 //     if (dst < comm_size) {
184      //printf("Node %d send to node %d when mask is %d\n", rank, dst, mask);
185 //     Request::send(recv_buf, count, dtype, dst, tag, comm);
186 //     }
187 //     }
188 //     mask >>= 1;
189 //     }
190 //     }
191
192
193   // INTRA_binomial_bcast
194
195   int num_core_in_current_smp = num_core;
196   if (inter_rank == (inter_comm_size - 1)) {
197     num_core_in_current_smp = comm_size - (inter_rank * num_core);
198   }
199   //  printf("Node %d num_core = %d\n",rank, num_core_in_current_smp);
200   mask = 1;
201   while (mask < num_core_in_current_smp) {
202     if (intra_rank & mask) {
203       src = (inter_rank * num_core) + (intra_rank - mask);
204       //printf("Node %d recv from node %d when mask is %d\n", rank, src, mask);
205       Request::recv(recv_buf, count, dtype, src, tag, comm, &status);
206       break;
207     }
208     mask <<= 1;
209   }
210
211   mask >>= 1;
212   //printf("My rank = %d my mask = %d\n", rank,mask);
213
214   while (mask > 0) {
215     dst = (inter_rank * num_core) + (intra_rank + mask);
216     if (dst < comm_size) {
217       //printf("Node %d send to node %d when mask is %d\n", rank, dst, mask);
218       Request::send(recv_buf, count, dtype, dst, tag, comm);
219     }
220     mask >>= 1;
221   }
222
223   smpi_free_tmp_buffer(tmp_buf);
224   return MPI_SUCCESS;
225 }