Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
cleanup doesn't seem to be up. no extra leak. kill!
[simgrid.git] / examples / msg / pmm / msg_pmm.c
1 /* pmm - parallel matrix multiplication "double diffusion"                  */
2
3 /* Copyright (c) 2006-2015. The SimGrid Team.
4  * All rights reserved.                                                     */
5
6 /* This program is free software; you can redistribute it and/or modify it
7  * under the terms of the license (GNU LGPL) which comes with this package. */
8
9 #include "simgrid/msg.h"
10 #include "xbt/matrix.h"
11 #include "xbt/log.h"
12
13 // #define BENCH_THIS_CODE /* Will only work from within the source tree as we require xbt/xbt_os_time.h, that is not public yet) */
14 #ifdef BENCH_THIS_CODE
15 #include "xbt/xbt_os_time.h"
16 #endif
17
18 /** @addtogroup MSG_examples
19  * 
20  * - <b>pmm/msg_pmm.c</b>: Parallel Matrix Multiplication is a little
21  *   application. This is something that most MPI developper have
22  *   written during their class, here implemented using MSG instead
23  *   of MPI. 
24  */
25
26 XBT_LOG_NEW_DEFAULT_CATEGORY(msg_pmm,
27                              "Messages specific for this msg example");
28
29 /* This example should always be executed using a deployment of
30  * GRID_SIZE * GRID_SIZE nodes. */
31 #define GRID_SIZE 3    /* Modify to adjust the grid's size */
32 #define NODE_MATRIX_SIZE 300  /* Amount of work done by each node*/
33
34 #define GRID_NUM_NODES GRID_SIZE * GRID_SIZE
35 #define MATRIX_SIZE NODE_MATRIX_SIZE * GRID_SIZE
36 #define MAILBOX_NAME_SIZE 10
37 #define NEIGHBOURS_COUNT GRID_SIZE - 1
38
39 /*
40  * The job sent to every node
41  */
42 typedef struct s_node_job{
43   int row;
44   int col;
45   int nodes_in_row[NEIGHBOURS_COUNT];
46   int nodes_in_col[NEIGHBOURS_COUNT];
47   xbt_matrix_t A;
48   xbt_matrix_t B;
49 } s_node_job_t, *node_job_t;
50
51 /*
52  * Structure for recovering results
53  */
54 typedef struct s_result {
55   int row;
56   int col;
57   xbt_matrix_t sC;
58 } s_result_t, *result_t;
59
60 int node(int argc, char **argv);
61 static void create_jobs(xbt_matrix_t A, xbt_matrix_t B, node_job_t *jobs);
62 static void broadcast_jobs(node_job_t *jobs);
63 static node_job_t wait_job(int selfid);
64 static void broadcast_matrix(xbt_matrix_t M, int num_nodes, int *nodes);
65 static void get_sub_matrix(xbt_matrix_t *sM, int selfid);
66 static void receive_results(result_t *results);
67
68 int node(int argc, char **argv)
69 {
70   int k, myid;
71   char my_mbox[MAILBOX_NAME_SIZE];
72   node_job_t myjob, jobs[GRID_NUM_NODES];
73   xbt_matrix_t A, B, C, sA, sB, sC;
74   result_t result;
75
76   xbt_assert(argc != 1, "Wrong number of arguments for this node");
77
78   /* Initialize the node's data-structures */
79   myid = atoi(argv[1]);
80   snprintf(my_mbox, MAILBOX_NAME_SIZE - 1, "%d", myid);
81   sC = xbt_matrix_double_new_zeros(NODE_MATRIX_SIZE, NODE_MATRIX_SIZE);
82
83   if(myid == 0){
84     /* Create the matrices to multiply and one to store the result */
85     A = xbt_matrix_double_new_id(MATRIX_SIZE, MATRIX_SIZE);
86     B = xbt_matrix_double_new_seq(MATRIX_SIZE, MATRIX_SIZE);
87     C = xbt_matrix_double_new_zeros(MATRIX_SIZE, MATRIX_SIZE);
88
89     /* Create the nodes' jobs */
90     create_jobs(A, B, jobs);
91
92     /* Get own job first */
93     myjob = jobs[0];
94
95     /* Broadcast the rest of the jobs to the other nodes */
96     broadcast_jobs(jobs + 1);
97
98   }else{
99     A = B = C = NULL;           /* Avoid warning at compilation */
100     myjob = wait_job(myid);
101   }
102
103   /* Multiplication main-loop */
104   XBT_VERB("Start Multiplication's Main-loop");
105   for(k=0; k < GRID_SIZE; k++){
106     if(k == myjob->col){
107       XBT_VERB("Broadcast sA(%d,%d) to row %d", myjob->row, k, myjob->row);
108       broadcast_matrix(myjob->A, NEIGHBOURS_COUNT, myjob->nodes_in_row);
109     }
110
111     if(k == myjob->row){
112       XBT_VERB("Broadcast sB(%d,%d) to col %d", k, myjob->col, myjob->col);
113       broadcast_matrix(myjob->B, NEIGHBOURS_COUNT, myjob->nodes_in_col);
114     }
115
116     if(myjob->row == k && myjob->col == k){
117       xbt_matrix_double_addmult(myjob->A, myjob->B, sC);
118     }else if(myjob->row == k){
119       get_sub_matrix(&sA, myid);
120       xbt_matrix_double_addmult(sA, myjob->B, sC);
121       xbt_matrix_free(sA);
122     }else if(myjob->col == k){
123       get_sub_matrix(&sB, myid);
124       xbt_matrix_double_addmult(myjob->A, sB, sC);
125       xbt_matrix_free(sB);
126     }else{
127       get_sub_matrix(&sA, myid);
128       get_sub_matrix(&sB, myid);
129       xbt_matrix_double_addmult(sA, sB, sC);
130       xbt_matrix_free(sA);
131       xbt_matrix_free(sB);
132     }
133   }
134
135   /* Node 0: gather the results and reconstruct the final matrix */
136   if(myid == 0){
137     int node;
138     result_t results[GRID_NUM_NODES] = {0};
139
140     XBT_VERB("Multiplication done.");
141
142     /* Get the result from the nodes in the GRID */
143     receive_results(results);
144
145     /* First add our results */
146     xbt_matrix_copy_values(C, sC, NODE_MATRIX_SIZE, NODE_MATRIX_SIZE,
147                            0, 0, 0, 0, NULL);
148
149     /* Reconstruct the rest of the result matrix */
150     for (node = 1; node < GRID_NUM_NODES; node++){
151       xbt_matrix_copy_values(C, results[node]->sC,
152                              NODE_MATRIX_SIZE, NODE_MATRIX_SIZE,
153                              NODE_MATRIX_SIZE * results[node]->row,
154                              NODE_MATRIX_SIZE * results[node]->col,
155                              0, 0, NULL);
156       xbt_matrix_free(results[node]->sC);
157       xbt_free(results[node]);
158     }
159
160     //xbt_matrix_dump(C, "C:res", 0, xbt_matrix_dump_display_double);
161
162     xbt_matrix_free(A);
163     xbt_matrix_free(B);
164     xbt_matrix_free(C);
165
166   /* The rest: return the result to node 0 */
167   }else{
168     msg_task_t task;
169
170     XBT_VERB("Multiplication done. Send the sub-result.");
171
172     result = xbt_new0(s_result_t, 1);
173     result->row = myjob->row;
174     result->col = myjob->col;
175     result->sC =
176       xbt_matrix_new_sub(sC, NODE_MATRIX_SIZE, NODE_MATRIX_SIZE, 0, 0, NULL);
177     task = MSG_task_create("result",100,100,result);
178     MSG_task_send(task, "0");
179   }
180
181   /* Clean up and finish*/
182   xbt_matrix_free(sC);
183   xbt_matrix_free(myjob->A);
184   xbt_matrix_free(myjob->B);
185   xbt_free(myjob);
186   return 0;
187 }
188
189 /*
190  * Broadcast the jobs to the nodes of the grid (except to node 0)
191  */
192 static void broadcast_jobs(node_job_t *jobs)
193 {
194   int node;
195   char node_mbox[MAILBOX_NAME_SIZE];
196   msg_task_t task;
197   msg_comm_t comms[GRID_NUM_NODES - 1] = {0};
198
199   XBT_VERB("Broadcast Jobs");
200   for (node = 1; node < GRID_NUM_NODES; node++){
201     task = MSG_task_create("Job", 100, 100, jobs[node-1]);
202     snprintf(node_mbox, MAILBOX_NAME_SIZE - 1, "%d", node);
203     comms[node-1] = MSG_task_isend(task, node_mbox);
204   }
205
206   MSG_comm_waitall(comms, GRID_NUM_NODES-1, -1);
207   for (node = 1; node < GRID_NUM_NODES; node++)
208     MSG_comm_destroy(comms[node - 1]);
209 }
210
211 static node_job_t wait_job(int selfid)
212 {
213   msg_task_t task = NULL;
214   char self_mbox[MAILBOX_NAME_SIZE];
215   node_job_t job;
216   msg_error_t err;
217   snprintf(self_mbox, MAILBOX_NAME_SIZE - 1, "%d", selfid);
218   err = MSG_task_receive(&task, self_mbox);
219   xbt_assert(err == MSG_OK, "Error while receiving from %s (%d)",
220              self_mbox, (int)err);
221   job = (node_job_t)MSG_task_get_data(task);
222   MSG_task_destroy(task);
223   XBT_VERB("Got Job (%d,%d)", job->row, job->col);
224
225   return job;
226 }
227
228 static void broadcast_matrix(xbt_matrix_t M, int num_nodes, int *nodes)
229 {
230   int node;
231   char node_mbox[MAILBOX_NAME_SIZE];
232   msg_task_t task;
233   xbt_matrix_t sM;
234
235   for(node=0; node < num_nodes; node++){
236     snprintf(node_mbox, MAILBOX_NAME_SIZE - 1, "%d", nodes[node]);
237     sM = xbt_matrix_new_sub(M, NODE_MATRIX_SIZE, NODE_MATRIX_SIZE, 0, 0, NULL);
238     task = MSG_task_create("sub-matrix", 100, 100, sM);
239     MSG_task_dsend(task, node_mbox, NULL);
240     XBT_DEBUG("sub-matrix sent to %s", node_mbox);
241   }
242
243 }
244
245 static void get_sub_matrix(xbt_matrix_t *sM, int selfid)
246 {
247   msg_task_t task = NULL;
248   char node_mbox[MAILBOX_NAME_SIZE];
249   msg_error_t err;
250
251   XBT_VERB("Get sub-matrix");
252
253   snprintf(node_mbox, MAILBOX_NAME_SIZE - 1, "%d", selfid);
254   err = MSG_task_receive(&task, node_mbox);
255   if (err != MSG_OK)
256     xbt_die("Error while receiving from %s (%d)", node_mbox, (int)err);
257   *sM = (xbt_matrix_t)MSG_task_get_data(task);
258   MSG_task_destroy(task);
259 }
260
261 /**
262  * \brief Main function.
263  */
264 int main(int argc, char *argv[])
265 {
266 #ifdef BENCH_THIS_CODE
267   xbt_os_cputimer_t timer = xbt_os_timer_new();
268 #endif
269
270   MSG_init(&argc, argv);
271
272   char **options = &argv[1];
273   const char* platform_file = options[0];
274   const char* application_file = options[1];
275
276   MSG_create_environment(platform_file);
277
278   MSG_function_register("node", node);
279   MSG_launch_application(application_file);
280
281 #ifdef BENCH_THIS_CODE
282   xbt_os_cputimer_start(timer);
283 #endif
284   msg_error_t res = MSG_main();
285 #ifdef BENCH_THIS_CODE
286   xbt_os_cputimer_stop(timer);
287 #endif
288   XBT_CRITICAL("Simulated time: %g", MSG_get_clock());
289
290   return res != MSG_OK;
291 }
292
293 static void create_jobs(xbt_matrix_t A, xbt_matrix_t B, node_job_t *jobs)
294 {
295   int node, j, k, row = 0, col = 0;
296
297   for (node = 0; node < GRID_NUM_NODES; node++){
298     XBT_VERB("Create job %d", node);
299     jobs[node] = xbt_new0(s_node_job_t, 1);
300     jobs[node]->row = row;
301     jobs[node]->col = col;
302
303     /* Compute who are the nodes in the same row and column */
304     /* than the node receiving this job */
305     for (j = 0, k = 0; j < GRID_SIZE; j++) {
306       if (node != (GRID_SIZE * row) + j) {
307         jobs[node]->nodes_in_row[k] = (GRID_SIZE * row) + j;
308         k++;
309       }
310     }
311
312     for (j = 0, k = 0; j < GRID_SIZE; j++) {
313       if (node != (GRID_SIZE * j) + col) {
314         jobs[node]->nodes_in_col[k] = (GRID_SIZE * j) + col;
315         k++;
316       }
317     }
318
319     /* Assign a sub matrix of A and B to the job */
320     jobs[node]->A =
321       xbt_matrix_new_sub(A, NODE_MATRIX_SIZE, NODE_MATRIX_SIZE,
322                          NODE_MATRIX_SIZE * row, NODE_MATRIX_SIZE * col,
323                          NULL);
324     jobs[node]->B =
325       xbt_matrix_new_sub(B, NODE_MATRIX_SIZE, NODE_MATRIX_SIZE,
326                          NODE_MATRIX_SIZE * row, NODE_MATRIX_SIZE * col,
327                          NULL);
328
329     if (++col >= GRID_SIZE){
330       col = 0;
331       row++;
332     }
333   }
334 }
335
336 static void receive_results(result_t *results){
337   int node;
338   msg_comm_t comms[GRID_NUM_NODES-1] = {0};
339   msg_task_t tasks[GRID_NUM_NODES-1] = {0};
340
341   XBT_VERB("Receive Results.");
342
343   /* Get the result from the nodes in the GRID */
344   for (node = 1; node < GRID_NUM_NODES; node++){
345    comms[node-1] = MSG_task_irecv(&tasks[node-1], "0");
346   }
347
348   MSG_comm_waitall(comms, GRID_NUM_NODES - 1, -1);
349   for (node = 1; node < GRID_NUM_NODES; node++)
350     MSG_comm_destroy(comms[node - 1]);
351
352   /* Reconstruct the result matrix */
353   for (node = 1; node < GRID_NUM_NODES; node++){
354     results[node] = (result_t)MSG_task_get_data(tasks[node-1]);
355     MSG_task_destroy(tasks[node-1]);
356   }
357 }