Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Test if having futex.h.
[simgrid.git] / src / xbt / parmap.c
1 /* Copyright (c) 2004, 2005, 2007, 2009, 2010. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6 #include "gras_config.h"
7 #include <unistd.h>
8 #include <sys/syscall.h>
9 #ifdef HAVE_FUTEX_H
10         #include <linux/futex.h>
11 #else
12         #include "xbt/xbt_os_thread.h"
13 #endif
14 #include <errno.h>
15 #include "parmap_private.h"
16
17 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(xbt_parmap, xbt, "parmap: parallel map");
18 XBT_LOG_NEW_SUBCATEGORY(xbt_parmap_unit, xbt_parmap, "parmap unit testing");
19
20 static void *_xbt_parmap_worker_main(void *parmap);
21 #ifdef HAVE_FUTEX_H
22         static void futex_wait(int *uaddr, int val);
23         static void futex_wake(int *uaddr, int val);
24 #endif
25 xbt_parmap_t xbt_parmap_new(unsigned int num_workers)
26 {
27   unsigned int i;
28   xbt_os_thread_t worker = NULL;
29
30   DEBUG1("Create new parmap (%u workers)", num_workers);
31
32   /* Initialize the thread pool data structure */
33   xbt_parmap_t parmap = xbt_new0(s_xbt_parmap_t, 1);
34   #ifndef HAVE_FUTEX_H
35           parmap->workers_ready->mutex = xbt_os_mutex_init();
36           parmap->workers_ready->cond = xbt_os_cond_init();
37   #endif
38   parmap->num_workers = num_workers;
39   parmap->status = PARMAP_WORK;
40
41   parmap->workers_ready = xbt_new0(s_xbt_barrier_t, 1);
42   xbt_barrier_init(parmap->workers_ready, num_workers + 1);
43   parmap->workers_done = xbt_new0(s_xbt_barrier_t, 1);
44   xbt_barrier_init(parmap->workers_done, num_workers + 1);
45
46   /* Create the pool of worker threads */
47   for(i=0; i < num_workers; i++){
48     worker = xbt_os_thread_create(NULL, _xbt_parmap_worker_main, parmap, NULL);
49     xbt_os_thread_detach(worker);
50   }
51   
52   return parmap;
53 }
54
55 void xbt_parmap_destroy(xbt_parmap_t parmap)
56
57   DEBUG1("Destroy parmap %p", parmap);
58
59   parmap->status = PARMAP_DESTROY;
60
61   xbt_barrier_wait(parmap->workers_ready);
62   DEBUG0("Kill job sent");
63   xbt_barrier_wait(parmap->workers_done);
64
65   xbt_free(parmap->workers_ready);
66   xbt_free(parmap->workers_done);
67   xbt_free(parmap);
68 }
69
70  void xbt_parmap_apply(xbt_parmap_t parmap, void_f_pvoid_t fun, xbt_dynar_t data)
71 {
72   /* Assign resources to worker threads*/
73   parmap->fun = fun;
74   parmap->data = data;
75
76   /* Notify workers that there is a job */
77   xbt_barrier_wait(parmap->workers_ready);
78   DEBUG0("Job dispatched, lets wait...");
79   xbt_barrier_wait(parmap->workers_done);
80
81   DEBUG0("Job done");
82   parmap->fun = NULL;
83   parmap->data = NULL;
84 }
85
86 static void *_xbt_parmap_worker_main(void *arg)
87 {
88   unsigned int data_start, data_end, data_size, worker_id;
89   xbt_parmap_t parmap = (xbt_parmap_t)arg;
90
91   /* Fetch a worker id */
92   worker_id = __sync_fetch_and_add(&parmap->workers_max_id, 1);
93
94   DEBUG1("New worker thread created (%u)", worker_id);
95   
96   /* Worker's main loop */
97   while(1){
98     xbt_barrier_wait(parmap->workers_ready);
99
100     if(parmap->status == PARMAP_WORK){
101       DEBUG1("Worker %u got a job", worker_id);
102
103       /* Compute how much data does every worker gets */
104       data_size = (xbt_dynar_length(parmap->data) / parmap->num_workers)
105                   + ((xbt_dynar_length(parmap->data) % parmap->num_workers) ? 1 : 0);
106
107       /* Each worker data segment starts in a position associated with its id*/
108       data_start = data_size * worker_id;
109
110       /* The end of the worker data segment must be bounded by the end of the data vector */
111       data_end = MIN(data_start + data_size, xbt_dynar_length(parmap->data));
112
113       DEBUG4("Worker %u: data_start=%u data_end=%u (data_size=%u)",
114           worker_id, data_start, data_end, data_size);
115
116       /* While the worker don't pass the end of it data segment apply the function */
117       while(data_start < data_end){
118         parmap->fun(*(void **)xbt_dynar_get_ptr(parmap->data, data_start));
119         data_start++;
120       }
121
122       xbt_barrier_wait(parmap->workers_done);
123
124     /* We are destroying the parmap */
125     }else{
126       xbt_barrier_wait(parmap->workers_done);
127       DEBUG1("Shutting down worker %u", worker_id);
128       return NULL;
129     }
130   }
131 }
132
133 #ifdef HAVE_FUTEX_H
134         static void futex_wait(int *uaddr, int val)
135         {
136           DEBUG1("Waiting on futex %d", *uaddr);
137           syscall(SYS_futex, uaddr, FUTEX_WAIT_PRIVATE, val, NULL, NULL, 0);
138         }
139
140         static void futex_wake(int *uaddr, int val)
141         {
142           DEBUG1("Waking futex %d", *uaddr);
143           syscall(SYS_futex, uaddr, FUTEX_WAKE_PRIVATE, val, NULL, NULL, 0);
144         }
145 #endif
146
147 /* Futex based implementation of the barrier */
148 void xbt_barrier_init(xbt_barrier_t barrier, unsigned int threads_to_wait)
149 {
150   barrier->threads_to_wait = threads_to_wait;
151   barrier->thread_count = 0;
152 }
153
154 #ifdef HAVE_FUTEX_H
155         void xbt_barrier_wait(xbt_barrier_t barrier)
156         {
157           int myflag = 0;
158           unsigned int mycount = 0;
159
160           myflag = barrier->futex;
161           mycount = __sync_add_and_fetch(&barrier->thread_count, 1);
162           if(mycount < barrier->threads_to_wait){
163                 futex_wait(&barrier->futex, myflag);
164           }else{
165                 barrier->futex = __sync_add_and_fetch(&barrier->futex, 1);
166                 barrier->thread_count = 0;
167                 futex_wake(&barrier->futex, barrier->threads_to_wait);
168           }
169         }
170 #else
171         void xbt_barrier_wait(xbt_barrier_t barrier)
172         {
173           int myflag = 0;
174           unsigned int mycount = 0;
175
176           xbt_os_mutex_acquire(barrier->mutex);
177           //pthread_mutex_lock(&barrier->mutex);
178
179           barrier->thread_count++;
180           if(barrier->thread_count < barrier->threads_to_wait){
181                   xbt_os_cond_wait(barrier->cond,barrier->mutex);
182                   //pthread_cond_wait(&barrier->mutex,&barrier->cond);
183           }else{
184                 barrier->thread_count = 0;
185                 xbt_os_cond_broadcast(barrier->cond);
186                 //pthread_cond_broadcast(&barrier->mutex, &barrier->cond);
187           }
188           xbt_os_mutex_release(barrier->mutex);
189           //pthread_mutex_unlock(&barrier->mutex);
190         }
191 #endif
192
193 #ifdef SIMGRID_TEST
194 #include "xbt.h"
195 #include "xbt/ex.h"
196
197 XBT_TEST_SUITE("parmap", "Parallel Map");
198 XBT_LOG_EXTERNAL_DEFAULT_CATEGORY(xbt_parmap_unit);
199
200
201
202 xbt_parmap_t parmap;
203
204 void fun(void *arg);
205
206 void fun(void *arg)
207 {
208   //INFO1("I'm job %lu", (unsigned long)arg);
209 }
210
211 XBT_TEST_UNIT("basic", test_parmap_basic, "Basic usage")
212 {
213   xbt_test_add0("Create the parmap");
214
215   unsigned long i,j;
216   xbt_dynar_t data = xbt_dynar_new(sizeof(void *), NULL);
217
218   /* Create the parallel map */
219   parmap = xbt_parmap_new(10);
220
221   for(j=0; j < 100; j++){
222     xbt_dynar_push_as(data, void *, (void *)j);
223   }
224
225   for(i=0; i < 5; i++)
226     xbt_parmap_apply(parmap, fun, data);
227
228   /* Destroy the parmap */
229   xbt_parmap_destroy(parmap);
230 }
231
232 #endif /* SIMGRID_TEST */