Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Make those functions static
[simgrid.git] / src / xbt / parmap.c
index b489549..e57eb4a 100644 (file)
@@ -5,26 +5,62 @@
  * under the terms of the license (GNU LGPL) which comes with this package. */
 #include "gras_config.h"
 #include <unistd.h>
+
 #ifndef _XBT_WIN32
 #include <sys/syscall.h>
 #endif
 
 #ifdef HAVE_FUTEX_H
-       #include <linux/futex.h>
-#else
-       #include "xbt/xbt_os_thread.h"
+#include <linux/futex.h>
 #endif
-#include <errno.h>
-#include "parmap_private.h"
+
+#include "xbt/parmap.h"
+#include "xbt/log.h"
+#include "xbt/function_types.h"
+#include "xbt/dynar.h"
+#include "xbt/xbt_os_thread.h"
+#include "xbt/sysdep.h"
 
 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(xbt_parmap, xbt, "parmap: parallel map");
 XBT_LOG_NEW_SUBCATEGORY(xbt_parmap_unit, xbt_parmap, "parmap unit testing");
 
+typedef enum {
+  PARMAP_WORK = 0,
+  PARMAP_DESTROY
+} e_xbt_parmap_flag_t;
+
+#ifdef HAVE_FUTEX_H
+typedef struct s_xbt_event {
+  int work;
+  int done;
+  unsigned int thread_counter;
+  unsigned int threads_to_wait;
+} s_xbt_event_t, *xbt_event_t;
+
+static void xbt_event_init(xbt_event_t event);
+static void xbt_event_signal(xbt_event_t event);
+static void xbt_event_wait(xbt_event_t event);
+static void xbt_event_end(xbt_event_t event);
+#endif
+
+typedef struct s_xbt_parmap {
+  e_xbt_parmap_flag_t status;
+#ifdef HAVE_FUTEX_H
+  xbt_event_t sync_event;
+#endif
+  unsigned int num_workers;
+  unsigned int workers_max_id;
+  void_f_pvoid_t fun;
+  xbt_dynar_t data;
+  unsigned int index;
+} s_xbt_parmap_t;
+
 static void *_xbt_parmap_worker_main(void *parmap);
 #ifdef HAVE_FUTEX_H
-       static void futex_wait(int *uaddr, int val);
-       static void futex_wake(int *uaddr, int val);
+static void futex_wait(int *uaddr, int val);
+static void futex_wake(int *uaddr, int val);
 #endif
+
 xbt_parmap_t xbt_parmap_new(unsigned int num_workers)
 {
   unsigned int i;
@@ -43,7 +79,7 @@ xbt_parmap_t xbt_parmap_new(unsigned int num_workers)
   parmap->sync_event->threads_to_wait = num_workers;
 #endif
   /* Create the pool of worker threads */
-  for(i=0; i < num_workers; i++){
+  for (i = 0; i < num_workers; i++) {
     worker = xbt_os_thread_create(NULL, _xbt_parmap_worker_main, parmap, NULL);
     xbt_os_thread_detach(worker);
   }
@@ -54,8 +90,7 @@ xbt_parmap_t xbt_parmap_new(unsigned int num_workers)
 }
 
 void xbt_parmap_destroy(xbt_parmap_t parmap)
-{ 
-  XBT_DEBUG("Destroy parmap %p", parmap);
+{
   parmap->status = PARMAP_DESTROY;
 #ifdef HAVE_FUTEX_H
   xbt_event_signal(parmap->sync_event);
@@ -64,57 +99,61 @@ void xbt_parmap_destroy(xbt_parmap_t parmap)
   xbt_free(parmap);
 }
 
- void xbt_parmap_apply(xbt_parmap_t parmap, void_f_pvoid_t fun, xbt_dynar_t data)
+void xbt_parmap_apply(xbt_parmap_t parmap, void_f_pvoid_t fun, xbt_dynar_t data)
 {
   /* Assign resources to worker threads*/
   parmap->fun = fun;
   parmap->data = data;
+  parmap->index = 0;
 #ifdef HAVE_FUTEX_H
   xbt_event_signal(parmap->sync_event);
 #endif
   XBT_DEBUG("Job done");
 }
 
+void* xbt_parmap_next(xbt_parmap_t parmap)
+{
+  unsigned int index = __sync_fetch_and_add(&parmap->index, 1);
+  if (index < xbt_dynar_length(parmap->data)) {
+    return xbt_dynar_get_as(parmap->data, index, void*);
+  }
+  return NULL;
+}
+
+unsigned long xbt_parmap_get_worker_id(xbt_parmap_t parmap)
+{
+  return (unsigned long) xbt_os_thread_get_extra_data();
+}
+
 static void *_xbt_parmap_worker_main(void *arg)
 {
-  unsigned int data_start, data_end, data_size, worker_id;
-  xbt_parmap_t parmap = (xbt_parmap_t)arg;
+  unsigned int worker_id;
+  xbt_parmap_t parmap = (xbt_parmap_t) arg;
 
   /* Fetch a worker id */
   worker_id = __sync_fetch_and_add(&parmap->workers_max_id, 1);
-  xbt_os_thread_set_extra_data((void *)(unsigned long)worker_id);
+  xbt_os_thread_set_extra_data((void*) (unsigned long) worker_id);
 
   XBT_DEBUG("New worker thread created (%u)", worker_id);
   
   /* Worker's main loop */
-  while(1){
+  while (1) {
 #ifdef HAVE_FUTEX_H
     xbt_event_wait(parmap->sync_event);
 #endif
-    if(parmap->status == PARMAP_WORK){
-      XBT_DEBUG("Worker %u got a job", worker_id);
+    if (parmap->status == PARMAP_WORK) {
 
-      /* Compute how much data does every worker gets */
-      data_size = (xbt_dynar_length(parmap->data) / parmap->num_workers)
-                  + ((xbt_dynar_length(parmap->data) % parmap->num_workers) ? 1 : 0);
-
-      /* Each worker data segment starts in a position associated with its id*/
-      data_start = data_size * worker_id;
-
-      /* The end of the worker data segment must be bounded by the end of the data vector */
-      data_end = MIN(data_start + data_size, xbt_dynar_length(parmap->data));
-
-      XBT_DEBUG("Worker %u: data_start=%u data_end=%u (data_size=%u)",
-          worker_id, data_start, data_end, data_size);
+      XBT_DEBUG("Worker %u got a job", worker_id);
 
-      /* While the worker don't pass the end of it data segment apply the function */
-      while(data_start < data_end){
-        parmap->fun(*(void **)xbt_dynar_get_ptr(parmap->data, data_start));
-        data_start++;
+      void* work = xbt_parmap_next(parmap);
+      if (work != NULL) {
+        parmap->fun(work);
       }
 
+      XBT_DEBUG("Worker %u has finished", worker_id);
+
     /* We are destroying the parmap */
-    }else{
+    } else {
 #ifdef HAVE_FUTEX_H
       xbt_event_end(parmap->sync_event);
 #endif
@@ -137,14 +176,15 @@ static void futex_wake(int *uaddr, int val)
   syscall(SYS_futex, uaddr, FUTEX_WAKE_PRIVATE, val, NULL, NULL, 0);
 }
 
-void xbt_event_init(xbt_event_t event)
+static void xbt_event_init(xbt_event_t event)
 {
   int myflag = event->done;
-  if(event->thread_counter < event->threads_to_wait)
+  if (event->thread_counter < event->threads_to_wait) {
     futex_wait(&event->done, myflag);
+  }
 }
 
-void xbt_event_signal(xbt_event_t event)
+static void xbt_event_signal(xbt_event_t event)
 {
   int myflag = event->done;
   event->thread_counter = 0;
@@ -153,14 +193,14 @@ void xbt_event_signal(xbt_event_t event)
   futex_wait(&event->done, myflag);
 }
 
-void xbt_event_wait(xbt_event_t event)
+static void xbt_event_wait(xbt_event_t event)
 {
   int myflag;
   unsigned int mycount;
 
   myflag = event->work;
   mycount = __sync_add_and_fetch(&event->thread_counter, 1);
-  if(mycount == event->threads_to_wait){
+  if (mycount == event->threads_to_wait) {
     event->done++;
     futex_wake(&event->done, 1);
   }
@@ -168,14 +208,12 @@ void xbt_event_wait(xbt_event_t event)
   futex_wait(&event->work, myflag);
 }
 
-void xbt_event_end(xbt_event_t event)
+static void xbt_event_end(xbt_event_t event)
 {
-  int myflag;
   unsigned int mycount;
 
-  myflag = event->work;
   mycount = __sync_add_and_fetch(&event->thread_counter, 1);
-  if(mycount == event->threads_to_wait){
+  if (mycount == event->threads_to_wait) {
     event->done++;
     futex_wake(&event->done, 1);
   }
@@ -189,8 +227,6 @@ void xbt_event_end(xbt_event_t event)
 XBT_TEST_SUITE("parmap", "Parallel Map");
 XBT_LOG_EXTERNAL_DEFAULT_CATEGORY(xbt_parmap_unit);
 
-
-
 xbt_parmap_t parmap;
 
 void fun(void *arg);
@@ -204,18 +240,19 @@ XBT_TEST_UNIT("basic", test_parmap_basic, "Basic usage")
 {
   xbt_test_add("Create the parmap");
 
-  unsigned long i,j;
+  unsigned long i, j;
   xbt_dynar_t data = xbt_dynar_new(sizeof(void *), NULL);
 
   /* Create the parallel map */
   parmap = xbt_parmap_new(10);
 
-  for(j=0; j < 100; j++){
+  for(j = 0; j < 100; j++) {
     xbt_dynar_push_as(data, void *, (void *)j);
   }
 
-  for(i=0; i < 5; i++)
+  for (i = 0; i < 5; i++) {
     xbt_parmap_apply(parmap, fun, data);
+  }
 
   /* Destroy the parmap */
   xbt_parmap_destroy(parmap);