Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Join worker threads on parmap destroy.
[simgrid.git] / src / xbt / parmap.c
index fa073e8..78dafe8 100644 (file)
@@ -1,9 +1,9 @@
-/* Copyright (c) 2004, 2005, 2007, 2009, 2010. The SimGrid Team.
+/* Copyright (c) 2004-2005, 2007, 2009-2013. The SimGrid Team.
  * All rights reserved.                                                     */
 
 /* This program is free software; you can redistribute it and/or modify it
  * under the terms of the license (GNU LGPL) which comes with this package. */
-#include "gras_config.h"
+#include "internal_config.h"
 #include <unistd.h>
 
 #ifndef _XBT_WIN32
@@ -12,6 +12,7 @@
 
 #ifdef HAVE_FUTEX_H
 #include <linux/futex.h>
+#include <limits.h>
 #endif
 
 #include "xbt/parmap.h"
@@ -20,9 +21,9 @@
 #include "xbt/dynar.h"
 #include "xbt/xbt_os_thread.h"
 #include "xbt/sysdep.h"
+#include "simix/smx_private.h"
 
 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(xbt_parmap, xbt, "parmap: parallel map");
-XBT_LOG_NEW_SUBCATEGORY(xbt_parmap_unit, xbt_parmap, "parmap unit testing");
 
 typedef enum {
   XBT_PARMAP_WORK,
@@ -52,6 +53,11 @@ static void xbt_parmap_busy_worker_signal(xbt_parmap_t parmap);
 static void xbt_parmap_busy_master_signal(xbt_parmap_t parmap);
 static void xbt_parmap_busy_worker_wait(xbt_parmap_t parmap, unsigned round);
 
+#ifdef HAVE_MC
+static void xbt_parmap_mc_work(xbt_parmap_t parmap, int worker_id);
+static void *xbt_parmap_mc_worker_main(void *arg);
+#endif
+
 /**
  * \brief Parallel map structure
  */
@@ -61,10 +67,19 @@ typedef struct s_xbt_parmap {
   unsigned thread_counter;         /**< number of workers that have done the work */
 
   unsigned int num_workers;        /**< total number of worker threads including the controller */
+  xbt_os_thread_t *workers;        /**< worker thread handlers */
   void_f_pvoid_t fun;              /**< function to run in parallel on each element of data */
   xbt_dynar_t data;                /**< parameters to pass to fun in parallel */
   unsigned int index;              /**< index of the next element of data to pick */
 
+#ifdef HAVE_MC
+  int finish;
+  void* ref_snapshot;
+  int_f_pvoid_pvoid_t snapshot_compare;
+  unsigned int length;
+  void* mc_data;
+#endif
+
   /* posix only */
   xbt_os_cond_t ready_cond;
   xbt_os_mutex_t ready_mutex;
@@ -79,6 +94,16 @@ typedef struct s_xbt_parmap {
   void (*worker_wait_f)(xbt_parmap_t, unsigned); /**< waits for more work */
 } s_xbt_parmap_t;
 
+/**
+ * \brief Thread data transmission structure
+ */
+typedef struct s_xbt_parmap_thread_data{
+  xbt_parmap_t parmap;
+  int worker_id;
+} s_xbt_parmap_thread_data_t;
+
+typedef s_xbt_parmap_thread_data_t *xbt_parmap_thread_data_t;
+
 /**
  * \brief Creates a parallel map object
  * \param num_workers number of worker threads to create
@@ -88,24 +113,65 @@ typedef struct s_xbt_parmap {
 xbt_parmap_t xbt_parmap_new(unsigned int num_workers, e_xbt_parmap_mode_t mode)
 {
   unsigned int i;
-  xbt_os_thread_t worker = NULL;
 
   XBT_DEBUG("Create new parmap (%u workers)", num_workers);
 
   /* Initialize the thread pool data structure */
   xbt_parmap_t parmap = xbt_new0(s_xbt_parmap_t, 1);
+  parmap->workers = xbt_new(xbt_os_thread_t, num_workers);
+
+  parmap->num_workers = num_workers;
+  parmap->status = XBT_PARMAP_WORK;
+  xbt_parmap_set_mode(parmap, mode);
+
+  /* Create the pool of worker threads */
+  xbt_parmap_thread_data_t data;
+  parmap->workers[0] = NULL;
+  for (i = 1; i < num_workers; i++) {
+    data = xbt_new0(s_xbt_parmap_thread_data_t, 1);
+    data->parmap = parmap;
+    data->worker_id = i;
+    parmap->workers[i] = xbt_os_thread_create(NULL, xbt_parmap_worker_main,
+                                              data, NULL);
+  }
+  return parmap;
+}
+
+#ifdef HAVE_MC
+/**
+ * \brief Creates a parallel map object
+ * \param num_workers number of worker threads to create
+ * \param mode how to synchronize the worker threads
+ * \return the parmap created
+ */
+xbt_parmap_t xbt_parmap_mc_new(unsigned int num_workers, e_xbt_parmap_mode_t mode)
+{
+  unsigned int i;
+
+  XBT_DEBUG("Create new parmap (%u workers)", num_workers);
+
+  /* Initialize the thread pool data structure */
+  xbt_parmap_t parmap = xbt_new0(s_xbt_parmap_t, 1);
+  parmap->workers = xbt_new(xbt_os_thread_t, num_workers);
 
   parmap->num_workers = num_workers;
   parmap->status = XBT_PARMAP_WORK;
   xbt_parmap_set_mode(parmap, mode);
 
   /* Create the pool of worker threads */
+  xbt_parmap_thread_data_t data;
+  parmap->workers[0] = NULL;
   for (i = 1; i < num_workers; i++) {
-    worker = xbt_os_thread_create(NULL, xbt_parmap_worker_main, parmap, NULL);
+    data = xbt_new0(s_xbt_parmap_thread_data_t, 1);
+    data->parmap = parmap;
+    data->worker_id = i;
+    parmap->workers[i] = xbt_os_thread_create(NULL, xbt_parmap_mc_worker_main,
+                                              data, NULL);
     xbt_os_thread_detach(worker);
   }
   return parmap;
 }
+#endif
 
 /**
  * \brief Destroys a parmap
@@ -119,13 +185,17 @@ void xbt_parmap_destroy(xbt_parmap_t parmap)
 
   parmap->status = XBT_PARMAP_DESTROY;
   parmap->master_signal_f(parmap);
-  parmap->master_wait_f(parmap);
+
+  unsigned int i;
+  for (i = 1; i < parmap->num_workers; i++)
+    xbt_os_thread_join(parmap->workers[i], NULL);
 
   xbt_os_cond_destroy(parmap->ready_cond);
   xbt_os_mutex_destroy(parmap->ready_mutex);
   xbt_os_cond_destroy(parmap->done_cond);
   xbt_os_mutex_destroy(parmap->done_mutex);
 
+  xbt_free(parmap->workers);
   xbt_free(parmap);
 }
 
@@ -242,8 +312,11 @@ static void xbt_parmap_work(xbt_parmap_t parmap)
  */
 static void *xbt_parmap_worker_main(void *arg)
 {
-  xbt_parmap_t parmap = (xbt_parmap_t) arg;
+  xbt_parmap_thread_data_t data = (xbt_parmap_thread_data_t) arg;
+  xbt_parmap_t parmap = data->parmap;
   unsigned round = 0;
+  smx_context_t context = SIMIX_context_new(NULL, 0, NULL, NULL, NULL);
+  SIMIX_context_set_current(context);
 
   XBT_DEBUG("New worker thread created");
 
@@ -252,20 +325,103 @@ static void *xbt_parmap_worker_main(void *arg)
     parmap->worker_wait_f(parmap, ++round);
     if (parmap->status == XBT_PARMAP_WORK) {
 
-      XBT_DEBUG("Worker got a job");
+      XBT_DEBUG("Worker %d got a job", data->worker_id);
 
       xbt_parmap_work(parmap);
       parmap->worker_signal_f(parmap);
 
-      XBT_DEBUG("Worker has finished");
+      XBT_DEBUG("Worker %d has finished", data->worker_id);
 
     /* We are destroying the parmap */
     } else {
+      SIMIX_context_free(context);
+      xbt_free(data);
+      return NULL;
+    }
+  }
+}
+
+#ifdef HAVE_MC
+
+/**
+ * \brief Applies a list of tasks in parallel.
+ * \param parmap a parallel map object
+ * \param fun the function to call in parallel
+ * \param data each element of this dynar will be passed as an argument to fun
+ */
+int xbt_parmap_mc_apply(xbt_parmap_t parmap, int_f_pvoid_pvoid_t fun, 
+                         void* data, unsigned int length,  void* ref_snapshot)
+{
+  /* Assign resources to worker threads */
+  parmap->snapshot_compare = fun;
+  parmap->mc_data = data;
+  parmap->index = 0;
+  parmap->finish = -1;
+  parmap->length = length;
+  parmap->ref_snapshot = ref_snapshot;
+  parmap->master_signal_f(parmap);
+  xbt_parmap_mc_work(parmap, 0);
+  parmap->master_wait_f(parmap);
+  XBT_DEBUG("Job done");
+  return parmap->finish;
+}
+
+static void xbt_parmap_mc_work(xbt_parmap_t parmap, int worker_id)
+{
+  unsigned int data_size = (parmap->length / parmap->num_workers) +
+    ((parmap->length % parmap->num_workers) ? 1 :0);
+  void* start = (char*)parmap->mc_data + (data_size*worker_id*sizeof(void*));
+  void* end = MIN((char *)start + data_size* sizeof(void*), (char*)parmap->mc_data + parmap->length*sizeof(void*));
+  
+  //XBT_CRITICAL("Worker %d : %p -> %p (%d)", worker_id, start, end, data_size);
+
+  while ( start < end && parmap->finish == -1) {
+    //XBT_CRITICAL("Starting with %p", start);
+    int res = parmap->snapshot_compare(*(void**)start, parmap->ref_snapshot);
+    start = (char *)start + sizeof(start);
+    if (!res){
+    
+      parmap->finish = ((char*)start - (char*)parmap->mc_data) / sizeof(void*);
+      //XBT_CRITICAL("Find good one %p (%p)", start, parmap->mc_data);
+      break;
+    }
+  }
+}
+
+/**
+ * \brief Main function of a worker thread.
+ * \param arg the parmap
+ */
+static void *xbt_parmap_mc_worker_main(void *arg)
+{
+  xbt_parmap_thread_data_t data = (xbt_parmap_thread_data_t) arg;
+  xbt_parmap_t parmap = data->parmap;
+  unsigned round = 0;
+  /* smx_context_t context = SIMIX_context_new(NULL, 0, NULL, NULL, NULL); */
+  /* SIMIX_context_set_current(context); */
+
+  XBT_DEBUG("New worker thread created");
+
+  /* Worker's main loop */
+  while (1) {
+    parmap->worker_wait_f(parmap, ++round);
+    if (parmap->status == XBT_PARMAP_WORK) {
+
+      XBT_DEBUG("Worker %d got a job", data->worker_id);
+
+      xbt_parmap_mc_work(parmap, data->worker_id);
       parmap->worker_signal_f(parmap);
+
+      XBT_DEBUG("Worker %d has finished", data->worker_id);
+
+    /* We are destroying the parmap */
+    } else {
+      xbt_free(data);
       return NULL;
     }
   }
 }
+#endif
 
 #ifdef HAVE_FUTEX_H
 static void futex_wait(unsigned *uaddr, unsigned val)
@@ -346,7 +502,7 @@ static void xbt_parmap_posix_worker_wait(xbt_parmap_t parmap, unsigned round)
 {
   xbt_os_mutex_acquire(parmap->ready_mutex);
   /* wait for more work */
-  if (parmap->work < round) {
+  if (parmap->work != round) {
     xbt_os_cond_wait(parmap->ready_cond, parmap->ready_mutex);
   }
   xbt_os_mutex_release(parmap->ready_mutex);
@@ -383,7 +539,7 @@ static void xbt_parmap_futex_worker_signal(xbt_parmap_t parmap)
   unsigned count = __sync_add_and_fetch(&parmap->thread_counter, 1);
   if (count == parmap->num_workers) {
     /* all workers have finished, wake the controller */
-    futex_wake(&parmap->thread_counter, 1);
+    futex_wake(&parmap->thread_counter, INT_MAX);
   }
 }
 
@@ -399,7 +555,7 @@ static void xbt_parmap_futex_master_signal(xbt_parmap_t parmap)
   parmap->thread_counter = 1;
   __sync_add_and_fetch(&parmap->work, 1);
   /* wake all workers */
-  futex_wake(&parmap->work, parmap->num_workers - 1);
+  futex_wake(&parmap->work, INT_MAX);
 }
 
 /**
@@ -415,8 +571,10 @@ static void xbt_parmap_futex_worker_wait(xbt_parmap_t parmap, unsigned round)
 {
   unsigned work = parmap->work;
   /* wait for more work */
-  if (work < round)
+  while (work != round) {
     futex_wait(&parmap->work, work);
+    work = parmap->work;
+  }
 }
 #endif
 
@@ -471,51 +629,7 @@ static void xbt_parmap_busy_master_signal(xbt_parmap_t parmap)
 static void xbt_parmap_busy_worker_wait(xbt_parmap_t parmap, unsigned round)
 {
   /* wait for more work */
-  while (parmap->work < round) {
+  while (parmap->work != round) {
     xbt_os_thread_yield();
   }
 }
-
-#ifdef SIMGRID_TEST
-#include "xbt.h"
-#include "xbt/ex.h"
-
-XBT_TEST_SUITE("parmap", "Parallel Map");
-XBT_LOG_EXTERNAL_DEFAULT_CATEGORY(xbt_parmap_unit);
-
-xbt_parmap_t parmap;
-
-void fun(void *arg);
-
-void fun(void *arg)
-{
-  //XBT_INFO("I'm job %lu", (unsigned long)arg);
-}
-
-XBT_TEST_UNIT("basic", test_parmap_basic, "Basic usage")
-{
-  xbt_test_add("Create the parmap");
-
-  unsigned long i, j;
-  xbt_dynar_t data = xbt_dynar_new(sizeof(void *), NULL);
-
-  /* Create the parallel map */
-#ifdef HAVE_FUTEX_H
-  parmap = xbt_parmap_new(10, XBT_PARMAP_FUTEX);
-#else
-  parmap = xbt_parmap_new(10, XBT_PARMAP_BUSY_WAIT);
-#endif
-  for (j = 0; j < 100; j++) {
-    xbt_dynar_push_as(data, void *, (void *)j);
-  }
-
-  for (i = 0; i < 5; i++) {
-    xbt_parmap_apply(parmap, fun, data);
-  }
-
-  /* Destroy the parmap */
-  xbt_parmap_destroy(parmap);
-  xbt_dynar_free(&data);
-}
-
-#endif /* SIMGRID_TEST */