Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Prepare network.c and cpu_cas01.c for net and cpu merge.
[simgrid.git] / src / surf / lagrange.c
index 62a255a..91455ab 100644 (file)
@@ -37,8 +37,6 @@ void lagrange_solve(lmm_system_t sys);
 //computes the value of the dichotomy using a initial values, init, with a specific variable or constraint
 static double dichotomy(double init, double diff(double, void *),
                         void *var_cnst, double min_error);
-//computes the value of the differential of variable param_var applied to mu  
-static double partial_diff_mu(double mu, void *param_var);
 //computes the value of the differential of constraint param_cnst applied to lambda  
 static double partial_diff_lambda(double lambda, void *param_cnst);
 
@@ -279,7 +277,7 @@ void lagrange_solve(lmm_system_t sys)
         new_obj = dual_objective(var_list, cnst_list);
         XBT_DEBUG("Improvement for Objective (%g -> %g) : %g", obj, new_obj,
                obj - new_obj);
-        xbt_assert1(obj - new_obj >= -epsilon_min_error,
+        xbt_assert(obj - new_obj >= -epsilon_min_error,
                     "Our gradient sucks! (%1.20f)", obj - new_obj);
         obj = new_obj;
       }
@@ -302,7 +300,7 @@ void lagrange_solve(lmm_system_t sys)
       new_obj = dual_objective(var_list, cnst_list);
       XBT_DEBUG("Improvement for Objective (%g -> %g) : %g", obj, new_obj,
              obj - new_obj);
-      xbt_assert1(obj - new_obj >= -epsilon_min_error,
+      xbt_assert(obj - new_obj >= -epsilon_min_error,
                   "Our gradient sucks! (%1.20f)", obj - new_obj);
       obj = new_obj;
     }
@@ -378,7 +376,7 @@ static double dichotomy(double init, double diff(double, void *),
   double diff_0 = 0.0;
   min = max = init;
 
-  XBT_IN("");
+  XBT_IN();
 
   if (init == 0.0) {
     min = max = 0.5;
@@ -487,7 +485,7 @@ static double partial_diff_lambda(double lambda, void *param_cnst)
   double diff = 0.0;
   double sigma_i = 0.0;
 
-  XBT_IN("");
+  XBT_IN();
   elem_list = &(cnst->element_set);
 
   XBT_CDEBUG(surf_lagrange_dichotomy, "Computing diff of cnst (%p)", cnst);
@@ -568,19 +566,19 @@ void lmm_set_default_protocol_function(double (*func_f)
 
 double func_vegas_f(lmm_variable_t var, double x)
 {
-  xbt_assert1(x > 0.0, "Don't call me with stupid values! (%1.20f)", x);
+  xbt_assert(x > 0.0, "Don't call me with stupid values! (%1.20f)", x);
   return VEGAS_SCALING * var->weight * log(x);
 }
 
 double func_vegas_fp(lmm_variable_t var, double x)
 {
-  xbt_assert1(x > 0.0, "Don't call me with stupid values! (%1.20f)", x);
+  xbt_assert(x > 0.0, "Don't call me with stupid values! (%1.20f)", x);
   return VEGAS_SCALING * var->weight / x;
 }
 
 double func_vegas_fpi(lmm_variable_t var, double x)
 {
-  xbt_assert1(x > 0.0, "Don't call me with stupid values! (%1.20f)", x);
+  xbt_assert(x > 0.0, "Don't call me with stupid values! (%1.20f)", x);
   return var->weight / (x / VEGAS_SCALING);
 }
 
@@ -592,7 +590,7 @@ double func_vegas_fpi(lmm_variable_t var, double x)
 #define RENO_SCALING 1.0
 double func_reno_f(lmm_variable_t var, double x)
 {
-  xbt_assert0(var->weight > 0.0, "Don't call me with stupid values!");
+  xbt_assert(var->weight > 0.0, "Don't call me with stupid values!");
 
   return RENO_SCALING * sqrt(3.0 / 2.0) / var->weight *
       atan(sqrt(3.0 / 2.0) * var->weight * x);
@@ -608,15 +606,15 @@ double func_reno_fpi(lmm_variable_t var, double x)
 {
   double res_fpi;
 
-  xbt_assert0(var->weight > 0.0, "Don't call me with stupid values!");
-  xbt_assert0(x > 0.0, "Don't call me with stupid values!");
+  xbt_assert(var->weight > 0.0, "Don't call me with stupid values!");
+  xbt_assert(x > 0.0, "Don't call me with stupid values!");
 
   res_fpi =
       1.0 / (var->weight * var->weight * (x / RENO_SCALING)) -
       2.0 / (3.0 * var->weight * var->weight);
   if (res_fpi <= 0.0)
     return 0.0;
-/*   xbt_assert0(res_fpi>0.0,"Don't call me with stupid values!"); */
+/*   xbt_assert(res_fpi>0.0,"Don't call me with stupid values!"); */
   return sqrt(res_fpi);
 }
 
@@ -629,7 +627,7 @@ double func_reno_fpi(lmm_variable_t var, double x)
 #define RENO2_SCALING 1.0
 double func_reno2_f(lmm_variable_t var, double x)
 {
-  xbt_assert0(var->weight > 0.0, "Don't call me with stupid values!");
+  xbt_assert(var->weight > 0.0, "Don't call me with stupid values!");
   return RENO2_SCALING * (1.0 / var->weight) * log((x * var->weight) /
                                                    (2.0 * x * var->weight +
                                                     3.0));
@@ -646,7 +644,7 @@ double func_reno2_fpi(lmm_variable_t var, double x)
   double res_fpi;
   double tmp;
 
-  xbt_assert0(x > 0.0, "Don't call me with stupid values!");
+  xbt_assert(x > 0.0, "Don't call me with stupid values!");
   tmp = x * var->weight * var->weight;
   res_fpi = tmp * (9.0 * x + 24.0);