Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Simple MPI_Win_lock and MPI_Win_unlock implementation.
[simgrid.git] / src / smpi / smpi_comm.cpp
index d5e043e..97997d4 100644 (file)
@@ -65,7 +65,7 @@ Comm::Comm(MPI_Group group, MPI_Topology topo) : group_(group), topo_(topo)
 void Comm::destroy(Comm* comm)
 {
   if (comm == MPI_COMM_UNINITIALIZED){
-    Comm::destroy(smpi_process_comm_world());
+    Comm::destroy(smpi_process()->comm_world());
     return;
   }
   delete comm->topo_; // there's no use count on topos
@@ -74,19 +74,19 @@ void Comm::destroy(Comm* comm)
 
 int Comm::dup(MPI_Comm* newcomm){
   if(smpi_privatize_global_variables){ //we need to switch as the called function may silently touch global variables
-     smpi_switch_data_segment(smpi_process_index());
+     smpi_switch_data_segment(smpi_process()->index());
    }
   MPI_Group cp = new  Group(this->group());
   (*newcomm) = new  Comm(cp, this->topo());
   int ret = MPI_SUCCESS;
 
-  if(!attributes_.empty()){
+  if(!attributes()->empty()){
     int flag;
     void* value_out;
-    for(auto it = attributes_.begin(); it != attributes_.end(); it++){
-      smpi_key_elem elem = keyvals_.at((*it).first);
+    for(auto it : *attributes()){
+      smpi_key_elem elem = keyvals_.at(it.first);
       if (elem != nullptr && elem->copy_fn.comm_copy_fn != MPI_NULL_COPY_FN) {
-        ret = elem->copy_fn.comm_copy_fn(this, (*it).first, nullptr, (*it).second, &value_out, &flag);
+        ret = elem->copy_fn.comm_copy_fn(this, it.first, nullptr, it.second, &value_out, &flag);
         if (ret != MPI_SUCCESS) {
           Comm::destroy(*newcomm);
           *newcomm = MPI_COMM_NULL;
@@ -94,7 +94,7 @@ int Comm::dup(MPI_Comm* newcomm){
         }
         if (flag){
           elem->refcount++;
-          (*newcomm)->attributes_.insert({(*it).first, value_out});
+          (*newcomm)->attributes()->insert({it.first, value_out});
         }
       }
       }
@@ -105,7 +105,7 @@ int Comm::dup(MPI_Comm* newcomm){
 MPI_Group Comm::group()
 {
   if (this == MPI_COMM_UNINITIALIZED)
-    return smpi_process_comm_world()->group();
+    return smpi_process()->comm_world()->group();
   return group_;
 }
 
@@ -116,21 +116,21 @@ MPI_Topology Comm::topo() {
 int Comm::size()
 {
   if (this == MPI_COMM_UNINITIALIZED)
-    return smpi_process_comm_world()->size();
+    return smpi_process()->comm_world()->size();
   return group_->size();
 }
 
 int Comm::rank()
 {
   if (this == MPI_COMM_UNINITIALIZED)
-    return smpi_process_comm_world()->rank();
-  return group_->rank(smpi_process_index());
+    return smpi_process()->comm_world()->rank();
+  return group_->rank(smpi_process()->index());
 }
 
 void Comm::get_name (char* name, int* len)
 {
   if (this == MPI_COMM_UNINITIALIZED){
-    smpi_process_comm_world()->get_name(name, len);
+    smpi_process()->comm_world()->get_name(name, len);
     return;
   }
   if(this == MPI_COMM_WORLD) {
@@ -143,7 +143,7 @@ void Comm::get_name (char* name, int* len)
 
 void Comm::set_leaders_comm(MPI_Comm leaders){
   if (this == MPI_COMM_UNINITIALIZED){
-    smpi_process_comm_world()->set_leaders_comm(leaders);
+    smpi_process()->comm_world()->set_leaders_comm(leaders);
     return;
   }
   leaders_comm_=leaders;
@@ -155,44 +155,44 @@ void Comm::set_intra_comm(MPI_Comm leaders){
 
 int* Comm::get_non_uniform_map(){
   if (this == MPI_COMM_UNINITIALIZED)
-    return smpi_process_comm_world()->get_non_uniform_map();
+    return smpi_process()->comm_world()->get_non_uniform_map();
   return non_uniform_map_;
 }
 
 int* Comm::get_leaders_map(){
   if (this == MPI_COMM_UNINITIALIZED)
-    return smpi_process_comm_world()->get_leaders_map();
+    return smpi_process()->comm_world()->get_leaders_map();
   return leaders_map_;
 }
 
 MPI_Comm Comm::get_leaders_comm(){
   if (this == MPI_COMM_UNINITIALIZED)
-    return smpi_process_comm_world()->get_leaders_comm();
+    return smpi_process()->comm_world()->get_leaders_comm();
   return leaders_comm_;
 }
 
 MPI_Comm Comm::get_intra_comm(){
   if (this == MPI_COMM_UNINITIALIZED || this==MPI_COMM_WORLD) 
-    return smpi_process_get_comm_intra();
+    return smpi_process()->comm_intra();
   else return intra_comm_;
 }
 
 int Comm::is_uniform(){
   if (this == MPI_COMM_UNINITIALIZED)
-    return smpi_process_comm_world()->is_uniform();
+    return smpi_process()->comm_world()->is_uniform();
   return is_uniform_;
 }
 
 int Comm::is_blocked(){
   if (this == MPI_COMM_UNINITIALIZED)
-    return smpi_process_comm_world()->is_blocked();
+    return smpi_process()->comm_world()->is_blocked();
   return is_blocked_;
 }
 
 MPI_Comm Comm::split(int color, int key)
 {
   if (this == MPI_COMM_UNINITIALIZED)
-    return smpi_process_comm_world()->split(color, key);
+    return smpi_process()->comm_world()->split(color, key);
   int system_tag = 123;
   int* recvbuf;
 
@@ -250,10 +250,9 @@ MPI_Comm Comm::split(int color, int key)
             reqs++;
           }
         }
-        if(i != 0) {
-          if(group_out != MPI_COMM_WORLD->group() && group_out != MPI_GROUP_EMPTY)
-            Group::unref(group_out);
-        }
+        if(i != 0 && group_out != MPI_COMM_WORLD->group() && group_out != MPI_GROUP_EMPTY)
+          Group::unref(group_out);
+        
         Request::waitall(reqs, requests, MPI_STATUS_IGNORE);
         xbt_free(requests);
       }
@@ -272,7 +271,7 @@ MPI_Comm Comm::split(int color, int key)
 
 void Comm::ref(){
   if (this == MPI_COMM_UNINITIALIZED){
-    smpi_process_comm_world()->ref();
+    smpi_process()->comm_world()->ref();
     return;
   }
   group_->ref();
@@ -292,7 +291,7 @@ void Comm::cleanup_smp(){
 
 void Comm::unref(Comm* comm){
   if (comm == MPI_COMM_UNINITIALIZED){
-    Comm::unref(smpi_process_comm_world());
+    Comm::unref(smpi_process()->comm_world());
     return;
   }
   comm->refcount_--;
@@ -317,20 +316,20 @@ void Comm::init_smp(){
   int leader = -1;
 
   if (this == MPI_COMM_UNINITIALIZED)
-    smpi_process_comm_world()->init_smp();
+    smpi_process()->comm_world()->init_smp();
 
   int comm_size = this->size();
   
   // If we are in replay - perform an ugly hack  
   // tell SimGrid we are not in replay for a while, because we need the buffers to be copied for the following calls
   bool replaying = false; //cache data to set it back again after
-  if(smpi_process_get_replaying()){
+  if(smpi_process()->replaying()){
    replaying=true;
-   smpi_process_set_replaying(false);
+   smpi_process()->set_replaying(false);
   }
 
   if(smpi_privatize_global_variables){ //we need to switch as the called function may silently touch global variables
-     smpi_switch_data_segment(smpi_process_index());
+     smpi_switch_data_segment(smpi_process()->index());
    }
   //identify neighbours in comm
   //get the indexes of all processes sharing the same simix host
@@ -372,7 +371,7 @@ void Comm::init_smp(){
   Coll_allgather_mpich::allgather(&leader, 1, MPI_INT , leaders_map, 1, MPI_INT, this);
 
   if(smpi_privatize_global_variables){ //we need to switch as the called function may silently touch global variables
-     smpi_switch_data_segment(smpi_process_index());
+     smpi_switch_data_segment(smpi_process()->index());
    }
 
   if(leaders_map_==nullptr){
@@ -419,7 +418,7 @@ void Comm::init_smp(){
       leader_comm=this->get_leaders_comm();
       Group::unref(leaders_group);
     }
-    smpi_process_set_comm_intra(comm_intra);
+    smpi_process()->set_comm_intra(comm_intra);
   }
 
   int is_uniform = 1;
@@ -446,7 +445,7 @@ void Comm::init_smp(){
   Coll_bcast_mpich::bcast(&(is_uniform_),1, MPI_INT, 0, comm_intra );
 
   if(smpi_privatize_global_variables){ //we need to switch as the called function may silently touch global variables
-     smpi_switch_data_segment(smpi_process_index());
+     smpi_switch_data_segment(smpi_process()->index());
    }
   // Are the ranks blocked ? = allocated contiguously on the SMP nodes
   int is_blocked=1;
@@ -473,7 +472,7 @@ void Comm::init_smp(){
   xbt_free(leader_list);
   
   if(replaying)
-    smpi_process_set_replaying(true); 
+    smpi_process()->set_replaying(true); 
 }
 
 MPI_Comm Comm::f2c(int id) {
@@ -481,9 +480,9 @@ MPI_Comm Comm::f2c(int id) {
     return MPI_COMM_SELF;
   } else if(id==0){
     return MPI_COMM_WORLD;
-  } else if(F2C::f2c_lookup_ != nullptr && id >= 0) {
+  } else if(F2C::f2c_lookup() != nullptr && id >= 0) {
       char key[KEY_SIZE];
-      MPI_Comm tmp =  static_cast<MPI_Comm>(xbt_dict_get_or_null(F2C::f2c_lookup_,get_key_id(key, id)));
+      MPI_Comm tmp =  static_cast<MPI_Comm>(xbt_dict_get_or_null(F2C::f2c_lookup(),get_key_id(key, id)));
       return tmp != nullptr ? tmp : MPI_COMM_NULL ;
   } else {
     return MPI_COMM_NULL;
@@ -492,17 +491,35 @@ MPI_Comm Comm::f2c(int id) {
 
 void Comm::free_f(int id) {
   char key[KEY_SIZE];
-  xbt_dict_remove(F2C::f2c_lookup_, id==0? get_key(key, id) : get_key_id(key, id));
+  xbt_dict_remove(F2C::f2c_lookup(), id==0? get_key(key, id) : get_key_id(key, id));
 }
 
 int Comm::add_f() {
-  if(F2C::f2c_lookup_==nullptr){
-    F2C::f2c_lookup_=xbt_dict_new_homogeneous(nullptr);
+  if(F2C::f2c_lookup()==nullptr){
+    F2C::set_f2c_lookup(xbt_dict_new_homogeneous(nullptr));
   }
   char key[KEY_SIZE];
-  xbt_dict_set(F2C::f2c_lookup_, this==MPI_COMM_WORLD? get_key(key, F2C::f2c_id_) : get_key_id(key,F2C::f2c_id_), this, nullptr);
-  F2C::f2c_id_++;
-  return F2C::f2c_id_-1;
+  xbt_dict_set(F2C::f2c_lookup(), this==MPI_COMM_WORLD? get_key(key, F2C::f2c_id()) : get_key_id(key,F2C::f2c_id()), this, nullptr);
+  f2c_id_increment();
+  return F2C::f2c_id()-1;
+}
+
+
+void Comm::add_rma_win(MPI_Win win){
+  rma_wins_.push_back(win);
+}
+
+void Comm::remove_rma_win(MPI_Win win){
+  rma_wins_.remove(win);
+}
+
+void Comm::finish_rma_calls(){
+  for(auto it : rma_wins_){
+    if(it->rank()==this->rank()){//is it ours (for MPI_COMM_WORLD)?
+      int finished = it->finish_comms();
+      XBT_DEBUG("Barrier for rank %d - Finished %d RMA calls",this->rank(), finished);
+    }
+  }
 }