Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
activity::CommImpl: stick to our naming standards for the fields
[simgrid.git] / src / smpi / include / smpi_win.hpp
1 /* Copyright (c) 2010-2019. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #ifndef SMPI_WIN_HPP_INCLUDED
8 #define SMPI_WIN_HPP_INCLUDED
9
10 #include "simgrid/s4u/Barrier.hpp"
11 #include "smpi_f2c.hpp"
12 #include "smpi_keyvals.hpp"
13 #include "xbt/synchro.h"
14
15 #include <vector>
16 #include <list>
17
18 namespace simgrid{
19 namespace smpi{
20
21 class Win : public F2C, public Keyval {
22   private :
23   void* base_;
24   MPI_Aint size_;
25   int disp_unit_;
26   int assert_;
27   MPI_Info info_;
28   MPI_Comm comm_;
29   std::vector<MPI_Request> *requests_;
30   xbt_mutex_t mut_;
31   simgrid::s4u::Barrier* bar_;
32   MPI_Win* connected_wins_;
33   char* name_;
34   int opened_;
35   MPI_Group group_;
36   int count_; //for ordering the accs
37   xbt_mutex_t lock_mut_;
38   xbt_mutex_t atomic_mut_;
39   std::list<int> lockers_;
40   int rank_; // to identify owner for barriers in MPI_COMM_WORLD
41   int mode_; // exclusive or shared lock
42   int allocated_;
43   int dynamic_;
44
45 public:
46   static std::unordered_map<int, smpi_key_elem> keyvals_;
47   static int keyval_id_;
48
49   Win(void *base, MPI_Aint size, int disp_unit, MPI_Info info, MPI_Comm comm, int allocated = 0, int dynamic = 0);
50   Win(MPI_Info info, MPI_Comm comm) : Win(MPI_BOTTOM, 0, 1, info, comm, 0, 1) {};
51   ~Win();
52   int attach (void *base, MPI_Aint size);
53   int detach (void *base);
54   void get_name( char* name, int* length);
55   void get_group( MPI_Group* group);
56   void set_name( char* name);
57   int rank();
58   int dynamic();
59   int start(MPI_Group group, int assert);
60   int post(MPI_Group group, int assert);
61   int complete();
62   MPI_Info info();
63   void set_info( MPI_Info info);
64   int wait();
65   MPI_Aint size();
66   void* base();
67   int disp_unit();
68   int fence(int assert);
69   int put( void *origin_addr, int origin_count, MPI_Datatype origin_datatype, int target_rank,
70               MPI_Aint target_disp, int target_count, MPI_Datatype target_datatype, MPI_Request* request=nullptr);
71   int get( void *origin_addr, int origin_count, MPI_Datatype origin_datatype, int target_rank,
72               MPI_Aint target_disp, int target_count, MPI_Datatype target_datatype, MPI_Request* request=nullptr);
73   int accumulate( void *origin_addr, int origin_count, MPI_Datatype origin_datatype, int target_rank,
74               MPI_Aint target_disp, int target_count, MPI_Datatype target_datatype, MPI_Op op, MPI_Request* request=nullptr);
75   int get_accumulate( void *origin_addr, int origin_count, MPI_Datatype origin_datatype, void *result_addr,
76               int result_count, MPI_Datatype result_datatype, int target_rank, MPI_Aint target_disp, int target_count,
77               MPI_Datatype target_datatype, MPI_Op op, MPI_Request* request=nullptr);
78   int compare_and_swap(void *origin_addr, void *compare_addr,
79         void *result_addr, MPI_Datatype datatype, int target_rank,
80         MPI_Aint target_disp);
81   static Win* f2c(int id);
82
83   int lock(int lock_type, int rank, int assert);
84   int unlock(int rank);
85   int lock_all(int assert);
86   int unlock_all();
87   int flush(int rank);
88   int flush_local(int rank);
89   int flush_all();
90   int flush_local_all();
91   int finish_comms();
92   int finish_comms(int rank);
93   int shared_query(int rank, MPI_Aint* size, int* disp_unit, void* baseptr);
94 };
95
96
97 }
98 }
99
100 #endif