Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'master' of https://framagit.org/simgrid/simgrid
[simgrid.git] / src / smpi / bindings / smpi_pmpi.cpp
1 /* Copyright (c) 2007-2019. The SimGrid Team. All rights reserved.          */
2
3 /* This program is free software; you can redistribute it and/or modify it
4  * under the terms of the license (GNU LGPL) which comes with this package. */
5
6 #include "private.hpp"
7 #include "simgrid/instr.h"
8 #include "simgrid/s4u/Engine.hpp"
9 #include "simgrid/s4u/Host.hpp"
10 #include "smpi_comm.hpp"
11 #include "smpi_datatype_derived.hpp"
12 #include "smpi_status.hpp"
13 #include "src/kernel/actor/ActorImpl.hpp"
14 #include "src/smpi/include/smpi_actor.hpp"
15
16 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_pmpi, smpi, "Logging specific to SMPI (pmpi)");
17
18 //this function need to be here because of the calls to smpi_bench
19 void TRACE_smpi_set_category(const char *category)
20 {
21   //need to end bench otherwise categories for execution tasks are wrong
22   smpi_bench_end();
23   if (category != nullptr) {
24     // declare category
25     TRACE_category(category);
26     smpi_process()->set_tracing_category(category);
27   }
28   //begin bench after changing process's category
29   smpi_bench_begin();
30 }
31
32 /* PMPI User level calls */
33
34 int PMPI_Init(int*, char***)
35 {
36   xbt_assert(simgrid::s4u::Engine::is_initialized(),
37              "Your MPI program was not properly initialized. The easiest is to use smpirun to start it.");
38
39   xbt_assert(not smpi_process()->initializing());
40   xbt_assert(not smpi_process()->initialized());
41
42   simgrid::smpi::ActorExt::init();
43   int rank_traced = simgrid::s4u::this_actor::get_pid();
44   TRACE_smpi_init(rank_traced);
45   TRACE_smpi_comm_in(rank_traced, __func__, new simgrid::instr::NoOpTIData("init"));
46   TRACE_smpi_comm_out(rank_traced);
47   TRACE_smpi_computing_init(rank_traced);
48   TRACE_smpi_sleeping_init(rank_traced);
49   smpi_bench_begin();
50   smpi_process()->mark_as_initialized();
51
52   smpi_mpi_init();
53
54   return MPI_SUCCESS;
55 }
56
57 int PMPI_Finalize()
58 {
59   smpi_bench_end();
60   int rank_traced = simgrid::s4u::this_actor::get_pid();
61   TRACE_smpi_comm_in(rank_traced, __func__, new simgrid::instr::NoOpTIData("finalize"));
62
63   smpi_process()->finalize();
64
65   TRACE_smpi_comm_out(rank_traced);
66   return MPI_SUCCESS;
67 }
68
69 int PMPI_Finalized(int* flag)
70 {
71   *flag=smpi_process()!=nullptr ? smpi_process()->finalized() : 0;
72   return MPI_SUCCESS;
73 }
74
75 int PMPI_Get_version (int *version,int *subversion){
76   *version = MPI_VERSION;
77   *subversion= MPI_SUBVERSION;
78   return MPI_SUCCESS;
79 }
80
81 int PMPI_Get_library_version (char *version,int *len){
82   smpi_bench_end();
83   snprintf(version, MPI_MAX_LIBRARY_VERSION_STRING, "SMPI Version %d.%d. Copyright The Simgrid Team 2007-2019",
84            SIMGRID_VERSION_MAJOR, SIMGRID_VERSION_MINOR);
85   *len = strlen(version) > MPI_MAX_LIBRARY_VERSION_STRING ? MPI_MAX_LIBRARY_VERSION_STRING : strlen(version);
86   smpi_bench_begin();
87   return MPI_SUCCESS;
88 }
89
90 int PMPI_Init_thread(int* argc, char*** argv, int /*required*/, int* provided)
91 {
92   if (provided != nullptr) {
93     *provided = MPI_THREAD_SINGLE;
94   }
95   return MPI_Init(argc, argv);
96 }
97
98 int PMPI_Query_thread(int *provided)
99 {
100   if (provided == nullptr) {
101     return MPI_ERR_ARG;
102   } else {
103     *provided = MPI_THREAD_SINGLE;
104     return MPI_SUCCESS;
105   }
106 }
107
108 int PMPI_Is_thread_main(int *flag)
109 {
110   // FIXME: The MPI standard seems to say that fatal errors need to be triggered
111   // if MPI has been finalized or not yet been initialized
112   if (flag == nullptr) {
113     return MPI_ERR_ARG;
114   } else {
115     *flag = simgrid::s4u::this_actor::get_pid() ==
116             1; // FIXME: I don't think this is correct: This just returns true if the process ID is 1,
117                // regardless of whether this process called MPI_Thread_Init() or not.
118     return MPI_SUCCESS;
119   }
120 }
121
122 int PMPI_Abort(MPI_Comm /*comm*/, int /*errorcode*/)
123 {
124   smpi_bench_end();
125   // FIXME: should kill all processes in comm instead
126   smx_actor_t actor = SIMIX_process_self();
127   simgrid::kernel::actor::simcall([actor] { actor->exit(); });
128   return MPI_SUCCESS;
129 }
130
131 double PMPI_Wtime()
132 {
133   return smpi_mpi_wtime();
134 }
135
136 extern double sg_maxmin_precision;
137 double PMPI_Wtick()
138 {
139   return sg_maxmin_precision;
140 }
141
142 int PMPI_Address(const void* location, MPI_Aint* address)
143 {
144   if (address==nullptr) {
145     return MPI_ERR_ARG;
146   } else {
147     *address = reinterpret_cast<MPI_Aint>(location);
148     return MPI_SUCCESS;
149   }
150 }
151
152 int PMPI_Get_address(const void *location, MPI_Aint * address)
153 {
154   return PMPI_Address(location, address);
155 }
156
157 int PMPI_Get_processor_name(char *name, int *resultlen)
158 {
159   strncpy(name, sg_host_self()->get_cname(),
160           strlen(sg_host_self()->get_cname()) < MPI_MAX_PROCESSOR_NAME - 1 ? strlen(sg_host_self()->get_cname()) + 1
161                                                                            : MPI_MAX_PROCESSOR_NAME - 1);
162   *resultlen = strlen(name) > MPI_MAX_PROCESSOR_NAME ? MPI_MAX_PROCESSOR_NAME : strlen(name);
163
164   return MPI_SUCCESS;
165 }
166
167 int PMPI_Get_count(const MPI_Status * status, MPI_Datatype datatype, int *count)
168 {
169   if (status == nullptr || count == nullptr) {
170     return MPI_ERR_ARG;
171   } else if (not datatype->is_valid()) {
172     return MPI_ERR_TYPE;
173   } else {
174     size_t size = datatype->size();
175     if (size == 0) {
176       *count = 0;
177       return MPI_SUCCESS;
178     } else if (status->count % size != 0) {
179       return MPI_UNDEFINED;
180     } else {
181       *count = simgrid::smpi::Status::get_count(status, datatype);
182       return MPI_SUCCESS;
183     }
184   }
185 }
186
187 int PMPI_Initialized(int* flag) {
188    *flag=(smpi_process()!=nullptr && smpi_process()->initialized());
189    return MPI_SUCCESS;
190 }
191
192 int PMPI_Alloc_mem(MPI_Aint size, MPI_Info /*info*/, void* baseptr)
193 {
194   void *ptr = xbt_malloc(size);
195   if(ptr==nullptr)
196     return MPI_ERR_NO_MEM;
197   else {
198     *static_cast<void**>(baseptr) = ptr;
199     return MPI_SUCCESS;
200   }
201 }
202
203 int PMPI_Free_mem(void *baseptr){
204   xbt_free(baseptr);
205   return MPI_SUCCESS;
206 }
207
208 int PMPI_Error_class(int errorcode, int* errorclass) {
209   // assume smpi uses only standard mpi error codes
210   *errorclass=errorcode;
211   return MPI_SUCCESS;
212 }
213
214 int PMPI_Error_string(int errorcode, char* string, int* resultlen)
215 {
216   static const char* smpi_error_string[] = {FOREACH_ERROR(GENERATE_STRING)};
217   constexpr int nerrors                  = (sizeof smpi_error_string) / (sizeof smpi_error_string[0]);
218   if (errorcode < 0 || errorcode >= nerrors || string == nullptr)
219     return MPI_ERR_ARG;
220
221   int len    = snprintf(string, MPI_MAX_ERROR_STRING, "%s", smpi_error_string[errorcode]);
222   *resultlen = std::min(len, MPI_MAX_ERROR_STRING - 1);
223   return MPI_SUCCESS;
224 }
225
226 int PMPI_Keyval_create(MPI_Copy_function* copy_fn, MPI_Delete_function* delete_fn, int* keyval, void* extra_state) {
227   smpi_copy_fn _copy_fn={copy_fn,nullptr,nullptr,nullptr,nullptr,nullptr};
228   smpi_delete_fn _delete_fn={delete_fn,nullptr,nullptr,nullptr,nullptr,nullptr};
229   return simgrid::smpi::Keyval::keyval_create<simgrid::smpi::Comm>(_copy_fn, _delete_fn, keyval, extra_state);
230 }
231
232 int PMPI_Keyval_free(int* keyval) {
233   return simgrid::smpi::Keyval::keyval_free<simgrid::smpi::Comm>(keyval);
234 }
235
236 MPI_Errhandler PMPI_Errhandler_f2c(MPI_Fint errhan){
237   if(errhan==-1)
238     return MPI_ERRHANDLER_NULL;
239   return static_cast<MPI_Errhandler>(simgrid::smpi::Errhandler::f2c(errhan));
240 }
241
242 MPI_Fint PMPI_Errhandler_c2f(MPI_Errhandler errhan){
243   if(errhan==MPI_ERRHANDLER_NULL)
244     return -1;
245   return errhan->c2f();
246 }
247
248 int PMPI_Buffer_attach(void *buf, int size){
249   if(buf==nullptr)
250     return MPI_ERR_BUFFER;
251   if(size<0)
252     return MPI_ERR_ARG;
253   smpi_process()->set_bsend_buffer(buf, size);
254   return MPI_SUCCESS;
255 }
256
257 int PMPI_Buffer_detach(void* buffer, int* size){
258   smpi_process()->bsend_buffer((void**)buffer, size);
259   smpi_process()->set_bsend_buffer(nullptr, 0);
260   return MPI_SUCCESS;
261 }