Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Init : dont just crash with asserts, return errors (they will crash if errhandler...
[simgrid.git] / src / smpi / bindings / smpi_pmpi.cpp
1 /* Copyright (c) 2007-2021. The SimGrid Team. All rights reserved.          */
2
3 /* This program is free software; you can redistribute it and/or modify it
4  * under the terms of the license (GNU LGPL) which comes with this package. */
5
6 #include "private.hpp"
7 #include "simgrid/instr.h"
8 #include "simgrid/s4u/Engine.hpp"
9 #include "simgrid/s4u/Host.hpp"
10 #include "simgrid/version.h"
11 #include "smpi_comm.hpp"
12 #include "smpi_datatype_derived.hpp"
13 #include "smpi_status.hpp"
14 #include "src/kernel/actor/ActorImpl.hpp"
15 #include "src/smpi/include/smpi_actor.hpp"
16
17 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_pmpi, smpi, "Logging specific to SMPI (pmpi)");
18
19 //this function need to be here because of the calls to smpi_bench
20 void TRACE_smpi_set_category(const char *category)
21 {
22   //need to end bench otherwise categories for execution tasks are wrong
23   smpi_bench_end();
24   if (category != nullptr) {
25     // declare category
26     TRACE_category(category);
27     smpi_process()->set_tracing_category(category);
28   }
29   //begin bench after changing process's category
30   smpi_bench_begin();
31 }
32
33 /* PMPI User level calls */
34
35 int PMPI_Init(int*, char***)
36 {
37   xbt_assert(simgrid::s4u::Engine::is_initialized(),
38              "Your MPI program was not properly initialized. The easiest is to use smpirun to start it.");
39
40   if(smpi_process()->initializing()){
41     XBT_WARN("SMPI is already initializing - MPI_Init called twice ?");
42     return MPI_ERR_OTHER;
43   }
44   if(smpi_process()->initialized()){
45     XBT_WARN("SMPI already initialized once - MPI_Init called twice ?");
46     return MPI_ERR_OTHER;
47   }
48   if(smpi_process()->finalized()){
49     XBT_WARN("SMPI already finalized");
50     return MPI_ERR_OTHER;
51   }
52
53   simgrid::smpi::ActorExt::init();
54   int rank_traced = simgrid::s4u::this_actor::get_pid();
55   TRACE_smpi_init(rank_traced, __func__);
56   smpi_bench_begin();
57   smpi_process()->mark_as_initialized();
58
59   smpi_mpi_init();
60
61   return MPI_SUCCESS;
62 }
63
64 int PMPI_Finalize()
65 {
66   smpi_bench_end();
67   int rank_traced = simgrid::s4u::this_actor::get_pid();
68   TRACE_smpi_comm_in(rank_traced, __func__, new simgrid::instr::NoOpTIData("finalize"));
69
70   smpi_process()->finalize();
71
72   TRACE_smpi_comm_out(rank_traced);
73   return MPI_SUCCESS;
74 }
75
76 int PMPI_Finalized(int* flag)
77 {
78   *flag=smpi_process()!=nullptr ? smpi_process()->finalized() : 0;
79   return MPI_SUCCESS;
80 }
81
82 int PMPI_Get_version (int *version,int *subversion){
83   *version = MPI_VERSION;
84   *subversion= MPI_SUBVERSION;
85   return MPI_SUCCESS;
86 }
87
88 int PMPI_Get_library_version (char *version,int *len){
89   snprintf(version, MPI_MAX_LIBRARY_VERSION_STRING, "SMPI Version %d.%d. Copyright The SimGrid Team 2007-2021",
90            SIMGRID_VERSION_MAJOR, SIMGRID_VERSION_MINOR);
91   *len = strlen(version) > MPI_MAX_LIBRARY_VERSION_STRING ? MPI_MAX_LIBRARY_VERSION_STRING : strlen(version);
92   return MPI_SUCCESS;
93 }
94
95 int PMPI_Init_thread(int* argc, char*** argv, int /*required*/, int* provided)
96 {
97   if (provided != nullptr) {
98     *provided = MPI_THREAD_SINGLE;
99   }
100   return MPI_Init(argc, argv);
101 }
102
103 int PMPI_Query_thread(int *provided)
104 {
105   if (provided == nullptr) {
106     return MPI_ERR_ARG;
107   } else {
108     *provided = MPI_THREAD_SINGLE;
109     return MPI_SUCCESS;
110   }
111 }
112
113 int PMPI_Is_thread_main(int *flag)
114 {
115   // FIXME: The MPI standard seems to say that fatal errors need to be triggered
116   // if MPI has been finalized or not yet been initialized
117   if (flag == nullptr) {
118     return MPI_ERR_ARG;
119   } else {
120     *flag = simgrid::s4u::this_actor::get_pid() ==
121             1; // FIXME: I don't think this is correct: This just returns true if the process ID is 1,
122                // regardless of whether this process called MPI_Thread_Init() or not.
123     return MPI_SUCCESS;
124   }
125 }
126
127 int PMPI_Abort(MPI_Comm /*comm*/, int /*errorcode*/)
128 {
129   smpi_bench_end();
130   // FIXME: should kill all processes in comm instead
131   XBT_WARN("MPI_Abort was called, something went probably wrong in this simulation ! Killing this process");
132   smx_actor_t actor = SIMIX_process_self();
133   simgrid::kernel::actor::simcall([actor] { actor->exit(); });
134   return MPI_SUCCESS;
135 }
136
137 double PMPI_Wtime()
138 {
139   return smpi_mpi_wtime();
140 }
141
142 extern double sg_maxmin_precision;
143 double PMPI_Wtick()
144 {
145   return sg_maxmin_precision;
146 }
147
148 int PMPI_Address(const void* location, MPI_Aint* address)
149 {
150   if (address==nullptr) {
151     return MPI_ERR_ARG;
152   } else {
153     *address = reinterpret_cast<MPI_Aint>(location);
154     return MPI_SUCCESS;
155   }
156 }
157
158 int PMPI_Get_address(const void *location, MPI_Aint * address)
159 {
160   return PMPI_Address(location, address);
161 }
162
163 MPI_Aint PMPI_Aint_add(MPI_Aint address, MPI_Aint disp)
164 {
165   xbt_assert(address <= PTRDIFF_MAX - disp, "overflow in MPI_Aint_add");
166   return address + disp;
167 }
168
169 MPI_Aint PMPI_Aint_diff(MPI_Aint address, MPI_Aint disp)
170 {
171   xbt_assert(address >= PTRDIFF_MIN + disp, "underflow in MPI_Aint_diff");
172   return address - disp;
173 }
174
175 int PMPI_Get_processor_name(char *name, int *resultlen)
176 {
177   int len = std::min<int>(sg_host_self()->get_name().size(), MPI_MAX_PROCESSOR_NAME - 1);
178   std::string(sg_host_self()->get_name()).copy(name, len);
179   name[len]  = '\0';
180   *resultlen = len;
181
182   return MPI_SUCCESS;
183 }
184
185 int PMPI_Get_count(const MPI_Status * status, MPI_Datatype datatype, int *count)
186 {
187   if (status == nullptr || count == nullptr) {
188     return MPI_ERR_ARG;
189   } else if (not datatype->is_valid()) {
190     return MPI_ERR_TYPE;
191   } else {
192     size_t size = datatype->size();
193     if (size == 0) {
194       *count = 0;
195     } else if (status->count % size != 0) {
196       *count = MPI_UNDEFINED;
197     } else {
198       *count = simgrid::smpi::Status::get_count(status, datatype);
199     }
200     return MPI_SUCCESS;
201   }
202 }
203
204 int PMPI_Initialized(int* flag) {
205    *flag=(smpi_process()!=nullptr && smpi_process()->initialized());
206    return MPI_SUCCESS;
207 }
208
209 int PMPI_Alloc_mem(MPI_Aint size, MPI_Info /*info*/, void* baseptr)
210 {
211   void *ptr = xbt_malloc(size);
212   *static_cast<void**>(baseptr) = ptr;
213   return MPI_SUCCESS;
214 }
215
216 int PMPI_Free_mem(void *baseptr){
217   xbt_free(baseptr);
218   return MPI_SUCCESS;
219 }
220
221 int PMPI_Error_class(int errorcode, int* errorclass) {
222   // assume smpi uses only standard mpi error codes
223   *errorclass=errorcode;
224   return MPI_SUCCESS;
225 }
226
227 int PMPI_Error_string(int errorcode, char* string, int* resultlen)
228 {
229   static const std::vector<const char*> smpi_error_string = {FOREACH_ERROR(GENERATE_STRING)};
230   if (errorcode < 0 || static_cast<size_t>(errorcode) >= smpi_error_string.size() || string == nullptr)
231     return MPI_ERR_ARG;
232
233   int len    = snprintf(string, MPI_MAX_ERROR_STRING, "%s", smpi_error_string[errorcode]);
234   *resultlen = std::min(len, MPI_MAX_ERROR_STRING - 1);
235   return MPI_SUCCESS;
236 }
237
238 int PMPI_Keyval_create(MPI_Copy_function* copy_fn, MPI_Delete_function* delete_fn, int* keyval, void* extra_state) {
239   smpi_copy_fn _copy_fn={copy_fn,nullptr,nullptr,nullptr,nullptr,nullptr};
240   smpi_delete_fn _delete_fn={delete_fn,nullptr,nullptr,nullptr,nullptr,nullptr};
241   return simgrid::smpi::Keyval::keyval_create<simgrid::smpi::Comm>(_copy_fn, _delete_fn, keyval, extra_state);
242 }
243
244 int PMPI_Keyval_free(int* keyval) {
245   return simgrid::smpi::Keyval::keyval_free<simgrid::smpi::Comm>(keyval);
246 }
247
248 MPI_Errhandler PMPI_Errhandler_f2c(MPI_Fint errhan){
249   if(errhan==-1)
250     return MPI_ERRHANDLER_NULL;
251   return simgrid::smpi::Errhandler::f2c(errhan);
252 }
253
254 MPI_Fint PMPI_Errhandler_c2f(MPI_Errhandler errhan){
255   if(errhan==MPI_ERRHANDLER_NULL)
256     return -1;
257   return errhan->c2f();
258 }
259
260 int PMPI_Buffer_attach(void *buf, int size){
261   if(buf==nullptr)
262     return MPI_ERR_BUFFER;
263   if(size<0)
264     return MPI_ERR_ARG;
265   return smpi_process()->set_bsend_buffer(buf, size);
266 }
267
268 int PMPI_Buffer_detach(void* buffer, int* size){
269   smpi_process()->bsend_buffer((void**)buffer, size);
270   return smpi_process()->set_bsend_buffer(nullptr, 0);
271 }