Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Trigger a warning when abort is called and a process exits.
[simgrid.git] / src / smpi / bindings / smpi_pmpi.cpp
1 /* Copyright (c) 2007-2020. The SimGrid Team. All rights reserved.          */
2
3 /* This program is free software; you can redistribute it and/or modify it
4  * under the terms of the license (GNU LGPL) which comes with this package. */
5
6 #include "private.hpp"
7 #include "simgrid/instr.h"
8 #include "simgrid/s4u/Engine.hpp"
9 #include "simgrid/s4u/Host.hpp"
10 #include "simgrid/version.h"
11 #include "smpi_comm.hpp"
12 #include "smpi_datatype_derived.hpp"
13 #include "smpi_status.hpp"
14 #include "src/kernel/actor/ActorImpl.hpp"
15 #include "src/smpi/include/smpi_actor.hpp"
16
17 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_pmpi, smpi, "Logging specific to SMPI (pmpi)");
18
19 //this function need to be here because of the calls to smpi_bench
20 void TRACE_smpi_set_category(const char *category)
21 {
22   //need to end bench otherwise categories for execution tasks are wrong
23   smpi_bench_end();
24   if (category != nullptr) {
25     // declare category
26     TRACE_category(category);
27     smpi_process()->set_tracing_category(category);
28   }
29   //begin bench after changing process's category
30   smpi_bench_begin();
31 }
32
33 /* PMPI User level calls */
34
35 int PMPI_Init(int*, char***)
36 {
37   xbt_assert(simgrid::s4u::Engine::is_initialized(),
38              "Your MPI program was not properly initialized. The easiest is to use smpirun to start it.");
39
40   xbt_assert(not smpi_process()->initializing());
41   xbt_assert(not smpi_process()->initialized());
42
43   simgrid::smpi::ActorExt::init();
44   int rank_traced = simgrid::s4u::this_actor::get_pid();
45   TRACE_smpi_init(rank_traced, __func__);
46   smpi_bench_begin();
47   smpi_process()->mark_as_initialized();
48
49   smpi_mpi_init();
50
51   return MPI_SUCCESS;
52 }
53
54 int PMPI_Finalize()
55 {
56   smpi_bench_end();
57   int rank_traced = simgrid::s4u::this_actor::get_pid();
58   TRACE_smpi_comm_in(rank_traced, __func__, new simgrid::instr::NoOpTIData("finalize"));
59
60   smpi_process()->finalize();
61
62   TRACE_smpi_comm_out(rank_traced);
63   return MPI_SUCCESS;
64 }
65
66 int PMPI_Finalized(int* flag)
67 {
68   *flag=smpi_process()!=nullptr ? smpi_process()->finalized() : 0;
69   return MPI_SUCCESS;
70 }
71
72 int PMPI_Get_version (int *version,int *subversion){
73   *version = MPI_VERSION;
74   *subversion= MPI_SUBVERSION;
75   return MPI_SUCCESS;
76 }
77
78 int PMPI_Get_library_version (char *version,int *len){
79   smpi_bench_end();
80   snprintf(version, MPI_MAX_LIBRARY_VERSION_STRING, "SMPI Version %d.%d. Copyright The SimGrid Team 2007-2020",
81            SIMGRID_VERSION_MAJOR, SIMGRID_VERSION_MINOR);
82   *len = strlen(version) > MPI_MAX_LIBRARY_VERSION_STRING ? MPI_MAX_LIBRARY_VERSION_STRING : strlen(version);
83   smpi_bench_begin();
84   return MPI_SUCCESS;
85 }
86
87 int PMPI_Init_thread(int* argc, char*** argv, int /*required*/, int* provided)
88 {
89   if (provided != nullptr) {
90     *provided = MPI_THREAD_SINGLE;
91   }
92   return MPI_Init(argc, argv);
93 }
94
95 int PMPI_Query_thread(int *provided)
96 {
97   if (provided == nullptr) {
98     return MPI_ERR_ARG;
99   } else {
100     *provided = MPI_THREAD_SINGLE;
101     return MPI_SUCCESS;
102   }
103 }
104
105 int PMPI_Is_thread_main(int *flag)
106 {
107   // FIXME: The MPI standard seems to say that fatal errors need to be triggered
108   // if MPI has been finalized or not yet been initialized
109   if (flag == nullptr) {
110     return MPI_ERR_ARG;
111   } else {
112     *flag = simgrid::s4u::this_actor::get_pid() ==
113             1; // FIXME: I don't think this is correct: This just returns true if the process ID is 1,
114                // regardless of whether this process called MPI_Thread_Init() or not.
115     return MPI_SUCCESS;
116   }
117 }
118
119 int PMPI_Abort(MPI_Comm /*comm*/, int /*errorcode*/)
120 {
121   smpi_bench_end();
122   // FIXME: should kill all processes in comm instead
123   XBT_WARN("MPI_Abort was called, something went probably wrong in this simulation ! Killing this process");
124   smx_actor_t actor = SIMIX_process_self();
125   simgrid::kernel::actor::simcall([actor] { actor->exit(); });
126   return MPI_SUCCESS;
127 }
128
129 double PMPI_Wtime()
130 {
131   return smpi_mpi_wtime();
132 }
133
134 extern double sg_maxmin_precision;
135 double PMPI_Wtick()
136 {
137   return sg_maxmin_precision;
138 }
139
140 int PMPI_Address(const void* location, MPI_Aint* address)
141 {
142   if (address==nullptr) {
143     return MPI_ERR_ARG;
144   } else {
145     *address = reinterpret_cast<MPI_Aint>(location);
146     return MPI_SUCCESS;
147   }
148 }
149
150 int PMPI_Get_address(const void *location, MPI_Aint * address)
151 {
152   return PMPI_Address(location, address);
153 }
154
155 int PMPI_Get_processor_name(char *name, int *resultlen)
156 {
157   strncpy(name, sg_host_self()->get_cname(),
158           strlen(sg_host_self()->get_cname()) < MPI_MAX_PROCESSOR_NAME - 1 ? strlen(sg_host_self()->get_cname()) + 1
159                                                                            : MPI_MAX_PROCESSOR_NAME - 1);
160   *resultlen = strlen(name) > MPI_MAX_PROCESSOR_NAME ? MPI_MAX_PROCESSOR_NAME : strlen(name);
161
162   return MPI_SUCCESS;
163 }
164
165 int PMPI_Get_count(const MPI_Status * status, MPI_Datatype datatype, int *count)
166 {
167   if (status == nullptr || count == nullptr) {
168     return MPI_ERR_ARG;
169   } else if (not datatype->is_valid()) {
170     return MPI_ERR_TYPE;
171   } else {
172     size_t size = datatype->size();
173     if (size == 0) {
174       *count = 0;
175       return MPI_SUCCESS;
176     } else if (status->count % size != 0) {
177       return MPI_UNDEFINED;
178     } else {
179       *count = simgrid::smpi::Status::get_count(status, datatype);
180       return MPI_SUCCESS;
181     }
182   }
183 }
184
185 int PMPI_Initialized(int* flag) {
186    *flag=(smpi_process()!=nullptr && smpi_process()->initialized());
187    return MPI_SUCCESS;
188 }
189
190 int PMPI_Alloc_mem(MPI_Aint size, MPI_Info /*info*/, void* baseptr)
191 {
192   void *ptr = xbt_malloc(size);
193   if(ptr==nullptr)
194     return MPI_ERR_NO_MEM;
195   else {
196     *static_cast<void**>(baseptr) = ptr;
197     return MPI_SUCCESS;
198   }
199 }
200
201 int PMPI_Free_mem(void *baseptr){
202   xbt_free(baseptr);
203   return MPI_SUCCESS;
204 }
205
206 int PMPI_Error_class(int errorcode, int* errorclass) {
207   // assume smpi uses only standard mpi error codes
208   *errorclass=errorcode;
209   return MPI_SUCCESS;
210 }
211
212 int PMPI_Error_string(int errorcode, char* string, int* resultlen)
213 {
214   static const char* smpi_error_string[] = {FOREACH_ERROR(GENERATE_STRING)};
215   constexpr int nerrors                  = (sizeof smpi_error_string) / (sizeof smpi_error_string[0]);
216   if (errorcode < 0 || errorcode >= nerrors || string == nullptr)
217     return MPI_ERR_ARG;
218
219   int len    = snprintf(string, MPI_MAX_ERROR_STRING, "%s", smpi_error_string[errorcode]);
220   *resultlen = std::min(len, MPI_MAX_ERROR_STRING - 1);
221   return MPI_SUCCESS;
222 }
223
224 int PMPI_Keyval_create(MPI_Copy_function* copy_fn, MPI_Delete_function* delete_fn, int* keyval, void* extra_state) {
225   smpi_copy_fn _copy_fn={copy_fn,nullptr,nullptr,nullptr,nullptr,nullptr};
226   smpi_delete_fn _delete_fn={delete_fn,nullptr,nullptr,nullptr,nullptr,nullptr};
227   return simgrid::smpi::Keyval::keyval_create<simgrid::smpi::Comm>(_copy_fn, _delete_fn, keyval, extra_state);
228 }
229
230 int PMPI_Keyval_free(int* keyval) {
231   return simgrid::smpi::Keyval::keyval_free<simgrid::smpi::Comm>(keyval);
232 }
233
234 MPI_Errhandler PMPI_Errhandler_f2c(MPI_Fint errhan){
235   if(errhan==-1)
236     return MPI_ERRHANDLER_NULL;
237   return static_cast<MPI_Errhandler>(simgrid::smpi::Errhandler::f2c(errhan));
238 }
239
240 MPI_Fint PMPI_Errhandler_c2f(MPI_Errhandler errhan){
241   if(errhan==MPI_ERRHANDLER_NULL)
242     return -1;
243   return errhan->c2f();
244 }
245
246 int PMPI_Buffer_attach(void *buf, int size){
247   if(buf==nullptr)
248     return MPI_ERR_BUFFER;
249   if(size<0)
250     return MPI_ERR_ARG;
251   smpi_process()->set_bsend_buffer(buf, size);
252   return MPI_SUCCESS;
253 }
254
255 int PMPI_Buffer_detach(void* buffer, int* size){
256   smpi_process()->bsend_buffer((void**)buffer, size);
257   smpi_process()->set_bsend_buffer(nullptr, 0);
258   return MPI_SUCCESS;
259 }