Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'factor_in_actions' into 'master'
[simgrid.git] / src / smpi / bindings / smpi_pmpi.cpp
1 /* Copyright (c) 2007-2021. The SimGrid Team. All rights reserved.          */
2
3 /* This program is free software; you can redistribute it and/or modify it
4  * under the terms of the license (GNU LGPL) which comes with this package. */
5
6 #include "private.hpp"
7 #include "simgrid/instr.h"
8 #include "simgrid/s4u/Engine.hpp"
9 #include "simgrid/s4u/Host.hpp"
10 #include "simgrid/version.h"
11 #include "smpi_comm.hpp"
12 #include "smpi_datatype_derived.hpp"
13 #include "smpi_status.hpp"
14 #include "smpi_coll.hpp"
15 #include "src/kernel/actor/ActorImpl.hpp"
16 #include "src/smpi/include/smpi_actor.hpp"
17
18 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_pmpi, smpi, "Logging specific to SMPI (pmpi)");
19
20 //this function need to be here because of the calls to smpi_bench
21 void TRACE_smpi_set_category(const char *category)
22 {
23   //need to end bench otherwise categories for execution tasks are wrong
24   const SmpiBenchGuard suspend_bench;
25
26   if (category != nullptr) {
27     // declare category
28     TRACE_category(category);
29     smpi_process()->set_tracing_category(category);
30   }
31 }
32
33 /* PMPI User level calls */
34
35 int PMPI_Init(int*, char***)
36 {
37   xbt_assert(simgrid::s4u::Engine::is_initialized(),
38              "Your MPI program was not properly initialized. The easiest is to use smpirun to start it.");
39
40   if(smpi_process()->initializing()){
41     XBT_WARN("SMPI is already initializing - MPI_Init called twice ?");
42     return MPI_ERR_OTHER;
43   }
44   if(smpi_process()->initialized()){
45     XBT_WARN("SMPI already initialized once - MPI_Init called twice ?");
46     return MPI_ERR_OTHER;
47   }
48   if(smpi_process()->finalized()){
49     XBT_WARN("SMPI already finalized");
50     return MPI_ERR_OTHER;
51   }
52
53   simgrid::smpi::ActorExt::init();
54   TRACE_smpi_init(simgrid::s4u::this_actor::get_pid(), __func__);
55   smpi_bench_begin();
56   smpi_process()->mark_as_initialized();
57
58   smpi_mpi_init();
59
60   return MPI_SUCCESS;
61 }
62
63 int PMPI_Finalize()
64 {
65   smpi_bench_end();
66   aid_t rank_traced = simgrid::s4u::this_actor::get_pid();
67   TRACE_smpi_comm_in(rank_traced, __func__, new simgrid::instr::NoOpTIData("finalize"));
68
69   if(simgrid::config::get_value<bool>("smpi/finalization-barrier"))
70     simgrid::smpi::colls::barrier(MPI_COMM_WORLD);
71
72   smpi_process()->finalize();
73
74   TRACE_smpi_comm_out(rank_traced);
75   return MPI_SUCCESS;
76 }
77
78 int PMPI_Finalized(int* flag)
79 {
80   *flag=smpi_process()!=nullptr ? smpi_process()->finalized() : 0;
81   return MPI_SUCCESS;
82 }
83
84 int PMPI_Get_version (int *version,int *subversion){
85   *version = MPI_VERSION;
86   *subversion= MPI_SUBVERSION;
87   return MPI_SUCCESS;
88 }
89
90 int PMPI_Get_library_version (char *version,int *len){
91   snprintf(version, MPI_MAX_LIBRARY_VERSION_STRING, "SMPI Version %d.%d. Copyright The SimGrid Team 2007-2021",
92            SIMGRID_VERSION_MAJOR, SIMGRID_VERSION_MINOR);
93   *len = strlen(version) > MPI_MAX_LIBRARY_VERSION_STRING ? MPI_MAX_LIBRARY_VERSION_STRING : strlen(version);
94   return MPI_SUCCESS;
95 }
96
97 int PMPI_Init_thread(int* argc, char*** argv, int /*required*/, int* provided)
98 {
99   if (provided != nullptr) {
100     *provided = MPI_THREAD_SINGLE;
101   }
102   return MPI_Init(argc, argv);
103 }
104
105 int PMPI_Query_thread(int *provided)
106 {
107   if (provided == nullptr) {
108     return MPI_ERR_ARG;
109   } else {
110     *provided = MPI_THREAD_SINGLE;
111     return MPI_SUCCESS;
112   }
113 }
114
115 int PMPI_Is_thread_main(int *flag)
116 {
117   // FIXME: The MPI standard seems to say that fatal errors need to be triggered
118   // if MPI has been finalized or not yet been initialized
119   if (flag == nullptr) {
120     return MPI_ERR_ARG;
121   } else {
122     *flag = simgrid::s4u::this_actor::get_pid() ==
123             1; // FIXME: I don't think this is correct: This just returns true if the process ID is 1,
124                // regardless of whether this process called MPI_Thread_Init() or not.
125     return MPI_SUCCESS;
126   }
127 }
128
129 int PMPI_Abort(MPI_Comm comm, int /*errorcode*/)
130 {
131   smpi_bench_end();
132   CHECK_COMM(1)
133   XBT_WARN("MPI_Abort was called, something went probably wrong in this simulation ! Killing all processes sharing the same MPI_COMM_WORLD");
134   smx_actor_t myself = SIMIX_process_self();
135   for (int i = 0; i < comm->size(); i++){
136     smx_actor_t actor = simgrid::kernel::actor::ActorImpl::by_pid(comm->group()->actor(i));
137     if (actor != nullptr && actor != myself)
138       simgrid::kernel::actor::simcall([actor] { actor->exit(); });
139   }
140   // now ourself
141   simgrid::kernel::actor::simcall([myself] { myself->exit(); });
142   return MPI_SUCCESS;
143 }
144
145 double PMPI_Wtime()
146 {
147   return smpi_mpi_wtime();
148 }
149
150 extern double sg_maxmin_precision;
151 double PMPI_Wtick()
152 {
153   return sg_maxmin_precision;
154 }
155
156 int PMPI_Address(const void* location, MPI_Aint* address)
157 {
158   if (address==nullptr) {
159     return MPI_ERR_ARG;
160   } else {
161     *address = reinterpret_cast<MPI_Aint>(location);
162     return MPI_SUCCESS;
163   }
164 }
165
166 int PMPI_Get_address(const void *location, MPI_Aint * address)
167 {
168   return PMPI_Address(location, address);
169 }
170
171 MPI_Aint PMPI_Aint_add(MPI_Aint address, MPI_Aint disp)
172 {
173   xbt_assert(address <= PTRDIFF_MAX - disp, "overflow in MPI_Aint_add");
174   return address + disp;
175 }
176
177 MPI_Aint PMPI_Aint_diff(MPI_Aint address, MPI_Aint disp)
178 {
179   xbt_assert(address >= PTRDIFF_MIN + disp, "underflow in MPI_Aint_diff");
180   return address - disp;
181 }
182
183 int PMPI_Get_processor_name(char *name, int *resultlen)
184 {
185   int len = std::min<int>(sg_host_self()->get_name().size(), MPI_MAX_PROCESSOR_NAME - 1);
186   std::string(sg_host_self()->get_name()).copy(name, len);
187   name[len]  = '\0';
188   *resultlen = len;
189
190   return MPI_SUCCESS;
191 }
192
193 int PMPI_Get_count(const MPI_Status * status, MPI_Datatype datatype, int *count)
194 {
195   if (status == nullptr || count == nullptr) {
196     return MPI_ERR_ARG;
197   } else if (not datatype->is_valid()) {
198     return MPI_ERR_TYPE;
199   } else {
200     size_t size = datatype->size();
201     if (size == 0) {
202       *count = 0;
203     } else if (status->count % size != 0) {
204       *count = MPI_UNDEFINED;
205     } else {
206       *count = simgrid::smpi::Status::get_count(status, datatype);
207     }
208     return MPI_SUCCESS;
209   }
210 }
211
212 int PMPI_Initialized(int* flag) {
213    *flag=(smpi_process()!=nullptr && smpi_process()->initialized());
214    return MPI_SUCCESS;
215 }
216
217 int PMPI_Alloc_mem(MPI_Aint size, MPI_Info /*info*/, void* baseptr)
218 {
219   CHECK_NEGATIVE(1, MPI_ERR_COUNT, size)
220   void *ptr = xbt_malloc(size);
221   *static_cast<void**>(baseptr) = ptr;
222   return MPI_SUCCESS;
223 }
224
225 int PMPI_Free_mem(void *baseptr){
226   xbt_free(baseptr);
227   return MPI_SUCCESS;
228 }
229
230 int PMPI_Error_class(int errorcode, int* errorclass) {
231   // assume smpi uses only standard mpi error codes
232   *errorclass=errorcode;
233   return MPI_SUCCESS;
234 }
235
236 int PMPI_Error_string(int errorcode, char* string, int* resultlen)
237 {
238   static const std::vector<const char*> smpi_error_string = {FOREACH_ERROR(GENERATE_STRING)};
239   if (errorcode < 0 || static_cast<size_t>(errorcode) >= smpi_error_string.size() || string == nullptr)
240     return MPI_ERR_ARG;
241
242   int len    = snprintf(string, MPI_MAX_ERROR_STRING, "%s", smpi_error_string[errorcode]);
243   *resultlen = std::min(len, MPI_MAX_ERROR_STRING - 1);
244   return MPI_SUCCESS;
245 }
246
247 int PMPI_Keyval_create(MPI_Copy_function* copy_fn, MPI_Delete_function* delete_fn, int* keyval, void* extra_state) {
248   smpi_copy_fn _copy_fn={copy_fn,nullptr,nullptr,nullptr,nullptr,nullptr};
249   smpi_delete_fn _delete_fn={delete_fn,nullptr,nullptr,nullptr,nullptr,nullptr};
250   return simgrid::smpi::Keyval::keyval_create<simgrid::smpi::Comm>(_copy_fn, _delete_fn, keyval, extra_state);
251 }
252
253 int PMPI_Keyval_free(int* keyval) {
254   CHECK_NULL(1, MPI_ERR_ARG, keyval)
255   CHECK_VAL(1, MPI_KEYVAL_INVALID, MPI_ERR_KEYVAL, *keyval)
256   return simgrid::smpi::Keyval::keyval_free<simgrid::smpi::Comm>(keyval);
257 }
258
259 int PMPI_Buffer_attach(void *buf, int size){
260   if(buf==nullptr)
261     return MPI_ERR_BUFFER;
262   if(size<0)
263     return MPI_ERR_ARG;
264   return smpi_process()->set_bsend_buffer(buf, size);
265 }
266
267 int PMPI_Buffer_detach(void* buffer, int* size){
268   smpi_process()->bsend_buffer((void**)buffer, size);
269   return smpi_process()->set_bsend_buffer(nullptr, 0);
270 }