Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Call smpi_mpi_init before smpi_bench_begin.
[simgrid.git] / src / smpi / bindings / smpi_pmpi.cpp
1 /* Copyright (c) 2007-2022. The SimGrid Team. All rights reserved.          */
2
3 /* This program is free software; you can redistribute it and/or modify it
4  * under the terms of the license (GNU LGPL) which comes with this package. */
5
6 #include "private.hpp"
7 #include "simgrid/host.h"
8 #include "simgrid/instr.h"
9 #include "simgrid/s4u/Engine.hpp"
10 #include "simgrid/s4u/Host.hpp"
11 #include "simgrid/version.h"
12 #include "smpi_coll.hpp"
13 #include "smpi_comm.hpp"
14 #include "smpi_datatype_derived.hpp"
15 #include "smpi_status.hpp"
16 #include "src/kernel/EngineImpl.hpp"
17 #include "src/kernel/actor/ActorImpl.hpp"
18 #include "src/smpi/include/smpi_actor.hpp"
19
20 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_pmpi, smpi, "Logging specific to SMPI (pmpi)");
21
22 //this function need to be here because of the calls to smpi_bench
23 void TRACE_smpi_set_category(const char *category)
24 {
25   //need to end bench otherwise categories for execution tasks are wrong
26   const SmpiBenchGuard suspend_bench;
27
28   if (category != nullptr) {
29     // declare category
30     simgrid::instr::declare_tracing_category(category);
31     smpi_process()->set_tracing_category(category);
32   }
33 }
34
35 /* PMPI User level calls */
36
37 int PMPI_Init(int*, char***)
38 {
39   xbt_assert(simgrid::s4u::Engine::is_initialized(),
40              "Your MPI program was not properly initialized. The easiest is to use smpirun to start it.");
41
42   if(smpi_process()->initializing()){
43     XBT_WARN("SMPI is already initializing - MPI_Init called twice ?");
44     return MPI_ERR_OTHER;
45   }
46   if(smpi_process()->initialized()){
47     XBT_WARN("SMPI already initialized once - MPI_Init called twice ?");
48     return MPI_ERR_OTHER;
49   }
50   if(smpi_process()->finalized()){
51     XBT_WARN("SMPI already finalized");
52     return MPI_ERR_OTHER;
53   }
54
55   simgrid::smpi::ActorExt::init();
56   TRACE_smpi_init(simgrid::s4u::this_actor::get_pid(), __func__);
57   smpi_mpi_init();
58   smpi_bench_begin();
59   smpi_process()->mark_as_initialized();
60
61   CHECK_COLLECTIVE(smpi_process()->comm_world(), "MPI_Init")
62
63   return MPI_SUCCESS;
64 }
65
66 int PMPI_Finalize()
67 {
68   smpi_bench_end();
69   CHECK_COLLECTIVE(smpi_process()->comm_world(), "MPI_Finalize")
70   aid_t rank_traced = simgrid::s4u::this_actor::get_pid();
71   smpi_process()->mark_as_finalizing();
72   TRACE_smpi_comm_in(rank_traced, __func__, new simgrid::instr::NoOpTIData("finalize"));
73
74   if(simgrid::config::get_value<bool>("smpi/finalization-barrier"))
75     simgrid::smpi::colls::barrier(MPI_COMM_WORLD);
76
77   smpi_process()->finalize();
78
79   TRACE_smpi_comm_out(rank_traced);
80   return MPI_SUCCESS;
81 }
82
83 int PMPI_Finalized(int* flag)
84 {
85   *flag=smpi_process()!=nullptr ? smpi_process()->finalized() : 0;
86   return MPI_SUCCESS;
87 }
88
89 int PMPI_Get_version (int *version,int *subversion){
90   *version = MPI_VERSION;
91   *subversion= MPI_SUBVERSION;
92   return MPI_SUCCESS;
93 }
94
95 int PMPI_Get_library_version (char *version,int *len){
96   snprintf(version, MPI_MAX_LIBRARY_VERSION_STRING, "SMPI Version %d.%d. Copyright The SimGrid Team 2007-2022",
97            SIMGRID_VERSION_MAJOR, SIMGRID_VERSION_MINOR);
98   *len = std::min(static_cast<int>(strlen(version)), MPI_MAX_LIBRARY_VERSION_STRING);
99   return MPI_SUCCESS;
100 }
101
102 int PMPI_Init_thread(int* argc, char*** argv, int /*required*/, int* provided)
103 {
104   if (provided != nullptr) {
105     *provided = MPI_THREAD_SINGLE;
106   }
107   return MPI_Init(argc, argv);
108 }
109
110 int PMPI_Query_thread(int *provided)
111 {
112   if (provided == nullptr) {
113     return MPI_ERR_ARG;
114   } else {
115     *provided = MPI_THREAD_SINGLE;
116     return MPI_SUCCESS;
117   }
118 }
119
120 int PMPI_Is_thread_main(int *flag)
121 {
122   // FIXME: The MPI standard seems to say that fatal errors need to be triggered
123   // if MPI has been finalized or not yet been initialized
124   if (flag == nullptr) {
125     return MPI_ERR_ARG;
126   } else {
127     *flag = simgrid::s4u::this_actor::get_pid() ==
128             1; // FIXME: I don't think this is correct: This just returns true if the process ID is 1,
129                // regardless of whether this process called MPI_Thread_Init() or not.
130     return MPI_SUCCESS;
131   }
132 }
133
134 int PMPI_Abort(MPI_Comm comm, int /*errorcode*/)
135 {
136   smpi_bench_end();
137   CHECK_COMM(1)
138   XBT_WARN("MPI_Abort was called, something went probably wrong in this simulation ! Killing all processes sharing the same MPI_COMM_WORLD");
139   auto myself = simgrid::kernel::actor::ActorImpl::self();
140   for (int i = 0; i < comm->size(); i++){
141     auto actor = simgrid::kernel::EngineImpl::get_instance()->get_actor_by_pid(comm->group()->actor(i));
142     if (actor != nullptr && actor != myself)
143       simgrid::kernel::actor::simcall_answered([actor] { actor->exit(); });
144   }
145   // now ourself
146   simgrid::kernel::actor::simcall_answered([myself] { myself->exit(); });
147   return MPI_SUCCESS;
148 }
149
150 double PMPI_Wtime()
151 {
152   return smpi_mpi_wtime();
153 }
154
155 extern double sg_maxmin_precision;
156 double PMPI_Wtick()
157 {
158   return sg_maxmin_precision;
159 }
160
161 int PMPI_Address(const void* location, MPI_Aint* address)
162 {
163   if (address==nullptr) {
164     return MPI_ERR_ARG;
165   } else {
166     *address = reinterpret_cast<MPI_Aint>(location);
167     return MPI_SUCCESS;
168   }
169 }
170
171 int PMPI_Get_address(const void *location, MPI_Aint * address)
172 {
173   return PMPI_Address(location, address);
174 }
175
176 MPI_Aint PMPI_Aint_add(MPI_Aint address, MPI_Aint disp)
177 {
178   xbt_assert(address <= PTRDIFF_MAX - disp, "overflow in MPI_Aint_add");
179   return address + disp;
180 }
181
182 MPI_Aint PMPI_Aint_diff(MPI_Aint address, MPI_Aint disp)
183 {
184   xbt_assert(address >= PTRDIFF_MIN + disp, "underflow in MPI_Aint_diff");
185   return address - disp;
186 }
187
188 int PMPI_Get_processor_name(char *name, int *resultlen)
189 {
190   int len = std::min(static_cast<int>(sg_host_self()->get_name().size()), MPI_MAX_PROCESSOR_NAME - 1);
191   std::string(sg_host_self()->get_name()).copy(name, len);
192   name[len]  = '\0';
193   *resultlen = len;
194
195   return MPI_SUCCESS;
196 }
197
198 int PMPI_Get_count(const MPI_Status * status, MPI_Datatype datatype, int *count)
199 {
200   if (status == nullptr || count == nullptr) {
201     return MPI_ERR_ARG;
202   } else if (not datatype->is_valid()) {
203     return MPI_ERR_TYPE;
204   } else {
205     if (datatype->size() == 0) {
206       *count = 0;
207     } else if (status->count % datatype->size() != 0) {
208       *count = MPI_UNDEFINED;
209     } else {
210       *count = simgrid::smpi::Status::get_count(status, datatype);
211     }
212     return MPI_SUCCESS;
213   }
214 }
215
216 int PMPI_Initialized(int* flag) {
217    *flag=(smpi_process()!=nullptr && smpi_process()->initialized());
218    return MPI_SUCCESS;
219 }
220
221 int PMPI_Alloc_mem(MPI_Aint size, MPI_Info /*info*/, void* baseptr)
222 {
223   CHECK_NEGATIVE(1, MPI_ERR_COUNT, size)
224   void *ptr = xbt_malloc(size);
225   *static_cast<void**>(baseptr) = ptr;
226   return MPI_SUCCESS;
227 }
228
229 int PMPI_Free_mem(void *baseptr){
230   xbt_free(baseptr);
231   return MPI_SUCCESS;
232 }
233
234 int PMPI_Error_class(int errorcode, int* errorclass) {
235   // assume smpi uses only standard mpi error codes
236   *errorclass=errorcode;
237   return MPI_SUCCESS;
238 }
239
240 int PMPI_Error_string(int errorcode, char* string, int* resultlen)
241 {
242   static const std::vector<const char*> smpi_error_string = {FOREACH_ERROR(GENERATE_STRING)};
243   if (errorcode < 0 || static_cast<size_t>(errorcode) >= smpi_error_string.size() || string == nullptr)
244     return MPI_ERR_ARG;
245
246   int len    = snprintf(string, MPI_MAX_ERROR_STRING, "%s", smpi_error_string[errorcode]);
247   *resultlen = std::min(len, MPI_MAX_ERROR_STRING - 1);
248   return MPI_SUCCESS;
249 }
250
251 int PMPI_Keyval_create(MPI_Copy_function* copy_fn, MPI_Delete_function* delete_fn, int* keyval, void* extra_state) {
252   smpi_copy_fn _copy_fn={copy_fn,nullptr,nullptr,nullptr,nullptr,nullptr};
253   smpi_delete_fn _delete_fn={delete_fn,nullptr,nullptr,nullptr,nullptr,nullptr};
254   return simgrid::smpi::Keyval::keyval_create<simgrid::smpi::Comm>(_copy_fn, _delete_fn, keyval, extra_state);
255 }
256
257 int PMPI_Keyval_free(int* keyval) {
258   CHECK_NULL(1, MPI_ERR_ARG, keyval)
259   CHECK_VAL(1, MPI_KEYVAL_INVALID, MPI_ERR_KEYVAL, *keyval)
260   return simgrid::smpi::Keyval::keyval_free<simgrid::smpi::Comm>(keyval);
261 }
262
263 int PMPI_Buffer_attach(void *buf, int size){
264   if(buf==nullptr)
265     return MPI_ERR_BUFFER;
266   if(size<0)
267     return MPI_ERR_ARG;
268   return smpi_process()->set_bsend_buffer(buf, size);
269 }
270
271 int PMPI_Buffer_detach(void* buffer, int* size){
272   smpi_process()->bsend_buffer((void**)buffer, size);
273   return smpi_process()->set_bsend_buffer(nullptr, 0);
274 }