Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
8fb7e77162609237ef94e86c0c9b8e9395dd2128
[simgrid.git] / src / smpi / mpi / smpi_datatype.cpp
1 /* smpi_datatype.cpp -- MPI primitives to handle datatypes                  */
2 /* Copyright (c) 2009-2021. The SimGrid Team. All rights reserved.          */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "private.hpp"
8 #include "simgrid/modelchecker.h"
9 #include "smpi_datatype_derived.hpp"
10 #include "smpi_op.hpp"
11 #include "src/instr/instr_private.hpp"
12 #include "src/smpi/include/smpi_actor.hpp"
13
14 #include <algorithm>
15 #include <array>
16 #include <functional>
17 #include <string>
18 #include <complex>
19
20 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_datatype, smpi, "Logging specific to SMPI (datatype)");
21
22 static std::unordered_map<std::string, simgrid::smpi::Datatype*> id2type_lookup;
23
24 #define CREATE_MPI_DATATYPE(name, id, type, flag)                                                                            \
25   simgrid::smpi::Datatype _XBT_CONCAT(smpi_MPI_, name)((char*)"MPI_"#name, (id), sizeof(type), /* size */   \
26                                                          0,                                               /* lb */     \
27                                                          sizeof(type), /* ub = lb + size */                            \
28                                                          DT_FLAG_BASIC | flag /* flags */                                     \
29                                                          );
30
31 #define CREATE_MPI_DATATYPE_NULL(name, id)                                                                             \
32   simgrid::smpi::Datatype _XBT_CONCAT(smpi_MPI_, name)((char*)"MPI_"#name, (id), 0, /* size */              \
33                                                          0,                                    /* lb */                \
34                                                          0,                                    /* ub = lb + size */    \
35                                                          DT_FLAG_BASIC                         /* flags */             \
36                                                          );
37
38 // Predefined data types
39 CREATE_MPI_DATATYPE_NULL(DATATYPE_NULL, -1)
40 CREATE_MPI_DATATYPE(DOUBLE, 0, double, DT_FLAG_FP)
41 CREATE_MPI_DATATYPE(INT, 1, int, DT_FLAG_C_INTEGER)
42 CREATE_MPI_DATATYPE(CHAR, 2, char, DT_FLAG_C_INTEGER)
43 CREATE_MPI_DATATYPE(SHORT, 3, short, DT_FLAG_C_INTEGER)
44 CREATE_MPI_DATATYPE(LONG, 4, long, DT_FLAG_C_INTEGER)
45 CREATE_MPI_DATATYPE(FLOAT, 5, float, DT_FLAG_FP)
46 CREATE_MPI_DATATYPE(BYTE, 6, int8_t, DT_FLAG_BYTE)
47 CREATE_MPI_DATATYPE(LONG_LONG, 7, long long, DT_FLAG_C_INTEGER)
48 CREATE_MPI_DATATYPE(SIGNED_CHAR, 8, signed char, DT_FLAG_C_INTEGER)
49 CREATE_MPI_DATATYPE(UNSIGNED_CHAR, 9, unsigned char, DT_FLAG_C_INTEGER)
50 CREATE_MPI_DATATYPE(UNSIGNED_SHORT, 10, unsigned short, DT_FLAG_C_INTEGER)
51 CREATE_MPI_DATATYPE(UNSIGNED, 11, unsigned int, DT_FLAG_C_INTEGER)
52 CREATE_MPI_DATATYPE(UNSIGNED_LONG, 12, unsigned long, DT_FLAG_C_INTEGER)
53 CREATE_MPI_DATATYPE(UNSIGNED_LONG_LONG, 13, unsigned long long, DT_FLAG_C_INTEGER)
54 CREATE_MPI_DATATYPE(LONG_DOUBLE, 14, long double, DT_FLAG_FP)
55 CREATE_MPI_DATATYPE(WCHAR, 15, wchar_t, DT_FLAG_BASIC)
56 CREATE_MPI_DATATYPE(C_BOOL, 16, bool, DT_FLAG_LOGICAL)
57 CREATE_MPI_DATATYPE(INT8_T, 17, int8_t, DT_FLAG_C_INTEGER)
58 CREATE_MPI_DATATYPE(INT16_T, 18, int16_t, DT_FLAG_C_INTEGER)
59 CREATE_MPI_DATATYPE(INT32_T, 19, int32_t, DT_FLAG_C_INTEGER)
60 CREATE_MPI_DATATYPE(INT64_T, 20, int64_t, DT_FLAG_C_INTEGER)
61 CREATE_MPI_DATATYPE(UINT8_T, 21, uint8_t, DT_FLAG_C_INTEGER)
62 CREATE_MPI_DATATYPE(UINT16_T, 22, uint16_t, DT_FLAG_C_INTEGER)
63 CREATE_MPI_DATATYPE(UINT32_T, 23, uint32_t, DT_FLAG_C_INTEGER)
64 CREATE_MPI_DATATYPE(UINT64_T, 24, uint64_t, DT_FLAG_C_INTEGER)
65 CREATE_MPI_DATATYPE(C_FLOAT_COMPLEX, 25, float _Complex, DT_FLAG_COMPLEX)
66 CREATE_MPI_DATATYPE(C_DOUBLE_COMPLEX, 26, double _Complex, DT_FLAG_COMPLEX)
67 CREATE_MPI_DATATYPE(C_LONG_DOUBLE_COMPLEX, 27, long double _Complex, DT_FLAG_COMPLEX)
68 CREATE_MPI_DATATYPE(AINT, 28, MPI_Aint, DT_FLAG_MULTILANG)
69 CREATE_MPI_DATATYPE(OFFSET, 29, MPI_Offset, DT_FLAG_MULTILANG)
70
71 CREATE_MPI_DATATYPE(FLOAT_INT, 30, float_int, DT_FLAG_REDUCTION)
72 CREATE_MPI_DATATYPE(LONG_INT, 31, long_int, DT_FLAG_REDUCTION)
73 CREATE_MPI_DATATYPE(DOUBLE_INT, 32, double_int, DT_FLAG_REDUCTION)
74 CREATE_MPI_DATATYPE(SHORT_INT, 33, short_int, DT_FLAG_REDUCTION)
75 CREATE_MPI_DATATYPE(2INT, 34, int_int, DT_FLAG_REDUCTION)
76 CREATE_MPI_DATATYPE(2FLOAT, 35, float_float, DT_FLAG_REDUCTION)
77 CREATE_MPI_DATATYPE(2DOUBLE, 36, double_double, DT_FLAG_REDUCTION)
78 CREATE_MPI_DATATYPE(2LONG, 37, long_long, DT_FLAG_REDUCTION)
79
80 CREATE_MPI_DATATYPE(REAL, 38, float, DT_FLAG_FP)
81 CREATE_MPI_DATATYPE(REAL4, 39, float, DT_FLAG_FP)
82 CREATE_MPI_DATATYPE(REAL8, 40, double, DT_FLAG_FP)
83 CREATE_MPI_DATATYPE(REAL16, 41, long double, DT_FLAG_FP)
84 CREATE_MPI_DATATYPE(COMPLEX8, 42, float_float, DT_FLAG_COMPLEX)
85 CREATE_MPI_DATATYPE(COMPLEX16, 43, double_double, DT_FLAG_COMPLEX)
86 CREATE_MPI_DATATYPE(COMPLEX32, 44, double_double, DT_FLAG_COMPLEX)
87 CREATE_MPI_DATATYPE(INTEGER1, 45, int, DT_FLAG_F_INTEGER)
88 CREATE_MPI_DATATYPE(INTEGER2, 46, int16_t, DT_FLAG_F_INTEGER)
89 CREATE_MPI_DATATYPE(INTEGER4, 47, int32_t, DT_FLAG_F_INTEGER)
90 CREATE_MPI_DATATYPE(INTEGER8, 48, int64_t, DT_FLAG_F_INTEGER)
91 CREATE_MPI_DATATYPE(INTEGER16, 49, integer128_t, DT_FLAG_F_INTEGER)
92
93 CREATE_MPI_DATATYPE(LONG_DOUBLE_INT, 50, long_double_int, DT_FLAG_REDUCTION)
94 CREATE_MPI_DATATYPE(CXX_BOOL, 51, bool, DT_FLAG_LOGICAL)
95 CREATE_MPI_DATATYPE(CXX_FLOAT_COMPLEX, 52, std::complex<float>, DT_FLAG_COMPLEX)
96 CREATE_MPI_DATATYPE(CXX_DOUBLE_COMPLEX, 53, std::complex<double>, DT_FLAG_COMPLEX)
97 CREATE_MPI_DATATYPE(CXX_LONG_DOUBLE_COMPLEX, 54, std::complex<long double>, DT_FLAG_COMPLEX)
98
99 CREATE_MPI_DATATYPE_NULL(UB, 55)
100 CREATE_MPI_DATATYPE_NULL(LB, 56)
101 CREATE_MPI_DATATYPE(PACKED, 57, char, DT_FLAG_PREDEFINED)
102 // Internal use only
103 CREATE_MPI_DATATYPE(PTR, 58, void*, DT_FLAG_PREDEFINED)
104 CREATE_MPI_DATATYPE(COUNT, 59, long long, DT_FLAG_MULTILANG)
105 MPI_Datatype MPI_PTR = &smpi_MPI_PTR;
106
107
108 namespace simgrid{
109 namespace smpi{
110
111 std::unordered_map<int, smpi_key_elem> Datatype::keyvals_; // required by the Keyval class implementation
112 int Datatype::keyval_id_=0; // required by the Keyval class implementation
113 Datatype::Datatype(int ident, int size, MPI_Aint lb, MPI_Aint ub, int flags) : Datatype(size, lb, ub, flags)
114 {
115   id = std::to_string(ident);
116 }
117
118 Datatype::Datatype(int size, MPI_Aint lb, MPI_Aint ub, int flags) : size_(size), lb_(lb), ub_(ub), flags_(flags)
119 {
120   this->add_f();
121 #if SIMGRID_HAVE_MC
122   if(MC_is_active())
123     MC_ignore(&refcount_, sizeof refcount_);
124 #endif
125 }
126
127 // for predefined types, so refcount_ = 0.
128 Datatype::Datatype(const char* name, int ident, int size, MPI_Aint lb, MPI_Aint ub, int flags)
129     : name_(name), id(std::to_string(ident)), size_(size), lb_(lb), ub_(ub), flags_(flags), refcount_(0)
130 {
131   id2type_lookup.insert({id, this});
132 #if SIMGRID_HAVE_MC
133   if(MC_is_active())
134     MC_ignore(&refcount_, sizeof refcount_);
135 #endif
136 }
137
138 Datatype::Datatype(Datatype* datatype, int* ret)
139     : size_(datatype->size_), lb_(datatype->lb_), ub_(datatype->ub_), flags_(datatype->flags_), duplicated_datatype_(datatype)
140 {
141   this->add_f();
142   datatype->ref();
143   *ret = this->copy_attrs(datatype);
144 }
145
146 Datatype::~Datatype()
147 {
148   xbt_assert(refcount_ >= 0);
149
150   if(flags_ & DT_FLAG_PREDEFINED)
151     return;
152   //prevent further usage
153   flags_ &= ~ DT_FLAG_COMMITED;
154   if(duplicated_datatype_ != MPI_DATATYPE_NULL)
155     unref(duplicated_datatype_);
156   F2C::free_f(this->f2c_id());
157   //if still used, mark for deletion
158   if(refcount_!=0){
159       flags_ |=DT_FLAG_DESTROYED;
160       return;
161   }
162   cleanup_attr<Datatype>();
163 }
164
165 int Datatype::copy_attrs(Datatype* datatype){
166   flags_ &= ~DT_FLAG_PREDEFINED;
167
168   set_contents(MPI_COMBINER_DUP, 0, nullptr, 0, nullptr, 1, &datatype);
169   for (auto const& it : datatype->attributes()) {
170     auto elem_it = keyvals_.find(it.first);
171     xbt_assert(elem_it != keyvals_.end(), "Keyval not found for Datatype: %d", it.first);
172
173     smpi_key_elem& elem = elem_it->second;
174     int ret             = MPI_SUCCESS;
175     int flag            = 0;
176     void* value_out     = nullptr;
177     if (elem.copy_fn.type_copy_fn == MPI_TYPE_DUP_FN) {
178       value_out = it.second;
179       flag      = 1;
180     } else if (elem.copy_fn.type_copy_fn != MPI_NULL_COPY_FN) {
181       ret = elem.copy_fn.type_copy_fn(datatype, it.first, elem.extra_state, it.second, &value_out, &flag);
182     }
183     if (elem.copy_fn.type_copy_fn_fort != MPI_NULL_COPY_FN) {
184       value_out = xbt_new(int, 1);
185       if (*(int*)*elem.copy_fn.type_copy_fn_fort == 1) { // MPI_TYPE_DUP_FN
186         memcpy(value_out, it.second, sizeof(int));
187         flag = 1;
188       } else { // not null, nor dup
189         elem.copy_fn.type_copy_fn_fort(datatype, it.first, elem.extra_state, it.second, value_out, &flag, &ret);
190       }
191       if (ret != MPI_SUCCESS)
192         xbt_free(value_out);
193     }
194     if (ret != MPI_SUCCESS)
195       return ret;
196     if (flag) {
197       elem.refcount++;
198       attributes().emplace(it.first, value_out);
199     }
200   }
201   return MPI_SUCCESS;
202 }
203
204 int Datatype::clone(MPI_Datatype* type){
205   int ret;
206   *type = new Datatype(this, &ret);
207   return ret;
208 }
209
210 void Datatype::ref()
211 {
212   refcount_++;
213
214 #if SIMGRID_HAVE_MC
215   if(MC_is_active())
216     MC_ignore(&refcount_, sizeof refcount_);
217 #endif
218 }
219
220 void Datatype::unref(MPI_Datatype datatype)
221 {
222   if (datatype->refcount_ > 0)
223     datatype->refcount_--;
224
225 #if SIMGRID_HAVE_MC
226   if(MC_is_active())
227     MC_ignore(&datatype->refcount_, sizeof datatype->refcount_);
228 #endif
229
230   if (datatype->refcount_ == 0 && not(datatype->flags_ & DT_FLAG_PREDEFINED))
231     delete datatype;
232 }
233
234 void Datatype::commit()
235 {
236   flags_ |= DT_FLAG_COMMITED;
237 }
238
239 bool Datatype::is_valid() const
240 {
241   return (flags_ & DT_FLAG_COMMITED);
242 }
243
244 bool Datatype::is_basic() const
245 {
246   return (flags_ & DT_FLAG_BASIC);
247 }
248
249 bool Datatype::is_replayable() const
250 {
251   return (simgrid::instr::trace_format == simgrid::instr::TraceFormat::Ti) &&
252          ((this == MPI_BYTE) || (this == MPI_DOUBLE) || (this == MPI_INT) || (this == MPI_CHAR) ||
253           (this == MPI_SHORT) || (this == MPI_LONG) || (this == MPI_FLOAT));
254 }
255
256 MPI_Datatype Datatype::decode(const std::string& datatype_id)
257 {
258   return id2type_lookup.find(datatype_id)->second;
259 }
260
261 void Datatype::addflag(int flag){
262   flags_ &= flag;
263 }
264
265 int Datatype::extent(MPI_Aint* lb, MPI_Aint* extent) const
266 {
267   *lb = lb_;
268   *extent = ub_ - lb_;
269   return MPI_SUCCESS;
270 }
271
272 void Datatype::get_name(char* name, int* length) const
273 {
274   *length = static_cast<int>(name_.length());
275   if (not name_.empty()) {
276     name_.copy(name, *length);
277     name[*length] = '\0';
278   }
279 }
280
281 void Datatype::set_name(const char* name)
282 {
283   name_ = name;
284 }
285
286 int Datatype::pack(const void* inbuf, int incount, void* outbuf, int outcount, int* position, const Comm*)
287 {
288   if (outcount - *position < incount*static_cast<int>(size_))
289     return MPI_ERR_OTHER;
290   Datatype::copy(inbuf, incount, this, static_cast<char*>(outbuf) + *position, outcount, MPI_CHAR);
291   *position += incount * size_;
292   return MPI_SUCCESS;
293 }
294
295 int Datatype::unpack(const void* inbuf, int insize, int* position, void* outbuf, int outcount, const Comm*)
296 {
297   if (outcount*static_cast<int>(size_)> insize)
298     return MPI_ERR_OTHER;
299   Datatype::copy(static_cast<const char*>(inbuf) + *position, insize, MPI_CHAR, outbuf, outcount, this);
300   *position += outcount * size_;
301   return MPI_SUCCESS;
302 }
303
304 int Datatype::get_contents(int max_integers, int max_addresses, int max_datatypes, int* array_of_integers,
305                            MPI_Aint* array_of_addresses, MPI_Datatype* array_of_datatypes) const
306 {
307   if(contents_==nullptr)
308     return MPI_ERR_ARG;
309   if (static_cast<unsigned>(max_integers) < contents_->integers_.size())
310     return MPI_ERR_COUNT;
311   std::copy(begin(contents_->integers_), end(contents_->integers_), array_of_integers);
312   if (static_cast<unsigned>(max_addresses) < contents_->addresses_.size())
313     return MPI_ERR_COUNT;
314   std::copy(begin(contents_->addresses_), end(contents_->addresses_), array_of_addresses);
315   if (static_cast<unsigned>(max_datatypes) < contents_->datatypes_.size())
316     return MPI_ERR_COUNT;
317   std::copy(begin(contents_->datatypes_), end(contents_->datatypes_), array_of_datatypes);
318   std::for_each(begin(contents_->datatypes_), end(contents_->datatypes_), std::mem_fn(&Datatype::ref));
319   return MPI_SUCCESS;
320 }
321
322 int Datatype::get_envelope(int* num_integers, int* num_addresses, int* num_datatypes, int* combiner) const
323 {
324   if(contents_==nullptr){
325     *num_integers = 0;
326     *num_addresses = 0;
327     *num_datatypes = 0;
328     *combiner = MPI_COMBINER_NAMED;
329   }else{
330     *num_integers  = contents_->integers_.size();
331     *num_addresses = contents_->addresses_.size();
332     *num_datatypes = contents_->datatypes_.size();
333     *combiner = contents_->combiner_;
334   }
335   return MPI_SUCCESS;
336 }
337
338 int Datatype::copy(const void* sendbuf, int sendcount, MPI_Datatype sendtype, void* recvbuf, int recvcount,
339                    MPI_Datatype recvtype)
340 {
341   // FIXME Handle the case of a partial shared malloc.
342
343   if (smpi_cfg_privatization() == SmpiPrivStrategies::MMAP) {
344     smpi_switch_data_segment(simgrid::s4u::Actor::self());
345   }
346   /* First check if we really have something to do */
347   size_t offset = 0;
348   std::vector<std::pair<size_t, size_t>> private_blocks;
349   if(smpi_is_shared(sendbuf,private_blocks,&offset)
350        && (private_blocks.size()==1
351        && (private_blocks[0].second - private_blocks[0].first)==(unsigned long)(sendcount * sendtype->get_extent()))){
352     XBT_VERB("sendbuf is shared. Ignoring copies");
353     return 0;
354   }
355   if(smpi_is_shared(recvbuf,private_blocks,&offset)
356        && (private_blocks.size()==1
357        && (private_blocks[0].second - private_blocks[0].first)==(unsigned long)(recvcount * recvtype->get_extent()))){
358     XBT_VERB("recvbuf is shared. Ignoring copies");
359     return 0;
360   }
361
362   if (recvcount > 0 && recvbuf != sendbuf) {
363     sendcount *= sendtype->size();
364     recvcount *= recvtype->size();
365     int count = sendcount < recvcount ? sendcount : recvcount;
366     XBT_DEBUG("Copying %d bytes from %p to %p", count, sendbuf, recvbuf);
367     if (not(sendtype->flags() & DT_FLAG_DERIVED) && not(recvtype->flags() & DT_FLAG_DERIVED)) {
368       if (not smpi_process()->replaying() && count > 0)
369         memcpy(recvbuf, sendbuf, count);
370     } else if (not(sendtype->flags() & DT_FLAG_DERIVED)) {
371       recvtype->unserialize(sendbuf, recvbuf, count / recvtype->size(), MPI_REPLACE);
372     } else if (not(recvtype->flags() & DT_FLAG_DERIVED)) {
373       sendtype->serialize(sendbuf, recvbuf, count / sendtype->size());
374     } else if(sendtype->size() != 0 && recvtype->size() != 0){
375       void * buf_tmp = xbt_malloc(count);
376       sendtype->serialize( sendbuf, buf_tmp,count/sendtype->size());
377       recvtype->unserialize( buf_tmp, recvbuf,count/recvtype->size(), MPI_REPLACE);
378       xbt_free(buf_tmp);
379     }
380   }
381
382   return sendcount > recvcount ? MPI_ERR_TRUNCATE : MPI_SUCCESS;
383 }
384
385 //Default serialization method : memcpy.
386 void Datatype::serialize(const void* noncontiguous_buf, void* contiguous_buf, int count)
387 {
388   auto* contiguous_buf_char          = static_cast<char*>(contiguous_buf);
389   const auto* noncontiguous_buf_char = static_cast<const char*>(noncontiguous_buf) + lb_;
390   memcpy(contiguous_buf_char, noncontiguous_buf_char, count*size_);
391 }
392
393 void Datatype::unserialize(const void* contiguous_buf, void *noncontiguous_buf, int count, MPI_Op op){
394   const auto* contiguous_buf_char = static_cast<const char*>(contiguous_buf);
395   auto* noncontiguous_buf_char    = static_cast<char*>(noncontiguous_buf) + lb_;
396   int n=count;
397   if(op!=MPI_OP_NULL)
398     op->apply( contiguous_buf_char, noncontiguous_buf_char, &n, this);
399 }
400
401 int Datatype::create_contiguous(int count, MPI_Datatype old_type, MPI_Aint lb, MPI_Datatype* new_type){
402   if(old_type->flags_ & DT_FLAG_DERIVED){
403     //handle this case as a hvector with stride equals to the extent of the datatype
404     return create_hvector(count, 1, old_type->get_extent(), old_type, new_type);
405   }
406   if(count>0)
407     *new_type = new Type_Contiguous(count * old_type->size(), lb, lb + count * old_type->size(),
408                                    DT_FLAG_DERIVED, count, old_type);
409   else
410     *new_type = new Datatype(count * old_type->size(), lb, lb + count * old_type->size(),0);
411   return MPI_SUCCESS;
412 }
413
414 int Datatype::create_vector(int count, int block_length, int stride, MPI_Datatype old_type, MPI_Datatype* new_type)
415 {
416   int retval;
417   if (block_length<0)
418     return MPI_ERR_ARG;
419   MPI_Aint lb = 0;
420   MPI_Aint ub = 0;
421   if(count>0){
422     lb=old_type->lb();
423     ub=((count-1)*stride+block_length-1)*old_type->get_extent()+old_type->ub();
424   }
425   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length){
426     *new_type = new Type_Vector(count * block_length * old_type->size(), lb, ub, DT_FLAG_DERIVED, count, block_length,
427                                 stride, old_type);
428     retval=MPI_SUCCESS;
429   }else{
430     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
431     *new_type = new Datatype(count * block_length * old_type->size(), 0, ((count -1) * stride + block_length)*
432                          old_type->size(), DT_FLAG_CONTIGUOUS|DT_FLAG_DERIVED);
433     const std::array<int, 3> ints = {{count, block_length, stride}};
434     (*new_type)->set_contents(MPI_COMBINER_VECTOR, 3, ints.data(), 0, nullptr, 1, &old_type);
435     retval=MPI_SUCCESS;
436   }
437   return retval;
438 }
439
440
441 int Datatype::create_hvector(int count, int block_length, MPI_Aint stride, MPI_Datatype old_type, MPI_Datatype* new_type)
442 {
443   int retval;
444   if (block_length<0)
445     return MPI_ERR_ARG;
446   MPI_Aint lb = 0;
447   MPI_Aint ub = 0;
448   if(count>0){
449     lb=old_type->lb();
450     ub=((count-1)*stride)+(block_length-1)*old_type->get_extent()+old_type->ub();
451   }
452   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length*old_type->get_extent()){
453     *new_type = new Type_Hvector(count * block_length * old_type->size(), lb, ub, DT_FLAG_DERIVED, count, block_length,
454                                  stride, old_type);
455     retval=MPI_SUCCESS;
456   }else{
457     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
458     *new_type = new Datatype(count * block_length * old_type->size(), 0, count * block_length * old_type->size(), DT_FLAG_CONTIGUOUS|DT_FLAG_DERIVED);
459     const std::array<int, 2> ints = {{count, block_length}};
460     (*new_type)->set_contents(MPI_COMBINER_HVECTOR, 2, ints.data(), 1, &stride, 1, &old_type);
461     retval=MPI_SUCCESS;
462   }
463   return retval;
464 }
465
466 int Datatype::create_indexed(int count, const int* block_lengths, const int* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
467   int size = 0;
468   bool contiguous=true;
469   MPI_Aint lb = 0;
470   MPI_Aint ub = 0;
471   if(count>0){
472     lb=indices[0]*old_type->get_extent();
473     ub=indices[0]*old_type->get_extent() + block_lengths[0]*old_type->ub();
474   }
475
476   for (int i = 0; i < count; i++) {
477     if (block_lengths[i] < 0)
478       return MPI_ERR_ARG;
479     size += block_lengths[i];
480
481     if(indices[i]*old_type->get_extent()+old_type->lb()<lb)
482       lb = indices[i]*old_type->get_extent()+old_type->lb();
483     if(indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub()>ub)
484       ub = indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub();
485
486     if ( (i< count -1) && (indices[i]+block_lengths[i] != indices[i+1]) )
487       contiguous=false;
488   }
489   if(old_type->flags_ & DT_FLAG_DERIVED)
490     contiguous=false;
491
492   if (not contiguous) {
493     *new_type = new Type_Indexed(size * old_type->size(),lb,ub,
494                                  DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
495   }else{
496     Datatype::create_contiguous(size, old_type, lb, new_type);
497   }
498   return MPI_SUCCESS;
499 }
500
501 int Datatype::create_hindexed(int count, const int* block_lengths, const MPI_Aint* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
502   int size = 0;
503   bool contiguous=true;
504   MPI_Aint lb = 0;
505   MPI_Aint ub = 0;
506   if(count>0){
507     lb=indices[0] + old_type->lb();
508     ub=indices[0] + block_lengths[0]*old_type->ub();
509   }
510   for (int i = 0; i < count; i++) {
511     if (block_lengths[i] < 0)
512       return MPI_ERR_ARG;
513     size += block_lengths[i];
514
515     if(indices[i]+old_type->lb()<lb)
516       lb = indices[i]+old_type->lb();
517     if(indices[i]+block_lengths[i]*old_type->ub()>ub)
518       ub = indices[i]+block_lengths[i]*old_type->ub();
519
520     if ( (i< count -1) && (indices[i]+block_lengths[i]*(static_cast<int>(old_type->size())) != indices[i+1]) )
521       contiguous=false;
522   }
523   if (old_type->flags_ & DT_FLAG_DERIVED || lb!=0)
524     contiguous=false;
525
526   if (not contiguous) {
527     *new_type = new Type_Hindexed(size * old_type->size(),lb,ub,
528                                    DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
529   }else{
530     Datatype::create_contiguous(size, old_type, lb, new_type);
531   }
532   return MPI_SUCCESS;
533 }
534
535 int Datatype::create_struct(int count, const int* block_lengths, const MPI_Aint* indices, const MPI_Datatype* old_types, MPI_Datatype* new_type){
536   size_t size = 0;
537   bool contiguous=true;
538   size = 0;
539   MPI_Aint lb = 0;
540   MPI_Aint ub = 0;
541   if(count>0){
542     lb=indices[0] + old_types[0]->lb();
543     ub=indices[0] + block_lengths[0]*old_types[0]->ub();
544   }
545   bool forced_lb=false;
546   bool forced_ub=false;
547   for (int i = 0; i < count; i++) {
548     if (block_lengths[i]<0)
549       return MPI_ERR_ARG;
550     if (old_types[i]->flags_ & DT_FLAG_DERIVED)
551       contiguous=false;
552
553     size += block_lengths[i]*old_types[i]->size();
554     if (old_types[i]==MPI_LB){
555       lb=indices[i];
556       forced_lb=true;
557     }
558     if (old_types[i]==MPI_UB){
559       ub=indices[i];
560       forced_ub=true;
561     }
562
563     if (not forced_lb && indices[i] + old_types[i]->lb() < lb)
564       lb = indices[i];
565     if (not forced_ub && indices[i] + block_lengths[i] * old_types[i]->ub() > ub)
566       ub = indices[i]+block_lengths[i]*old_types[i]->ub();
567
568     if ( (i< count -1) && (indices[i]+block_lengths[i]*static_cast<int>(old_types[i]->size()) != indices[i+1]) )
569       contiguous=false;
570   }
571   if (not contiguous) {
572     *new_type = new Type_Struct(size, lb,ub, DT_FLAG_DERIVED|DT_FLAG_DATA,
573                                 count, block_lengths, indices, old_types);
574   }else{
575     Datatype::create_contiguous(size, MPI_CHAR, lb, new_type);
576   }
577   return MPI_SUCCESS;
578 }
579
580 int Datatype::create_subarray(int ndims, const int* array_of_sizes,
581                              const int* array_of_subsizes, const int* array_of_starts,
582                              int order, MPI_Datatype oldtype, MPI_Datatype *newtype){
583   MPI_Datatype tmp;
584
585   for (int i = 0; i < ndims; i++) {
586     if (array_of_subsizes[i] > array_of_sizes[i]){
587       XBT_WARN("subarray : array_of_subsizes > array_of_sizes for dim %d",i);
588       return MPI_ERR_ARG;
589     }
590     if (array_of_starts[i] + array_of_subsizes[i] > array_of_sizes[i]){
591       XBT_WARN("subarray : array_of_starts + array_of_subsizes > array_of_sizes for dim %d",i);
592       return MPI_ERR_ARG;
593     }
594   }
595
596   MPI_Aint extent = oldtype->get_extent();
597
598   int i;
599   int step;
600   int end;
601   if( order==MPI_ORDER_C ) {
602       i = ndims - 1;
603       step = -1;
604       end = -1;
605   } else {
606       i = 0;
607       step = 1;
608       end = ndims;
609   }
610
611   MPI_Aint size = (MPI_Aint)array_of_sizes[i] * (MPI_Aint)array_of_sizes[i+step];
612   MPI_Aint lb = (MPI_Aint)array_of_starts[i] + (MPI_Aint)array_of_starts[i+step] *(MPI_Aint)array_of_sizes[i];
613
614   create_vector( array_of_subsizes[i+step], array_of_subsizes[i], array_of_sizes[i],
615                                oldtype, newtype );
616
617   tmp = *newtype;
618
619   for( i += 2 * step; i != end; i += step ) {
620       create_hvector( array_of_subsizes[i], 1, size * extent,
621                                     tmp, newtype );
622       unref(tmp);
623       lb += size * array_of_starts[i];
624       size *= array_of_sizes[i];
625       tmp = *newtype;
626   }
627
628   const MPI_Aint lbs = lb * extent;
629   const int sizes    = 1;
630   //handle LB and UB with a resized call
631   create_hindexed(1, &sizes, &lbs, tmp, newtype);
632   unref(tmp);
633
634   tmp = *newtype;
635   create_resized(tmp, 0, extent, newtype);
636
637   unref(tmp);
638   return MPI_SUCCESS;
639 }
640
641 int Datatype::create_resized(MPI_Datatype oldtype,MPI_Aint lb, MPI_Aint extent, MPI_Datatype *newtype){
642   const std::array<int, 3> blocks         = {{1, 1, 1}};
643   const std::array<MPI_Aint, 3> disps     = {{lb, 0, lb + extent}};
644   const std::array<MPI_Datatype, 3> types = {{MPI_LB, oldtype, MPI_UB}};
645
646   *newtype = new simgrid::smpi::Type_Struct(oldtype->size(), lb, lb + extent, DT_FLAG_DERIVED, 3, blocks.data(),
647                                             disps.data(), types.data());
648
649   (*newtype)->addflag(~DT_FLAG_COMMITED);
650   return MPI_SUCCESS;
651 }
652
653 Datatype* Datatype::f2c(int id)
654 {
655   return static_cast<Datatype*>(F2C::f2c(id));
656 }
657
658 } // namespace smpi
659 } // namespace simgrid