Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
3f770e9c9df91fac5fe9cba413c06c57ca6bc500
[simgrid.git] / src / smpi / mpi / smpi_datatype.cpp
1 /* smpi_datatype.cpp -- MPI primitives to handle datatypes                  */
2 /* Copyright (c) 2009-2020. The SimGrid Team. All rights reserved.          */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "private.hpp"
8 #include "simgrid/modelchecker.h"
9 #include "smpi_datatype_derived.hpp"
10 #include "smpi_op.hpp"
11 #include "src/instr/instr_private.hpp"
12 #include "src/smpi/include/smpi_actor.hpp"
13
14 #include <algorithm>
15 #include <array>
16 #include <functional>
17 #include <string>
18
19 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_datatype, smpi, "Logging specific to SMPI (datatype)");
20
21 static std::unordered_map<std::string, simgrid::smpi::Datatype*> id2type_lookup;
22
23 #define CREATE_MPI_DATATYPE(name, id, type)                                                                            \
24   static simgrid::smpi::Datatype _XBT_CONCAT(mpi_, name)((char*)_XBT_STRINGIFY(name), (id), sizeof(type), /* size */   \
25                                                          0,                                               /* lb */     \
26                                                          sizeof(type), /* ub = lb + size */                            \
27                                                          DT_FLAG_BASIC /* flags */                                     \
28                                                          );                                                            \
29   const MPI_Datatype name = &_XBT_CONCAT(mpi_, name);
30
31 #define CREATE_MPI_DATATYPE_NULL(name, id)                                                                             \
32   static simgrid::smpi::Datatype _XBT_CONCAT(mpi_, name)((char*)_XBT_STRINGIFY(name), (id), 0, /* size */              \
33                                                          0,                                    /* lb */                \
34                                                          0,                                    /* ub = lb + size */    \
35                                                          DT_FLAG_BASIC                         /* flags */             \
36                                                          );                                                            \
37   const MPI_Datatype name = &_XBT_CONCAT(mpi_, name);
38
39 // Predefined data types
40 CREATE_MPI_DATATYPE(MPI_CHAR, 2, char)
41 CREATE_MPI_DATATYPE(MPI_SHORT, 3, short)
42 CREATE_MPI_DATATYPE(MPI_INT, 1, int)
43 CREATE_MPI_DATATYPE(MPI_LONG, 4, long)
44 CREATE_MPI_DATATYPE(MPI_LONG_LONG, 7, long long)
45 CREATE_MPI_DATATYPE(MPI_SIGNED_CHAR, 8, signed char)
46 CREATE_MPI_DATATYPE(MPI_UNSIGNED_CHAR, 9, unsigned char)
47 CREATE_MPI_DATATYPE(MPI_UNSIGNED_SHORT, 10, unsigned short)
48 CREATE_MPI_DATATYPE(MPI_UNSIGNED, 11, unsigned int)
49 CREATE_MPI_DATATYPE(MPI_UNSIGNED_LONG, 12, unsigned long)
50 CREATE_MPI_DATATYPE(MPI_UNSIGNED_LONG_LONG, 13, unsigned long long)
51 CREATE_MPI_DATATYPE(MPI_FLOAT, 5, float)
52 CREATE_MPI_DATATYPE(MPI_DOUBLE, 0, double)
53 CREATE_MPI_DATATYPE(MPI_LONG_DOUBLE, 14, long double)
54 CREATE_MPI_DATATYPE(MPI_WCHAR, 15, wchar_t)
55 CREATE_MPI_DATATYPE(MPI_C_BOOL, 16, bool)
56 CREATE_MPI_DATATYPE(MPI_BYTE, 6, int8_t)
57 CREATE_MPI_DATATYPE(MPI_INT8_T, 17, int8_t)
58 CREATE_MPI_DATATYPE(MPI_INT16_T, 18, int16_t)
59 CREATE_MPI_DATATYPE(MPI_INT32_T, 19, int32_t)
60 CREATE_MPI_DATATYPE(MPI_INT64_T, 20, int64_t)
61 CREATE_MPI_DATATYPE(MPI_UINT8_T, 21, uint8_t)
62 CREATE_MPI_DATATYPE(MPI_UINT16_T, 22, uint16_t)
63 CREATE_MPI_DATATYPE(MPI_UINT32_T, 23, uint32_t)
64 CREATE_MPI_DATATYPE(MPI_UINT64_T, 24, uint64_t)
65 CREATE_MPI_DATATYPE(MPI_C_FLOAT_COMPLEX, 25, float _Complex)
66 CREATE_MPI_DATATYPE(MPI_C_DOUBLE_COMPLEX, 26, double _Complex)
67 CREATE_MPI_DATATYPE(MPI_C_LONG_DOUBLE_COMPLEX, 27, long double _Complex)
68 CREATE_MPI_DATATYPE(MPI_AINT, 28, MPI_Aint)
69 CREATE_MPI_DATATYPE(MPI_OFFSET, 29, MPI_Offset)
70
71 CREATE_MPI_DATATYPE(MPI_FLOAT_INT, 30, float_int)
72 CREATE_MPI_DATATYPE(MPI_LONG_INT, 31, long_int)
73 CREATE_MPI_DATATYPE(MPI_DOUBLE_INT, 32, double_int)
74 CREATE_MPI_DATATYPE(MPI_SHORT_INT, 33, short_int)
75 CREATE_MPI_DATATYPE(MPI_2INT, 34, int_int)
76 CREATE_MPI_DATATYPE(MPI_2FLOAT, 35, float_float)
77 CREATE_MPI_DATATYPE(MPI_2DOUBLE, 36, double_double)
78 CREATE_MPI_DATATYPE(MPI_2LONG, 37, long_long)
79
80 CREATE_MPI_DATATYPE(MPI_REAL, 38, float)
81 CREATE_MPI_DATATYPE(MPI_REAL4, 39, float)
82 CREATE_MPI_DATATYPE(MPI_REAL8, 40, double)
83 CREATE_MPI_DATATYPE(MPI_REAL16, 41, long double)
84 CREATE_MPI_DATATYPE_NULL(MPI_DATATYPE_NULL, -1)
85 CREATE_MPI_DATATYPE(MPI_COMPLEX8, 42, float_float)
86 CREATE_MPI_DATATYPE(MPI_COMPLEX16, 43, double_double)
87 CREATE_MPI_DATATYPE(MPI_COMPLEX32, 44, double_double)
88 CREATE_MPI_DATATYPE(MPI_INTEGER1, 45, int)
89 CREATE_MPI_DATATYPE(MPI_INTEGER2, 46, int16_t)
90 CREATE_MPI_DATATYPE(MPI_INTEGER4, 47, int32_t)
91 CREATE_MPI_DATATYPE(MPI_INTEGER8, 48, int64_t)
92 CREATE_MPI_DATATYPE(MPI_INTEGER16, 49, integer128_t)
93
94 CREATE_MPI_DATATYPE(MPI_LONG_DOUBLE_INT, 50, long_double_int)
95
96 CREATE_MPI_DATATYPE_NULL(MPI_UB, 51)
97 CREATE_MPI_DATATYPE_NULL(MPI_LB, 52)
98 CREATE_MPI_DATATYPE(MPI_PACKED, 53, char)
99 // Internal use only
100 CREATE_MPI_DATATYPE(MPI_PTR, 54, void*)
101 CREATE_MPI_DATATYPE(MPI_COUNT, 55, long long)
102
103
104 namespace simgrid{
105 namespace smpi{
106
107 std::unordered_map<int, smpi_key_elem> Datatype::keyvals_; // required by the Keyval class implementation
108 int Datatype::keyval_id_=0; // required by the Keyval class implementation
109 Datatype::Datatype(int ident, int size, MPI_Aint lb, MPI_Aint ub, int flags) : Datatype(size, lb, ub, flags)
110 {
111   id = std::to_string(ident);
112 }
113
114 Datatype::Datatype(int size, MPI_Aint lb, MPI_Aint ub, int flags) : size_(size), lb_(lb), ub_(ub), flags_(flags)
115 {
116 #if SIMGRID_HAVE_MC
117   if(MC_is_active())
118     MC_ignore(&(refcount_), sizeof(refcount_));
119 #endif
120 }
121
122 // for predefined types, so refcount_ = 0.
123 Datatype::Datatype(char* name, int ident, int size, MPI_Aint lb, MPI_Aint ub, int flags)
124     : name_(name), id(std::to_string(ident)), size_(size), lb_(lb), ub_(ub), flags_(flags), refcount_(0)
125 {
126   id2type_lookup.insert({id, this});
127 #if SIMGRID_HAVE_MC
128   if(MC_is_active())
129     MC_ignore(&(refcount_), sizeof(refcount_));
130 #endif
131 }
132
133 Datatype::Datatype(Datatype* datatype, int* ret)
134     : size_(datatype->size_), lb_(datatype->lb_), ub_(datatype->ub_), flags_(datatype->flags_)
135 {
136   *ret = this->copy_attrs(datatype);
137 }
138
139 Datatype::~Datatype()
140 {
141   xbt_assert(refcount_ >= 0);
142
143   if(flags_ & DT_FLAG_PREDEFINED)
144     return;
145
146   //if still used, mark for deletion
147   if(refcount_!=0){
148       flags_ |=DT_FLAG_DESTROYED;
149       return;
150   }
151
152   cleanup_attr<Datatype>();
153   delete contents_;
154   xbt_free(name_);
155 }
156
157 int Datatype::copy_attrs(Datatype* datatype){
158   flags_ &= ~DT_FLAG_PREDEFINED;
159   int ret = MPI_SUCCESS;
160     
161   if (not datatype->attributes()->empty()) {
162     int flag=0;
163     void* value_out;
164     for (auto const& it : *(datatype->attributes())) {
165       smpi_key_elem elem = keyvals_.at(it.first);
166       if (elem != nullptr){
167         if( elem->copy_fn.type_copy_fn != MPI_NULL_COPY_FN && 
168             elem->copy_fn.type_copy_fn != MPI_TYPE_DUP_FN)
169           ret = elem->copy_fn.type_copy_fn(datatype, it.first, elem->extra_state, it.second, &value_out, &flag);
170         else if ( elem->copy_fn.type_copy_fn_fort != MPI_NULL_COPY_FN &&
171                   (*(int*)*elem->copy_fn.type_copy_fn_fort) != 1){
172           value_out=(int*)xbt_malloc(sizeof(int));
173           elem->copy_fn.type_copy_fn_fort(datatype, it.first, elem->extra_state, it.second, value_out, &flag, &ret);
174         }
175         if (ret != MPI_SUCCESS) {
176           break;
177         }
178         if(elem->copy_fn.type_copy_fn == MPI_TYPE_DUP_FN || 
179           ((elem->copy_fn.type_copy_fn_fort != MPI_NULL_COPY_FN) && (*(int*)*elem->copy_fn.type_copy_fn_fort == 1))){
180           elem->refcount++;
181           attributes()->insert({it.first, it.second});
182         } else if (flag){
183           elem->refcount++;
184           attributes()->insert({it.first, value_out});
185         }
186       }
187     }
188   }
189   delete contents_;
190   contents_ = new Datatype_contents(MPI_COMBINER_DUP, 0, nullptr, 0, nullptr, 1, &datatype);
191   return ret;
192 }
193
194 int Datatype::clone(MPI_Datatype* type){
195   int ret;
196   *type = new Datatype(this, &ret);
197   return ret;
198 }
199
200 void Datatype::ref()
201 {
202   refcount_++;
203
204 #if SIMGRID_HAVE_MC
205   if(MC_is_active())
206     MC_ignore(&(refcount_), sizeof(refcount_));
207 #endif
208 }
209
210 void Datatype::unref(MPI_Datatype datatype)
211 {
212   if (datatype->refcount_ > 0)
213     datatype->refcount_--;
214
215   if (datatype->refcount_ == 0 && not(datatype->flags_ & DT_FLAG_PREDEFINED))
216     delete datatype;
217
218 #if SIMGRID_HAVE_MC
219   if(MC_is_active())
220     MC_ignore(&(datatype->refcount_), sizeof(datatype->refcount_));
221 #endif
222 }
223
224 void Datatype::commit()
225 {
226   flags_ |= DT_FLAG_COMMITED;
227 }
228
229 bool Datatype::is_valid() const
230 {
231   return (flags_ & DT_FLAG_COMMITED);
232 }
233
234 bool Datatype::is_basic() const
235 {
236   return (flags_ & DT_FLAG_BASIC);
237 }
238
239 bool Datatype::is_replayable() const
240 {
241   return (simgrid::instr::trace_format == simgrid::instr::TraceFormat::Ti) &&
242          ((this == MPI_BYTE) || (this == MPI_DOUBLE) || (this == MPI_INT) || (this == MPI_CHAR) ||
243           (this == MPI_SHORT) || (this == MPI_LONG) || (this == MPI_FLOAT));
244 }
245
246 MPI_Datatype Datatype::decode(const std::string& datatype_id)
247 {
248   return id2type_lookup.find(datatype_id)->second;
249 }
250
251 void Datatype::addflag(int flag){
252   flags_ &= flag;
253 }
254
255 int Datatype::extent(MPI_Aint* lb, MPI_Aint* extent) const
256 {
257   *lb = lb_;
258   *extent = ub_ - lb_;
259   return MPI_SUCCESS;
260 }
261
262 void Datatype::get_name(char* name, int* length) const
263 {
264   if(name_!=nullptr){
265     *length = strlen(name_);
266     strncpy(name, name_, *length+1);
267   }else{
268     *length = 0;
269   }
270 }
271
272 void Datatype::set_name(const char* name){
273   if(name_!=nullptr &&  (flags_ & DT_FLAG_PREDEFINED) == 0)
274     xbt_free(name_);
275   name_ = xbt_strdup(name);
276 }
277
278 int Datatype::pack(const void* inbuf, int incount, void* outbuf, int outcount, int* position, const Comm*)
279 {
280   if (outcount - *position < incount*static_cast<int>(size_))
281     return MPI_ERR_OTHER;
282   Datatype::copy(inbuf, incount, this, static_cast<char*>(outbuf) + *position, outcount, MPI_CHAR);
283   *position += incount * size_;
284   return MPI_SUCCESS;
285 }
286
287 int Datatype::unpack(const void* inbuf, int insize, int* position, void* outbuf, int outcount, const Comm*)
288 {
289   if (outcount*static_cast<int>(size_)> insize)
290     return MPI_ERR_OTHER;
291   Datatype::copy(static_cast<const char*>(inbuf) + *position, insize, MPI_CHAR, outbuf, outcount, this);
292   *position += outcount * size_;
293   return MPI_SUCCESS;
294 }
295
296 int Datatype::get_contents(int max_integers, int max_addresses, int max_datatypes, int* array_of_integers,
297                            MPI_Aint* array_of_addresses, MPI_Datatype* array_of_datatypes) const
298 {
299   if(contents_==nullptr)
300     return MPI_ERR_ARG;
301   if (static_cast<unsigned>(max_integers) < contents_->integers_.size())
302     return MPI_ERR_COUNT;
303   std::copy(begin(contents_->integers_), end(contents_->integers_), array_of_integers);
304   if (static_cast<unsigned>(max_addresses) < contents_->addresses_.size())
305     return MPI_ERR_COUNT;
306   std::copy(begin(contents_->addresses_), end(contents_->addresses_), array_of_addresses);
307   if (static_cast<unsigned>(max_datatypes) < contents_->datatypes_.size())
308     return MPI_ERR_COUNT;
309   std::copy(begin(contents_->datatypes_), end(contents_->datatypes_), array_of_datatypes);
310   std::for_each(begin(contents_->datatypes_), end(contents_->datatypes_), std::mem_fn(&Datatype::ref));
311   return MPI_SUCCESS;
312 }
313
314 int Datatype::get_envelope(int* num_integers, int* num_addresses, int* num_datatypes, int* combiner) const
315 {
316   if(contents_==nullptr){
317     *num_integers = 0;
318     *num_addresses = 0;
319     *num_datatypes = 0;
320     *combiner = MPI_COMBINER_NAMED;
321   }else{
322     *num_integers  = contents_->integers_.size();
323     *num_addresses = contents_->addresses_.size();
324     *num_datatypes = contents_->datatypes_.size();
325     *combiner = contents_->combiner_;
326   }
327   return MPI_SUCCESS;
328 }
329
330 int Datatype::copy(const void* sendbuf, int sendcount, MPI_Datatype sendtype, void* recvbuf, int recvcount,
331                    MPI_Datatype recvtype)
332 {
333   // FIXME Handle the case of a partial shared malloc.
334
335   if (smpi_cfg_privatization() == SmpiPrivStrategies::MMAP) {
336     smpi_switch_data_segment(simgrid::s4u::Actor::self());
337   }
338   /* First check if we really have something to do */
339   size_t offset = 0;
340   std::vector<std::pair<size_t, size_t>> private_blocks;
341   if(smpi_is_shared(sendbuf,private_blocks,&offset)
342        && (private_blocks.size()==1
343        && (private_blocks[0].second - private_blocks[0].first)==(unsigned long)(sendcount * sendtype->get_extent()))){
344     XBT_VERB("sendbuf is shared. Ignoring copies");
345     return 0;
346   }
347   if(smpi_is_shared(recvbuf,private_blocks,&offset)
348        && (private_blocks.size()==1
349        && (private_blocks[0].second - private_blocks[0].first)==(unsigned long)(recvcount * recvtype->get_extent()))){
350     XBT_VERB("recvbuf is shared. Ignoring copies");
351     return 0;
352   }
353
354   if (recvcount > 0 && recvbuf != sendbuf) {
355     sendcount *= sendtype->size();
356     recvcount *= recvtype->size();
357     int count = sendcount < recvcount ? sendcount : recvcount;
358     XBT_DEBUG("Copying %d bytes from %p to %p", count, sendbuf, recvbuf);
359     if (not(sendtype->flags() & DT_FLAG_DERIVED) && not(recvtype->flags() & DT_FLAG_DERIVED)) {
360       if (not smpi_process()->replaying() && count > 0)
361         memcpy(recvbuf, sendbuf, count);
362     } else if (not(sendtype->flags() & DT_FLAG_DERIVED)) {
363       recvtype->unserialize(sendbuf, recvbuf, count / recvtype->size(), MPI_REPLACE);
364     } else if (not(recvtype->flags() & DT_FLAG_DERIVED)) {
365       sendtype->serialize(sendbuf, recvbuf, count / sendtype->size());
366     } else {
367       void * buf_tmp = xbt_malloc(count);
368
369       sendtype->serialize( sendbuf, buf_tmp,count/sendtype->size());
370       recvtype->unserialize( buf_tmp, recvbuf,count/recvtype->size(), MPI_REPLACE);
371
372       xbt_free(buf_tmp);
373     }
374   }
375
376   return sendcount > recvcount ? MPI_ERR_TRUNCATE : MPI_SUCCESS;
377 }
378
379 //Default serialization method : memcpy.
380 void Datatype::serialize(const void* noncontiguous_buf, void* contiguous_buf, int count)
381 {
382   auto* contiguous_buf_char          = static_cast<char*>(contiguous_buf);
383   const auto* noncontiguous_buf_char = static_cast<const char*>(noncontiguous_buf) + lb_;
384   memcpy(contiguous_buf_char, noncontiguous_buf_char, count*size_);
385 }
386
387 void Datatype::unserialize(const void* contiguous_buf, void *noncontiguous_buf, int count, MPI_Op op){
388   const auto* contiguous_buf_char = static_cast<const char*>(contiguous_buf);
389   auto* noncontiguous_buf_char    = static_cast<char*>(noncontiguous_buf) + lb_;
390   int n=count;
391   if(op!=MPI_OP_NULL)
392     op->apply( contiguous_buf_char, noncontiguous_buf_char, &n, this);
393 }
394
395 int Datatype::create_contiguous(int count, MPI_Datatype old_type, MPI_Aint lb, MPI_Datatype* new_type){
396   if(old_type->flags_ & DT_FLAG_DERIVED){
397     //handle this case as a hvector with stride equals to the extent of the datatype
398     return create_hvector(count, 1, old_type->get_extent(), old_type, new_type);
399   }
400   if(count>0)
401     *new_type = new Type_Contiguous(count * old_type->size(), lb, lb + count * old_type->size(),
402                                    DT_FLAG_DERIVED, count, old_type);
403   else
404     *new_type = new Datatype(count * old_type->size(), lb, lb + count * old_type->size(),0);
405   return MPI_SUCCESS;
406 }
407
408 int Datatype::create_vector(int count, int block_length, int stride, MPI_Datatype old_type, MPI_Datatype* new_type)
409 {
410   int retval;
411   if (block_length<0)
412     return MPI_ERR_ARG;
413   MPI_Aint lb = 0;
414   MPI_Aint ub = 0;
415   if(count>0){
416     lb=old_type->lb();
417     ub=((count-1)*stride+block_length-1)*old_type->get_extent()+old_type->ub();
418   }
419   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length){
420     *new_type = new Type_Vector(count * (block_length) * old_type->size(), lb, ub,
421                                    DT_FLAG_DERIVED, count, block_length, stride, old_type);
422     retval=MPI_SUCCESS;
423   }else{
424     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
425     *new_type = new Datatype(count * block_length * old_type->size(), 0, ((count -1) * stride + block_length)*
426                          old_type->size(), DT_FLAG_CONTIGUOUS);
427     const std::array<int, 3> ints = {{count, block_length, stride}};
428     (*new_type)->contents_ = new Datatype_contents(MPI_COMBINER_VECTOR, 3, ints.data(), 0, nullptr, 1, &old_type);
429     retval=MPI_SUCCESS;
430   }
431   return retval;
432 }
433
434
435 int Datatype::create_hvector(int count, int block_length, MPI_Aint stride, MPI_Datatype old_type, MPI_Datatype* new_type)
436 {
437   int retval;
438   if (block_length<0)
439     return MPI_ERR_ARG;
440   MPI_Aint lb = 0;
441   MPI_Aint ub = 0;
442   if(count>0){
443     lb=old_type->lb();
444     ub=((count-1)*stride)+(block_length-1)*old_type->get_extent()+old_type->ub();
445   }
446   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length*old_type->get_extent()){
447     *new_type = new Type_Hvector(count * (block_length) * old_type->size(), lb, ub,
448                                    DT_FLAG_DERIVED, count, block_length, stride, old_type);
449     retval=MPI_SUCCESS;
450   }else{
451     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
452     *new_type = new Datatype(count * block_length * old_type->size(), 0, count * block_length * old_type->size(), DT_FLAG_CONTIGUOUS);
453     const std::array<int, 2> ints = {{count, block_length}};
454     (*new_type)->contents_ = new Datatype_contents(MPI_COMBINER_HVECTOR, 2, ints.data(), 1, &stride, 1, &old_type);
455     retval=MPI_SUCCESS;
456   }
457   return retval;
458 }
459
460 int Datatype::create_indexed(int count, const int* block_lengths, const int* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
461   int size = 0;
462   bool contiguous=true;
463   MPI_Aint lb = 0;
464   MPI_Aint ub = 0;
465   if(count>0){
466     lb=indices[0]*old_type->get_extent();
467     ub=indices[0]*old_type->get_extent() + block_lengths[0]*old_type->ub();
468   }
469
470   for (int i = 0; i < count; i++) {
471     if (block_lengths[i] < 0)
472       return MPI_ERR_ARG;
473     size += block_lengths[i];
474
475     if(indices[i]*old_type->get_extent()+old_type->lb()<lb)
476       lb = indices[i]*old_type->get_extent()+old_type->lb();
477     if(indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub()>ub)
478       ub = indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub();
479
480     if ( (i< count -1) && (indices[i]+block_lengths[i] != indices[i+1]) )
481       contiguous=false;
482   }
483   if(old_type->flags_ & DT_FLAG_DERIVED)
484     contiguous=false;
485
486   if (not contiguous) {
487     *new_type = new Type_Indexed(size * old_type->size(),lb,ub,
488                                  DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
489   }else{
490     Datatype::create_contiguous(size, old_type, lb, new_type);
491   }
492   return MPI_SUCCESS;
493 }
494
495 int Datatype::create_hindexed(int count, const int* block_lengths, const MPI_Aint* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
496   int size = 0;
497   bool contiguous=true;
498   MPI_Aint lb = 0;
499   MPI_Aint ub = 0;
500   if(count>0){
501     lb=indices[0] + old_type->lb();
502     ub=indices[0] + block_lengths[0]*old_type->ub();
503   }
504   for (int i = 0; i < count; i++) {
505     if (block_lengths[i] < 0)
506       return MPI_ERR_ARG;
507     size += block_lengths[i];
508
509     if(indices[i]+old_type->lb()<lb)
510       lb = indices[i]+old_type->lb();
511     if(indices[i]+block_lengths[i]*old_type->ub()>ub)
512       ub = indices[i]+block_lengths[i]*old_type->ub();
513
514     if ( (i< count -1) && (indices[i]+block_lengths[i]*(static_cast<int>(old_type->size())) != indices[i+1]) )
515       contiguous=false;
516   }
517   if (old_type->flags_ & DT_FLAG_DERIVED || lb!=0)
518     contiguous=false;
519
520   if (not contiguous) {
521     *new_type = new Type_Hindexed(size * old_type->size(),lb,ub,
522                                    DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
523   }else{
524     Datatype::create_contiguous(size, old_type, lb, new_type);
525   }
526   return MPI_SUCCESS;
527 }
528
529 int Datatype::create_struct(int count, const int* block_lengths, const MPI_Aint* indices, const MPI_Datatype* old_types, MPI_Datatype* new_type){
530   size_t size = 0;
531   bool contiguous=true;
532   size = 0;
533   MPI_Aint lb = 0;
534   MPI_Aint ub = 0;
535   if(count>0){
536     lb=indices[0] + old_types[0]->lb();
537     ub=indices[0] + block_lengths[0]*old_types[0]->ub();
538   }
539   bool forced_lb=false;
540   bool forced_ub=false;
541   for (int i = 0; i < count; i++) {
542     if (block_lengths[i]<0)
543       return MPI_ERR_ARG;
544     if (old_types[i]->flags_ & DT_FLAG_DERIVED)
545       contiguous=false;
546
547     size += block_lengths[i]*old_types[i]->size();
548     if (old_types[i]==MPI_LB){
549       lb=indices[i];
550       forced_lb=true;
551     }
552     if (old_types[i]==MPI_UB){
553       ub=indices[i];
554       forced_ub=true;
555     }
556
557     if (not forced_lb && indices[i] + old_types[i]->lb() < lb)
558       lb = indices[i];
559     if (not forced_ub && indices[i] + block_lengths[i] * old_types[i]->ub() > ub)
560       ub = indices[i]+block_lengths[i]*old_types[i]->ub();
561
562     if ( (i< count -1) && (indices[i]+block_lengths[i]*static_cast<int>(old_types[i]->size()) != indices[i+1]) )
563       contiguous=false;
564   }
565   if (not contiguous) {
566     *new_type = new Type_Struct(size, lb,ub, DT_FLAG_DERIVED|DT_FLAG_DATA,
567                                 count, block_lengths, indices, old_types);
568   }else{
569     Datatype::create_contiguous(size, MPI_CHAR, lb, new_type);
570   }
571   return MPI_SUCCESS;
572 }
573
574 int Datatype::create_subarray(int ndims, const int* array_of_sizes,
575                              const int* array_of_subsizes, const int* array_of_starts,
576                              int order, MPI_Datatype oldtype, MPI_Datatype *newtype){
577   MPI_Datatype tmp;
578
579   for (int i = 0; i < ndims; i++) {
580     if (array_of_subsizes[i] > array_of_sizes[i]){
581       XBT_WARN("subarray : array_of_subsizes > array_of_sizes for dim %d",i);
582       return MPI_ERR_ARG;
583     }
584     if (array_of_starts[i] + array_of_subsizes[i] > array_of_sizes[i]){
585       XBT_WARN("subarray : array_of_starts + array_of_subsizes > array_of_sizes for dim %d",i);
586       return MPI_ERR_ARG;
587     }
588   }
589
590   MPI_Aint extent = oldtype->get_extent();
591
592   int i;
593   int step;
594   int end;
595   if( order==MPI_ORDER_C ) {
596       i = ndims - 1;
597       step = -1;
598       end = -1;
599   } else {
600       i = 0;
601       step = 1;
602       end = ndims;
603   }
604
605   MPI_Aint size = (MPI_Aint)array_of_sizes[i] * (MPI_Aint)array_of_sizes[i+step];
606   MPI_Aint lb = (MPI_Aint)array_of_starts[i] + (MPI_Aint)array_of_starts[i+step] *(MPI_Aint)array_of_sizes[i];
607
608   create_vector( array_of_subsizes[i+step], array_of_subsizes[i], array_of_sizes[i],
609                                oldtype, newtype );
610
611   tmp = *newtype;
612
613   for( i += 2 * step; i != end; i += step ) {
614       create_hvector( array_of_subsizes[i], 1, size * extent,
615                                     tmp, newtype );
616       unref(tmp);
617       lb += size * array_of_starts[i];
618       size *= array_of_sizes[i];
619       tmp = *newtype;
620   }
621
622   const MPI_Aint lbs = lb * extent;
623   const int sizes    = 1;
624   //handle LB and UB with a resized call
625   create_hindexed(1, &sizes, &lbs, tmp, newtype);
626   unref(tmp);
627
628   tmp = *newtype;
629   create_resized(tmp, 0, extent, newtype);
630
631   unref(tmp);
632   return MPI_SUCCESS;
633 }
634
635 int Datatype::create_resized(MPI_Datatype oldtype,MPI_Aint lb, MPI_Aint extent, MPI_Datatype *newtype){
636   const std::array<int, 3> blocks         = {{1, 1, 1}};
637   const std::array<MPI_Aint, 3> disps     = {{lb, 0, lb + extent}};
638   const std::array<MPI_Datatype, 3> types = {{MPI_LB, oldtype, MPI_UB}};
639
640   *newtype = new simgrid::smpi::Type_Struct(oldtype->size(), lb, lb + extent, DT_FLAG_DERIVED, 3, blocks.data(),
641                                             disps.data(), types.data());
642
643   (*newtype)->addflag(~DT_FLAG_COMMITED);
644   return MPI_SUCCESS;
645 }
646
647 Datatype* Datatype::f2c(int id)
648 {
649   return static_cast<Datatype*>(F2C::f2c(id));
650 }
651 } // namespace smpi
652 } // namespace simgrid