Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Implement MPI_Type_get_envelope and MPI_Type_get_contents
[simgrid.git] / src / smpi / mpi / smpi_datatype.cpp
1 /* smpi_datatype.cpp -- MPI primitives to handle datatypes                  */
2 /* Copyright (c) 2009-2020. The SimGrid Team. All rights reserved.          */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "private.hpp"
8 #include "simgrid/modelchecker.h"
9 #include "smpi_datatype_derived.hpp"
10 #include "smpi_op.hpp"
11 #include "src/instr/instr_private.hpp"
12 #include "src/smpi/include/smpi_actor.hpp"
13
14 #include <string>
15
16 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_datatype, smpi, "Logging specific to SMPI (datatype)");
17
18 static std::unordered_map<std::string, simgrid::smpi::Datatype*> id2type_lookup;
19
20 #define CREATE_MPI_DATATYPE(name, id, type)                                                                            \
21   static simgrid::smpi::Datatype _XBT_CONCAT(mpi_, name)((char*)_XBT_STRINGIFY(name), (id), sizeof(type), /* size */   \
22                                                          0,                                               /* lb */     \
23                                                          sizeof(type), /* ub = lb + size */                            \
24                                                          DT_FLAG_BASIC /* flags */                                     \
25                                                          );                                                            \
26   const MPI_Datatype name = &_XBT_CONCAT(mpi_, name);
27
28 #define CREATE_MPI_DATATYPE_NULL(name, id)                                                                             \
29   static simgrid::smpi::Datatype _XBT_CONCAT(mpi_, name)((char*)_XBT_STRINGIFY(name), (id), 0, /* size */              \
30                                                          0,                                    /* lb */                \
31                                                          0,                                    /* ub = lb + size */    \
32                                                          DT_FLAG_BASIC                         /* flags */             \
33                                                          );                                                            \
34   const MPI_Datatype name = &_XBT_CONCAT(mpi_, name);
35
36 // Predefined data types
37 CREATE_MPI_DATATYPE(MPI_CHAR, 2, char)
38 CREATE_MPI_DATATYPE(MPI_SHORT, 3, short)
39 CREATE_MPI_DATATYPE(MPI_INT, 1, int)
40 CREATE_MPI_DATATYPE(MPI_LONG, 4, long)
41 CREATE_MPI_DATATYPE(MPI_LONG_LONG, 7, long long)
42 CREATE_MPI_DATATYPE(MPI_SIGNED_CHAR, 8, signed char)
43 CREATE_MPI_DATATYPE(MPI_UNSIGNED_CHAR, 9, unsigned char)
44 CREATE_MPI_DATATYPE(MPI_UNSIGNED_SHORT, 10, unsigned short)
45 CREATE_MPI_DATATYPE(MPI_UNSIGNED, 11, unsigned int)
46 CREATE_MPI_DATATYPE(MPI_UNSIGNED_LONG, 12, unsigned long)
47 CREATE_MPI_DATATYPE(MPI_UNSIGNED_LONG_LONG, 13, unsigned long long)
48 CREATE_MPI_DATATYPE(MPI_FLOAT, 5, float)
49 CREATE_MPI_DATATYPE(MPI_DOUBLE, 0, double)
50 CREATE_MPI_DATATYPE(MPI_LONG_DOUBLE, 14, long double)
51 CREATE_MPI_DATATYPE(MPI_WCHAR, 15, wchar_t)
52 CREATE_MPI_DATATYPE(MPI_C_BOOL, 16, bool)
53 CREATE_MPI_DATATYPE(MPI_BYTE, 6, int8_t)
54 CREATE_MPI_DATATYPE(MPI_INT8_T, 17, int8_t)
55 CREATE_MPI_DATATYPE(MPI_INT16_T, 18, int16_t)
56 CREATE_MPI_DATATYPE(MPI_INT32_T, 19, int32_t)
57 CREATE_MPI_DATATYPE(MPI_INT64_T, 20, int64_t)
58 CREATE_MPI_DATATYPE(MPI_UINT8_T, 21, uint8_t)
59 CREATE_MPI_DATATYPE(MPI_UINT16_T, 22, uint16_t)
60 CREATE_MPI_DATATYPE(MPI_UINT32_T, 23, uint32_t)
61 CREATE_MPI_DATATYPE(MPI_UINT64_T, 24, uint64_t)
62 CREATE_MPI_DATATYPE(MPI_C_FLOAT_COMPLEX, 25, float _Complex)
63 CREATE_MPI_DATATYPE(MPI_C_DOUBLE_COMPLEX, 26, double _Complex)
64 CREATE_MPI_DATATYPE(MPI_C_LONG_DOUBLE_COMPLEX, 27, long double _Complex)
65 CREATE_MPI_DATATYPE(MPI_AINT, 28, MPI_Aint)
66 CREATE_MPI_DATATYPE(MPI_OFFSET, 29, MPI_Offset)
67
68 CREATE_MPI_DATATYPE(MPI_FLOAT_INT, 30, float_int)
69 CREATE_MPI_DATATYPE(MPI_LONG_INT, 31, long_int)
70 CREATE_MPI_DATATYPE(MPI_DOUBLE_INT, 32, double_int)
71 CREATE_MPI_DATATYPE(MPI_SHORT_INT, 33, short_int)
72 CREATE_MPI_DATATYPE(MPI_2INT, 34, int_int)
73 CREATE_MPI_DATATYPE(MPI_2FLOAT, 35, float_float)
74 CREATE_MPI_DATATYPE(MPI_2DOUBLE, 36, double_double)
75 CREATE_MPI_DATATYPE(MPI_2LONG, 37, long_long)
76
77 CREATE_MPI_DATATYPE(MPI_REAL, 38, float)
78 CREATE_MPI_DATATYPE(MPI_REAL4, 39, float)
79 CREATE_MPI_DATATYPE(MPI_REAL8, 40, double)
80 CREATE_MPI_DATATYPE(MPI_REAL16, 41, long double)
81 CREATE_MPI_DATATYPE_NULL(MPI_DATATYPE_NULL, -1)
82 CREATE_MPI_DATATYPE(MPI_COMPLEX8, 42, float_float)
83 CREATE_MPI_DATATYPE(MPI_COMPLEX16, 43, double_double)
84 CREATE_MPI_DATATYPE(MPI_COMPLEX32, 44, double_double)
85 CREATE_MPI_DATATYPE(MPI_INTEGER1, 45, int)
86 CREATE_MPI_DATATYPE(MPI_INTEGER2, 46, int16_t)
87 CREATE_MPI_DATATYPE(MPI_INTEGER4, 47, int32_t)
88 CREATE_MPI_DATATYPE(MPI_INTEGER8, 48, int64_t)
89 CREATE_MPI_DATATYPE(MPI_INTEGER16, 49, integer128_t)
90
91 CREATE_MPI_DATATYPE(MPI_LONG_DOUBLE_INT, 50, long_double_int)
92
93 CREATE_MPI_DATATYPE_NULL(MPI_UB, 51)
94 CREATE_MPI_DATATYPE_NULL(MPI_LB, 52)
95 CREATE_MPI_DATATYPE(MPI_PACKED, 53, char)
96 // Internal use only
97 CREATE_MPI_DATATYPE(MPI_PTR, 54, void*)
98 CREATE_MPI_DATATYPE(MPI_COUNT, 55, long long)
99
100
101 namespace simgrid{
102 namespace smpi{
103
104 std::unordered_map<int, smpi_key_elem> Datatype::keyvals_; // required by the Keyval class implementation
105 int Datatype::keyval_id_=0; // required by the Keyval class implementation
106 Datatype::Datatype(int ident, int size, MPI_Aint lb, MPI_Aint ub, int flags) : Datatype(size, lb, ub, flags)
107 {
108   id = std::to_string(ident);
109 }
110
111 Datatype::Datatype(int size, MPI_Aint lb, MPI_Aint ub, int flags) : size_(size), lb_(lb), ub_(ub), flags_(flags)
112 {
113 #if SIMGRID_HAVE_MC
114   if(MC_is_active())
115     MC_ignore(&(refcount_), sizeof(refcount_));
116 #endif
117 }
118
119 // for predefined types, so refcount_ = 0.
120 Datatype::Datatype(char* name, int ident, int size, MPI_Aint lb, MPI_Aint ub, int flags)
121     : name_(name), id(std::to_string(ident)), size_(size), lb_(lb), ub_(ub), flags_(flags), refcount_(0)
122 {
123   id2type_lookup.insert({id, this});
124 #if SIMGRID_HAVE_MC
125   if(MC_is_active())
126     MC_ignore(&(refcount_), sizeof(refcount_));
127 #endif
128 }
129
130 Datatype::Datatype(Datatype* datatype, int* ret)
131     : size_(datatype->size_), lb_(datatype->lb_), ub_(datatype->ub_), flags_(datatype->flags_)
132 {
133   flags_ &= ~DT_FLAG_PREDEFINED;
134   *ret = MPI_SUCCESS;
135     
136   if (not datatype->attributes()->empty()) {
137     int flag=0;
138     void* value_out;
139     for (auto const& it : *(datatype->attributes())) {
140       smpi_key_elem elem = keyvals_.at(it.first);
141       if (elem != nullptr){
142         if( elem->copy_fn.type_copy_fn != MPI_NULL_COPY_FN && 
143             elem->copy_fn.type_copy_fn != MPI_TYPE_DUP_FN)
144           *ret = elem->copy_fn.type_copy_fn(datatype, it.first, elem->extra_state, it.second, &value_out, &flag);
145         else if ( elem->copy_fn.type_copy_fn_fort != MPI_NULL_COPY_FN &&
146                   (*(int*)*elem->copy_fn.type_copy_fn_fort) != 1){
147           value_out=(int*)xbt_malloc(sizeof(int));
148           elem->copy_fn.type_copy_fn_fort(datatype, it.first, elem->extra_state, it.second, value_out, &flag,ret);
149         }
150         if (*ret != MPI_SUCCESS) {
151           break;
152         }
153         if(elem->copy_fn.type_copy_fn == MPI_TYPE_DUP_FN || 
154           ((elem->copy_fn.type_copy_fn_fort != MPI_NULL_COPY_FN) && (*(int*)*elem->copy_fn.type_copy_fn_fort == 1))){
155           elem->refcount++;
156           attributes()->insert({it.first, it.second});
157         } else if (flag){
158           elem->refcount++;
159           attributes()->insert({it.first, value_out});
160         }
161       }
162     }
163   }
164   contents_ = new Datatype_contents(MPI_COMBINER_DUP, 0, nullptr, 0, nullptr, 1, &datatype);
165 }
166
167 Datatype::~Datatype()
168 {
169   xbt_assert(refcount_ >= 0);
170
171   if(flags_ & DT_FLAG_PREDEFINED)
172     return;
173
174   //if still used, mark for deletion
175   if(refcount_!=0){
176       flags_ |=DT_FLAG_DESTROYED;
177       return;
178   }
179
180   cleanup_attr<Datatype>();
181   delete contents_;
182   xbt_free(name_);
183 }
184
185 void Datatype::ref()
186 {
187   refcount_++;
188
189 #if SIMGRID_HAVE_MC
190   if(MC_is_active())
191     MC_ignore(&(refcount_), sizeof(refcount_));
192 #endif
193 }
194
195 void Datatype::unref(MPI_Datatype datatype)
196 {
197   if (datatype->refcount_ > 0)
198     datatype->refcount_--;
199
200   if (datatype->refcount_ == 0 && not(datatype->flags_ & DT_FLAG_PREDEFINED))
201     delete datatype;
202
203 #if SIMGRID_HAVE_MC
204   if(MC_is_active())
205     MC_ignore(&(datatype->refcount_), sizeof(datatype->refcount_));
206 #endif
207 }
208
209 void Datatype::commit()
210 {
211   flags_ |= DT_FLAG_COMMITED;
212 }
213
214 bool Datatype::is_valid(){
215   return (flags_ & DT_FLAG_COMMITED);
216 }
217
218 bool Datatype::is_basic()
219 {
220   return (flags_ & DT_FLAG_BASIC);
221 }
222
223 bool Datatype::is_replayable()
224 {
225   return (simgrid::instr::trace_format == simgrid::instr::TraceFormat::Ti) &&
226          ((this == MPI_BYTE) || (this == MPI_DOUBLE) || (this == MPI_INT) || (this == MPI_CHAR) ||
227           (this == MPI_SHORT) || (this == MPI_LONG) || (this == MPI_FLOAT));
228 }
229
230 MPI_Datatype Datatype::decode(const std::string& datatype_id)
231 {
232   return id2type_lookup.find(datatype_id)->second;
233 }
234
235 void Datatype::addflag(int flag){
236   flags_ &= flag;
237 }
238
239 int Datatype::extent(MPI_Aint * lb, MPI_Aint * extent){
240   *lb = lb_;
241   *extent = ub_ - lb_;
242   return MPI_SUCCESS;
243 }
244
245 void Datatype::get_name(char* name, int* length){
246   if(name_!=nullptr){
247     *length = strlen(name_);
248     strncpy(name, name_, *length+1);
249   }else{
250     *length = 0;
251   }
252 }
253
254 void Datatype::set_name(const char* name){
255   if(name_!=nullptr &&  (flags_ & DT_FLAG_PREDEFINED) == 0)
256     xbt_free(name_);
257   name_ = xbt_strdup(name);
258 }
259
260 int Datatype::pack(const void* inbuf, int incount, void* outbuf, int outcount, int* position, const Comm*)
261 {
262   if (outcount - *position < incount*static_cast<int>(size_))
263     return MPI_ERR_OTHER;
264   Datatype::copy(inbuf, incount, this, static_cast<char*>(outbuf) + *position, outcount, MPI_CHAR);
265   *position += incount * size_;
266   return MPI_SUCCESS;
267 }
268
269 int Datatype::unpack(const void* inbuf, int insize, int* position, void* outbuf, int outcount, const Comm*)
270 {
271   if (outcount*static_cast<int>(size_)> insize)
272     return MPI_ERR_OTHER;
273   Datatype::copy(static_cast<const char*>(inbuf) + *position, insize, MPI_CHAR, outbuf, outcount, this);
274   *position += outcount * size_;
275   return MPI_SUCCESS;
276 }
277
278 int Datatype::get_contents (int max_integers, int max_addresses,
279                             int max_datatypes, int* array_of_integers, MPI_Aint* array_of_addresses,
280                             MPI_Datatype *array_of_datatypes)
281 {
282   if(contents_==nullptr)
283     return MPI_ERR_ARG;
284   if(max_integers<contents_->number_of_integers_)
285     return MPI_ERR_COUNT;
286   for(int i=0; i<contents_->number_of_integers_; i++){
287     array_of_integers[i]=contents_->integers_[i];
288   }
289   if(max_addresses<contents_->number_of_addresses_)
290     return MPI_ERR_COUNT;
291   for(int i=0; i<contents_->number_of_addresses_; i++){
292     array_of_addresses[i]=contents_->addresses_[i];
293   }
294   if(max_datatypes<contents_->number_of_datatypes_)
295     return MPI_ERR_COUNT;
296   for(int i=0; i<contents_->number_of_datatypes_; i++){
297     array_of_datatypes[i]=contents_->datatypes_[i];
298     contents_->datatypes_[i]->ref();
299   }
300   return MPI_SUCCESS;
301 }
302
303 int Datatype::get_envelope (int* num_integers, int* num_addresses,
304                             int* num_datatypes, int* combiner)
305 {
306   if(contents_==nullptr){
307     *combiner = MPI_COMBINER_NAMED;
308   }else{
309     *num_integers = contents_->number_of_integers_;
310     *num_addresses = contents_->number_of_addresses_;
311     *num_datatypes = contents_->number_of_datatypes_;
312     *combiner = contents_->combiner_;
313   }
314   return MPI_SUCCESS;
315 }
316
317 int Datatype::copy(const void* sendbuf, int sendcount, MPI_Datatype sendtype, void* recvbuf, int recvcount,
318                    MPI_Datatype recvtype)
319 {
320   // FIXME Handle the case of a partial shared malloc.
321
322   if (smpi_cfg_privatization() == SmpiPrivStrategies::MMAP) {
323     smpi_switch_data_segment(simgrid::s4u::Actor::self());
324   }
325   /* First check if we really have something to do */
326   size_t offset = 0;
327   std::vector<std::pair<size_t, size_t>> private_blocks;
328   if(smpi_is_shared(sendbuf,private_blocks,&offset)
329        && (private_blocks.size()==1
330        && (private_blocks[0].second - private_blocks[0].first)==(unsigned long)(sendcount * sendtype->get_extent()))){
331     XBT_VERB("sendbuf is shared. Ignoring copies");
332     return 0;
333   }
334   if(smpi_is_shared(recvbuf,private_blocks,&offset)
335        && (private_blocks.size()==1
336        && (private_blocks[0].second - private_blocks[0].first)==(unsigned long)(recvcount * recvtype->get_extent()))){
337     XBT_VERB("recvbuf is shared. Ignoring copies");
338     return 0;
339   }
340
341   if (recvcount > 0 && recvbuf != sendbuf) {
342     sendcount *= sendtype->size();
343     recvcount *= recvtype->size();
344     int count = sendcount < recvcount ? sendcount : recvcount;
345     XBT_DEBUG("Copying %d bytes from %p to %p", count, sendbuf, recvbuf);
346     if (not(sendtype->flags() & DT_FLAG_DERIVED) && not(recvtype->flags() & DT_FLAG_DERIVED)) {
347       if (not smpi_process()->replaying())
348         memcpy(recvbuf, sendbuf, count);
349     } else if (not(sendtype->flags() & DT_FLAG_DERIVED)) {
350       recvtype->unserialize(sendbuf, recvbuf, count / recvtype->size(), MPI_REPLACE);
351     } else if (not(recvtype->flags() & DT_FLAG_DERIVED)) {
352       sendtype->serialize(sendbuf, recvbuf, count / sendtype->size());
353     } else {
354       void * buf_tmp = xbt_malloc(count);
355
356       sendtype->serialize( sendbuf, buf_tmp,count/sendtype->size());
357       recvtype->unserialize( buf_tmp, recvbuf,count/recvtype->size(), MPI_REPLACE);
358
359       xbt_free(buf_tmp);
360     }
361   }
362
363   return sendcount > recvcount ? MPI_ERR_TRUNCATE : MPI_SUCCESS;
364 }
365
366 //Default serialization method : memcpy.
367 void Datatype::serialize(const void* noncontiguous_buf, void* contiguous_buf, int count)
368 {
369   char* contiguous_buf_char = static_cast<char*>(contiguous_buf);
370   const char* noncontiguous_buf_char = static_cast<const char*>(noncontiguous_buf)+lb_;
371   memcpy(contiguous_buf_char, noncontiguous_buf_char, count*size_);
372 }
373
374 void Datatype::unserialize(const void* contiguous_buf, void *noncontiguous_buf, int count, MPI_Op op){
375   const char* contiguous_buf_char = static_cast<const char*>(contiguous_buf);
376   char* noncontiguous_buf_char = static_cast<char*>(noncontiguous_buf)+lb_;
377   int n=count;
378   if(op!=MPI_OP_NULL)
379     op->apply( contiguous_buf_char, noncontiguous_buf_char, &n, this);
380 }
381
382 int Datatype::create_contiguous(int count, MPI_Datatype old_type, MPI_Aint lb, MPI_Datatype* new_type){
383   if(old_type->flags_ & DT_FLAG_DERIVED){
384     //handle this case as a hvector with stride equals to the extent of the datatype
385     return create_hvector(count, 1, old_type->get_extent(), old_type, new_type);
386   }
387   if(count>0)
388     *new_type = new Type_Contiguous(count * old_type->size(), lb, lb + count * old_type->size(),
389                                    DT_FLAG_DERIVED, count, old_type);
390   else
391     *new_type = new Datatype(count * old_type->size(), lb, lb + count * old_type->size(),0);
392   return MPI_SUCCESS;
393 }
394
395 int Datatype::create_vector(int count, int block_length, int stride, MPI_Datatype old_type, MPI_Datatype* new_type)
396 {
397   int retval;
398   if (block_length<0)
399     return MPI_ERR_ARG;
400   MPI_Aint lb = 0;
401   MPI_Aint ub = 0;
402   if(count>0){
403     lb=old_type->lb();
404     ub=((count-1)*stride+block_length-1)*old_type->get_extent()+old_type->ub();
405   }
406   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length){
407     *new_type = new Type_Vector(count * (block_length) * old_type->size(), lb, ub,
408                                    DT_FLAG_DERIVED, count, block_length, stride, old_type);
409     retval=MPI_SUCCESS;
410   }else{
411     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
412     *new_type = new Datatype(count * block_length * old_type->size(), 0, ((count -1) * stride + block_length)*
413                          old_type->size(), DT_FLAG_CONTIGUOUS);
414     int ints[3] = {count, block_length, stride};
415     (*new_type)->contents_ = new Datatype_contents(MPI_COMBINER_VECTOR, 3, ints, 0, nullptr, 1, &old_type);
416     retval=MPI_SUCCESS;
417   }
418   return retval;
419 }
420
421
422 int Datatype::create_hvector(int count, int block_length, MPI_Aint stride, MPI_Datatype old_type, MPI_Datatype* new_type)
423 {
424   int retval;
425   if (block_length<0)
426     return MPI_ERR_ARG;
427   MPI_Aint lb = 0;
428   MPI_Aint ub = 0;
429   if(count>0){
430     lb=old_type->lb();
431     ub=((count-1)*stride)+(block_length-1)*old_type->get_extent()+old_type->ub();
432   }
433   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length*old_type->get_extent()){
434     *new_type = new Type_Hvector(count * (block_length) * old_type->size(), lb, ub,
435                                    DT_FLAG_DERIVED, count, block_length, stride, old_type);
436     retval=MPI_SUCCESS;
437   }else{
438     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
439     *new_type = new Datatype(count * block_length * old_type->size(), 0, count * block_length * old_type->size(), DT_FLAG_CONTIGUOUS);
440     int ints[2] = {count, block_length};
441     (*new_type)->contents_ = new Datatype_contents(MPI_COMBINER_HVECTOR, 2, ints, 1, &stride, 1, &old_type);
442     retval=MPI_SUCCESS;
443   }
444   return retval;
445 }
446
447 int Datatype::create_indexed(int count, const int* block_lengths, const int* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
448   int size = 0;
449   bool contiguous=true;
450   MPI_Aint lb = 0;
451   MPI_Aint ub = 0;
452   if(count>0){
453     lb=indices[0]*old_type->get_extent();
454     ub=indices[0]*old_type->get_extent() + block_lengths[0]*old_type->ub();
455   }
456
457   for (int i = 0; i < count; i++) {
458     if (block_lengths[i] < 0)
459       return MPI_ERR_ARG;
460     size += block_lengths[i];
461
462     if(indices[i]*old_type->get_extent()+old_type->lb()<lb)
463       lb = indices[i]*old_type->get_extent()+old_type->lb();
464     if(indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub()>ub)
465       ub = indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub();
466
467     if ( (i< count -1) && (indices[i]+block_lengths[i] != indices[i+1]) )
468       contiguous=false;
469   }
470   if(old_type->flags_ & DT_FLAG_DERIVED)
471     contiguous=false;
472
473   if (not contiguous) {
474     *new_type = new Type_Indexed(size * old_type->size(),lb,ub,
475                                  DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
476   }else{
477     Datatype::create_contiguous(size, old_type, lb, new_type);
478   }
479   return MPI_SUCCESS;
480 }
481
482 int Datatype::create_hindexed(int count, const int* block_lengths, const MPI_Aint* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
483   int size = 0;
484   bool contiguous=true;
485   MPI_Aint lb = 0;
486   MPI_Aint ub = 0;
487   if(count>0){
488     lb=indices[0] + old_type->lb();
489     ub=indices[0] + block_lengths[0]*old_type->ub();
490   }
491   for (int i = 0; i < count; i++) {
492     if (block_lengths[i] < 0)
493       return MPI_ERR_ARG;
494     size += block_lengths[i];
495
496     if(indices[i]+old_type->lb()<lb)
497       lb = indices[i]+old_type->lb();
498     if(indices[i]+block_lengths[i]*old_type->ub()>ub)
499       ub = indices[i]+block_lengths[i]*old_type->ub();
500
501     if ( (i< count -1) && (indices[i]+block_lengths[i]*(static_cast<int>(old_type->size())) != indices[i+1]) )
502       contiguous=false;
503   }
504   if (old_type->flags_ & DT_FLAG_DERIVED || lb!=0)
505     contiguous=false;
506
507   if (not contiguous) {
508     *new_type = new Type_Hindexed(size * old_type->size(),lb,ub,
509                                    DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
510   }else{
511     Datatype::create_contiguous(size, old_type, lb, new_type);
512   }
513   return MPI_SUCCESS;
514 }
515
516 int Datatype::create_struct(int count, const int* block_lengths, const MPI_Aint* indices, const MPI_Datatype* old_types, MPI_Datatype* new_type){
517   size_t size = 0;
518   bool contiguous=true;
519   size = 0;
520   MPI_Aint lb = 0;
521   MPI_Aint ub = 0;
522   if(count>0){
523     lb=indices[0] + old_types[0]->lb();
524     ub=indices[0] + block_lengths[0]*old_types[0]->ub();
525   }
526   bool forced_lb=false;
527   bool forced_ub=false;
528   for (int i = 0; i < count; i++) {
529     if (block_lengths[i]<0)
530       return MPI_ERR_ARG;
531     if (old_types[i]->flags_ & DT_FLAG_DERIVED)
532       contiguous=false;
533
534     size += block_lengths[i]*old_types[i]->size();
535     if (old_types[i]==MPI_LB){
536       lb=indices[i];
537       forced_lb=true;
538     }
539     if (old_types[i]==MPI_UB){
540       ub=indices[i];
541       forced_ub=true;
542     }
543
544     if (not forced_lb && indices[i] + old_types[i]->lb() < lb)
545       lb = indices[i];
546     if (not forced_ub && indices[i] + block_lengths[i] * old_types[i]->ub() > ub)
547       ub = indices[i]+block_lengths[i]*old_types[i]->ub();
548
549     if ( (i< count -1) && (indices[i]+block_lengths[i]*static_cast<int>(old_types[i]->size()) != indices[i+1]) )
550       contiguous=false;
551   }
552   if (not contiguous) {
553     *new_type = new Type_Struct(size, lb,ub, DT_FLAG_DERIVED|DT_FLAG_DATA,
554                                 count, block_lengths, indices, old_types);
555   }else{
556     Datatype::create_contiguous(size, MPI_CHAR, lb, new_type);
557   }
558   return MPI_SUCCESS;
559 }
560
561 int Datatype::create_subarray(int ndims, const int* array_of_sizes,
562                              const int* array_of_subsizes, const int* array_of_starts,
563                              int order, MPI_Datatype oldtype, MPI_Datatype *newtype){
564   MPI_Datatype tmp;
565
566   for (int i = 0; i < ndims; i++) {
567     if (array_of_subsizes[i] > array_of_sizes[i]){
568       XBT_WARN("subarray : array_of_subsizes > array_of_sizes for dim %d",i);
569       return MPI_ERR_ARG;
570     }
571     if (array_of_starts[i] + array_of_subsizes[i] > array_of_sizes[i]){
572       XBT_WARN("subarray : array_of_starts + array_of_subsizes > array_of_sizes for dim %d",i);
573       return MPI_ERR_ARG;
574     }
575   }
576
577   MPI_Aint extent = oldtype->get_extent();
578
579   int i;
580   int step;
581   int end;
582   if( order==MPI_ORDER_C ) {
583       i = ndims - 1;
584       step = -1;
585       end = -1;
586   } else {
587       i = 0;
588       step = 1;
589       end = ndims;
590   }
591
592   MPI_Aint size = (MPI_Aint)array_of_sizes[i] * (MPI_Aint)array_of_sizes[i+step];
593   MPI_Aint lb = (MPI_Aint)array_of_starts[i] + (MPI_Aint)array_of_starts[i+step] *(MPI_Aint)array_of_sizes[i];
594
595   create_vector( array_of_subsizes[i+step], array_of_subsizes[i], array_of_sizes[i],
596                                oldtype, newtype );
597
598   tmp = *newtype;
599
600   for( i += 2 * step; i != end; i += step ) {
601       create_hvector( array_of_subsizes[i], 1, size * extent,
602                                     tmp, newtype );
603       unref(tmp);
604       lb += size * array_of_starts[i];
605       size *= array_of_sizes[i];
606       tmp = *newtype;
607   }
608
609   MPI_Aint lbs[1] = {lb * extent};
610   int sizes [1]={1};
611   //handle LB and UB with a resized call
612   create_hindexed( 1, sizes, lbs, tmp, newtype);
613   unref(tmp);
614
615   tmp = *newtype;
616   create_resized(tmp, 0, extent, newtype);
617
618   unref(tmp);
619   return MPI_SUCCESS;
620 }
621
622 int Datatype::create_resized(MPI_Datatype oldtype,MPI_Aint lb, MPI_Aint extent, MPI_Datatype *newtype){
623   int blocks[3]         = {1, 1, 1};
624   MPI_Aint disps[3]     = {lb, 0, lb + extent};
625   MPI_Datatype types[3] = {MPI_LB, oldtype, MPI_UB};
626
627   *newtype = new simgrid::smpi::Type_Struct(oldtype->size(), lb, lb + extent, DT_FLAG_DERIVED, 3, blocks, disps, types);
628
629   (*newtype)->addflag(~DT_FLAG_COMMITED);
630   return MPI_SUCCESS;
631 }
632
633 Datatype* Datatype::f2c(int id)
634 {
635   return static_cast<Datatype*>(F2C::f2c(id));
636 }
637 } // namespace smpi
638 } // namespace simgrid