Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
[sonar] Unused function parameters.
[simgrid.git] / src / smpi / mpi / smpi_datatype.cpp
1 /* smpi_datatype.cpp -- MPI primitives to handle datatypes                  */
2 /* Copyright (c) 2009-2019. The SimGrid Team. All rights reserved.          */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "private.hpp"
8 #include "simgrid/modelchecker.h"
9 #include "smpi_datatype_derived.hpp"
10 #include "smpi_op.hpp"
11 #include "src/instr/instr_private.hpp"
12 #include "src/smpi/include/smpi_actor.hpp"
13
14 #include <string>
15
16 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_datatype, smpi, "Logging specific to SMPI (datatype)");
17
18 static std::unordered_map<std::string, simgrid::smpi::Datatype*> id2type_lookup;
19
20 #define CREATE_MPI_DATATYPE(name, id, type)                                                                            \
21   static simgrid::smpi::Datatype mpi_##name((char*)#name, id, sizeof(type), /* size */                                 \
22                                             0,                              /* lb */                                   \
23                                             sizeof(type),                   /* ub = lb + size */                       \
24                                             DT_FLAG_BASIC                   /* flags */                                \
25                                             );                                                                         \
26   const MPI_Datatype name = &mpi_##name;
27
28 #define CREATE_MPI_DATATYPE_NULL(name, id)                                                                             \
29   static simgrid::smpi::Datatype mpi_##name((char*)#name, id, 0, /* size */                                            \
30                                             0,                   /* lb */                                              \
31                                             0,                   /* ub = lb + size */                                  \
32                                             DT_FLAG_BASIC        /* flags */                                           \
33                                             );                                                                         \
34   const MPI_Datatype name = &mpi_##name;
35
36 // Predefined data types
37 CREATE_MPI_DATATYPE(MPI_CHAR, 2, char);
38 CREATE_MPI_DATATYPE(MPI_SHORT, 3, short);
39 CREATE_MPI_DATATYPE(MPI_INT, 1, int);
40 CREATE_MPI_DATATYPE(MPI_LONG, 4, long);
41 CREATE_MPI_DATATYPE(MPI_LONG_LONG, 7, long long);
42 CREATE_MPI_DATATYPE(MPI_SIGNED_CHAR, 8, signed char);
43 CREATE_MPI_DATATYPE(MPI_UNSIGNED_CHAR, 9, unsigned char);
44 CREATE_MPI_DATATYPE(MPI_UNSIGNED_SHORT, 10, unsigned short);
45 CREATE_MPI_DATATYPE(MPI_UNSIGNED, 11, unsigned int);
46 CREATE_MPI_DATATYPE(MPI_UNSIGNED_LONG, 12, unsigned long);
47 CREATE_MPI_DATATYPE(MPI_UNSIGNED_LONG_LONG, 13, unsigned long long);
48 CREATE_MPI_DATATYPE(MPI_FLOAT, 5, float);
49 CREATE_MPI_DATATYPE(MPI_DOUBLE, 0, double);
50 CREATE_MPI_DATATYPE(MPI_LONG_DOUBLE, 14, long double);
51 CREATE_MPI_DATATYPE(MPI_WCHAR, 15, wchar_t);
52 CREATE_MPI_DATATYPE(MPI_C_BOOL, 16, bool);
53 CREATE_MPI_DATATYPE(MPI_BYTE, 6, int8_t);
54 CREATE_MPI_DATATYPE(MPI_INT8_T, 17, int8_t);
55 CREATE_MPI_DATATYPE(MPI_INT16_T, 18, int16_t);
56 CREATE_MPI_DATATYPE(MPI_INT32_T, 19, int32_t);
57 CREATE_MPI_DATATYPE(MPI_INT64_T, 20, int64_t);
58 CREATE_MPI_DATATYPE(MPI_UINT8_T, 21, uint8_t);
59 CREATE_MPI_DATATYPE(MPI_UINT16_T, 22, uint16_t);
60 CREATE_MPI_DATATYPE(MPI_UINT32_T, 23, uint32_t);
61 CREATE_MPI_DATATYPE(MPI_UINT64_T, 24, uint64_t);
62 CREATE_MPI_DATATYPE(MPI_C_FLOAT_COMPLEX, 25, float _Complex);
63 CREATE_MPI_DATATYPE(MPI_C_DOUBLE_COMPLEX, 26, double _Complex);
64 CREATE_MPI_DATATYPE(MPI_C_LONG_DOUBLE_COMPLEX, 27, long double _Complex);
65 CREATE_MPI_DATATYPE(MPI_AINT, 28, MPI_Aint);
66 CREATE_MPI_DATATYPE(MPI_OFFSET, 29, MPI_Offset);
67
68 CREATE_MPI_DATATYPE(MPI_FLOAT_INT, 30, float_int);
69 CREATE_MPI_DATATYPE(MPI_LONG_INT, 31, long_int);
70 CREATE_MPI_DATATYPE(MPI_DOUBLE_INT, 32, double_int);
71 CREATE_MPI_DATATYPE(MPI_SHORT_INT, 33, short_int);
72 CREATE_MPI_DATATYPE(MPI_2INT, 34, int_int);
73 CREATE_MPI_DATATYPE(MPI_2FLOAT, 35, float_float);
74 CREATE_MPI_DATATYPE(MPI_2DOUBLE, 36, double_double);
75 CREATE_MPI_DATATYPE(MPI_2LONG, 37, long_long);
76
77 CREATE_MPI_DATATYPE(MPI_REAL, 38, float);
78 CREATE_MPI_DATATYPE(MPI_REAL4, 39, float);
79 CREATE_MPI_DATATYPE(MPI_REAL8, 40, double);
80 CREATE_MPI_DATATYPE(MPI_REAL16, 41, long double);
81 CREATE_MPI_DATATYPE_NULL(MPI_DATATYPE_NULL, -1);
82 CREATE_MPI_DATATYPE_NULL(MPI_COMPLEX8, 42);
83 CREATE_MPI_DATATYPE_NULL(MPI_COMPLEX16, 43);
84 CREATE_MPI_DATATYPE_NULL(MPI_COMPLEX32, 44);
85 CREATE_MPI_DATATYPE(MPI_INTEGER1, 45, int);
86 CREATE_MPI_DATATYPE(MPI_INTEGER2, 46, int16_t);
87 CREATE_MPI_DATATYPE(MPI_INTEGER4, 47, int32_t);
88 CREATE_MPI_DATATYPE(MPI_INTEGER8, 48, int64_t);
89 CREATE_MPI_DATATYPE(MPI_INTEGER16, 49, integer128_t);
90
91 CREATE_MPI_DATATYPE(MPI_LONG_DOUBLE_INT, 50, long_double_int);
92
93 CREATE_MPI_DATATYPE_NULL(MPI_UB, 51);
94 CREATE_MPI_DATATYPE_NULL(MPI_LB, 52);
95 CREATE_MPI_DATATYPE(MPI_PACKED, 53, char);
96 // Internal use only
97 CREATE_MPI_DATATYPE(MPI_PTR, 54, void*);
98 CREATE_MPI_DATATYPE(MPI_COUNT, 55, long long);
99
100
101 namespace simgrid{
102 namespace smpi{
103
104 std::unordered_map<int, smpi_key_elem> Datatype::keyvals_; // required by the Keyval class implementation
105 int Datatype::keyval_id_=0; // required by the Keyval class implementation
106 Datatype::Datatype(int ident, int size, MPI_Aint lb, MPI_Aint ub, int flags) : Datatype(size, lb, ub, flags)
107 {
108   id = std::to_string(ident);
109 }
110 Datatype::Datatype(int size,MPI_Aint lb, MPI_Aint ub, int flags) : name_(nullptr), size_(size), lb_(lb), ub_(ub), flags_(flags), refcount_(1){
111 #if SIMGRID_HAVE_MC
112   if(MC_is_active())
113     MC_ignore(&(refcount_), sizeof(refcount_));
114 #endif
115 }
116
117 //for predefined types, so in_use = 0.
118 Datatype::Datatype(char* name, int ident, int size, MPI_Aint lb, MPI_Aint ub, int flags)
119     : name_(name), id(std::to_string(ident)), size_(size), lb_(lb), ub_(ub), flags_(flags), refcount_(0)
120 {
121   id2type_lookup.insert({id, this});
122 #if SIMGRID_HAVE_MC
123   if(MC_is_active())
124     MC_ignore(&(refcount_), sizeof(refcount_));
125 #endif
126 }
127
128 Datatype::Datatype(Datatype *datatype, int* ret) : name_(nullptr), size_(datatype->size_), lb_(datatype->lb_), ub_(datatype->ub_), flags_(datatype->flags_), refcount_(1)
129 {
130   flags_ &= ~DT_FLAG_PREDEFINED;
131   *ret = MPI_SUCCESS;
132   if(datatype->name_)
133     name_ = xbt_strdup(datatype->name_);
134     
135   if (not datatype->attributes()->empty()) {
136     int flag=0;
137     void* value_out;
138     for (auto const& it : *(datatype->attributes())) {
139       smpi_key_elem elem = keyvals_.at(it.first);
140       if (elem != nullptr){
141         if( elem->copy_fn.type_copy_fn != MPI_NULL_COPY_FN && 
142             elem->copy_fn.type_copy_fn != MPI_TYPE_DUP_FN)
143           *ret = elem->copy_fn.type_copy_fn(datatype, it.first, elem->extra_state, it.second, &value_out, &flag);
144         else if ( elem->copy_fn.type_copy_fn_fort != MPI_NULL_COPY_FN &&
145                   (*(int*)*elem->copy_fn.type_copy_fn_fort) != 1){
146           value_out=(int*)xbt_malloc(sizeof(int));
147           elem->copy_fn.type_copy_fn_fort(datatype, it.first, elem->extra_state, it.second, value_out, &flag,ret);
148         }
149         if (*ret != MPI_SUCCESS) {
150           break;
151         }
152         if(elem->copy_fn.type_copy_fn == MPI_TYPE_DUP_FN || 
153           ((elem->copy_fn.type_copy_fn_fort != MPI_NULL_COPY_FN) && (*(int*)*elem->copy_fn.type_copy_fn_fort == 1))){
154           elem->refcount++;
155           attributes()->insert({it.first, it.second});
156         } else if (flag){
157           elem->refcount++;
158           attributes()->insert({it.first, value_out});
159         }
160       }
161     }
162   }
163 }
164
165 Datatype::~Datatype(){
166   xbt_assert(refcount_ >= 0);
167
168   if(flags_ & DT_FLAG_PREDEFINED)
169     return;
170
171   //if still used, mark for deletion
172   if(refcount_!=0){
173       flags_ |=DT_FLAG_DESTROYED;
174       return;
175   }
176
177   cleanup_attr<Datatype>();
178
179   xbt_free(name_);
180 }
181
182 void Datatype::ref(){
183
184   refcount_++;
185
186 #if SIMGRID_HAVE_MC
187   if(MC_is_active())
188     MC_ignore(&(refcount_), sizeof(refcount_));
189 #endif
190 }
191
192 void Datatype::unref(MPI_Datatype datatype)
193 {
194   if (datatype->refcount_ > 0)
195     datatype->refcount_--;
196
197   if (datatype->refcount_ == 0 && not(datatype->flags_ & DT_FLAG_PREDEFINED))
198     delete datatype;
199
200 #if SIMGRID_HAVE_MC
201   if(MC_is_active())
202     MC_ignore(&(datatype->refcount_), sizeof(datatype->refcount_));
203 #endif
204 }
205
206 void Datatype::commit()
207 {
208   flags_ |= DT_FLAG_COMMITED;
209 }
210
211 bool Datatype::is_valid(){
212   return (flags_ & DT_FLAG_COMMITED);
213 }
214
215 bool Datatype::is_basic()
216 {
217   return (flags_ & DT_FLAG_BASIC);
218 }
219
220 bool Datatype::is_replayable()
221 {
222   return (simgrid::instr::trace_format == simgrid::instr::TraceFormat::Ti) &&
223          ((this == MPI_BYTE) || (this == MPI_DOUBLE) || (this == MPI_INT) || (this == MPI_CHAR) ||
224           (this == MPI_SHORT) || (this == MPI_LONG) || (this == MPI_FLOAT));
225 }
226
227 MPI_Datatype Datatype::decode(const std::string& datatype_id)
228 {
229   return id2type_lookup.find(datatype_id)->second;
230 }
231
232 void Datatype::addflag(int flag){
233   flags_ &= flag;
234 }
235
236 int Datatype::extent(MPI_Aint * lb, MPI_Aint * extent){
237   *lb = lb_;
238   *extent = ub_ - lb_;
239   return MPI_SUCCESS;
240 }
241
242 void Datatype::get_name(char* name, int* length){
243   *length = strlen(name_);
244   strncpy(name, name_, *length+1);
245 }
246
247 void Datatype::set_name(char* name){
248   if(name_!=nullptr &&  (flags_ & DT_FLAG_PREDEFINED) == 0)
249     xbt_free(name_);
250   name_ = xbt_strdup(name);
251 }
252
253 int Datatype::pack(void* inbuf, int incount, void* outbuf, int outcount, int* position, MPI_Comm)
254 {
255   if (outcount - *position < incount*static_cast<int>(size_))
256     return MPI_ERR_OTHER;
257   Datatype::copy(inbuf, incount, this, static_cast<char*>(outbuf) + *position, outcount, MPI_CHAR);
258   *position += incount * size_;
259   return MPI_SUCCESS;
260 }
261
262 int Datatype::unpack(void* inbuf, int insize, int* position, void* outbuf, int outcount, MPI_Comm)
263 {
264   if (outcount*static_cast<int>(size_)> insize)
265     return MPI_ERR_OTHER;
266   Datatype::copy(static_cast<char*>(inbuf) + *position, insize, MPI_CHAR, outbuf, outcount, this);
267   *position += outcount * size_;
268   return MPI_SUCCESS;
269 }
270
271 int Datatype::copy(void *sendbuf, int sendcount, MPI_Datatype sendtype,
272                        void *recvbuf, int recvcount, MPI_Datatype recvtype){
273
274 // FIXME Handle the case of a partial shared malloc.
275
276   if (smpi_privatize_global_variables == SmpiPrivStrategies::MMAP) {
277     smpi_switch_data_segment(simgrid::s4u::Actor::self());
278   }
279   /* First check if we really have something to do */
280   if (recvcount > 0 && recvbuf != sendbuf) {
281     sendcount *= sendtype->size();
282     recvcount *= recvtype->size();
283     int count = sendcount < recvcount ? sendcount : recvcount;
284     XBT_DEBUG("Copying %d bytes from %p to %p", count, sendbuf, recvbuf);
285     if (not(sendtype->flags() & DT_FLAG_DERIVED) && not(recvtype->flags() & DT_FLAG_DERIVED)) {
286       if (not smpi_process()->replaying())
287         memcpy(recvbuf, sendbuf, count);
288     } else if (not(sendtype->flags() & DT_FLAG_DERIVED)) {
289       recvtype->unserialize(sendbuf, recvbuf, count / recvtype->size(), MPI_REPLACE);
290     } else if (not(recvtype->flags() & DT_FLAG_DERIVED)) {
291       sendtype->serialize(sendbuf, recvbuf, count / sendtype->size());
292     }else{
293
294       void * buf_tmp = xbt_malloc(count);
295
296       sendtype->serialize( sendbuf, buf_tmp,count/sendtype->size());
297       recvtype->unserialize( buf_tmp, recvbuf,count/recvtype->size(), MPI_REPLACE);
298
299       xbt_free(buf_tmp);
300     }
301   }
302
303   return sendcount > recvcount ? MPI_ERR_TRUNCATE : MPI_SUCCESS;
304 }
305
306 //Default serialization method : memcpy.
307 void Datatype::serialize(void* noncontiguous_buf, void* contiguous_buf, int count)
308 {
309   char* contiguous_buf_char = static_cast<char*>(contiguous_buf);
310   char* noncontiguous_buf_char = static_cast<char*>(noncontiguous_buf)+lb_;
311   memcpy(contiguous_buf_char, noncontiguous_buf_char, count*size_);
312 }
313
314 void Datatype::unserialize( void* contiguous_buf, void *noncontiguous_buf, int count, MPI_Op op){
315   char* contiguous_buf_char = static_cast<char*>(contiguous_buf);
316   char* noncontiguous_buf_char = static_cast<char*>(noncontiguous_buf)+lb_;
317   int n=count;
318   if(op!=MPI_OP_NULL)
319     op->apply( contiguous_buf_char, noncontiguous_buf_char, &n, this);
320 }
321
322 int Datatype::create_contiguous(int count, MPI_Datatype old_type, MPI_Aint lb, MPI_Datatype* new_type){
323   if(old_type->flags_ & DT_FLAG_DERIVED){
324     //handle this case as a hvector with stride equals to the extent of the datatype
325     return create_hvector(count, 1, old_type->get_extent(), old_type, new_type);
326   }
327   if(count>0)
328     *new_type = new Type_Contiguous(count * old_type->size(), lb, lb + count * old_type->size(),
329                                    DT_FLAG_DERIVED, count, old_type);
330   else
331     *new_type = new Datatype(count * old_type->size(), lb, lb + count * old_type->size(),0);
332   return MPI_SUCCESS;
333 }
334
335 int Datatype::create_vector(int count, int block_length, int stride, MPI_Datatype old_type, MPI_Datatype* new_type)
336 {
337   int retval;
338   if (block_length<0)
339     return MPI_ERR_ARG;
340   MPI_Aint lb = 0;
341   MPI_Aint ub = 0;
342   if(count>0){
343     lb=old_type->lb();
344     ub=((count-1)*stride+block_length-1)*old_type->get_extent()+old_type->ub();
345   }
346   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length){
347     *new_type = new Type_Vector(count * (block_length) * old_type->size(), lb, ub,
348                                    DT_FLAG_DERIVED, count, block_length, stride, old_type);
349     retval=MPI_SUCCESS;
350   }else{
351     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
352     *new_type = new Datatype(count * block_length * old_type->size(), 0, ((count -1) * stride + block_length)*
353                          old_type->size(), DT_FLAG_CONTIGUOUS);
354     retval=MPI_SUCCESS;
355   }
356   return retval;
357 }
358
359
360 int Datatype::create_hvector(int count, int block_length, MPI_Aint stride, MPI_Datatype old_type, MPI_Datatype* new_type)
361 {
362   int retval;
363   if (block_length<0)
364     return MPI_ERR_ARG;
365   MPI_Aint lb = 0;
366   MPI_Aint ub = 0;
367   if(count>0){
368     lb=old_type->lb();
369     ub=((count-1)*stride)+(block_length-1)*old_type->get_extent()+old_type->ub();
370   }
371   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length*old_type->get_extent()){
372     *new_type = new Type_Hvector(count * (block_length) * old_type->size(), lb, ub,
373                                    DT_FLAG_DERIVED, count, block_length, stride, old_type);
374     retval=MPI_SUCCESS;
375   }else{
376     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
377     *new_type = new Datatype(count * block_length * old_type->size(), 0, count * block_length * old_type->size(), DT_FLAG_CONTIGUOUS);
378     retval=MPI_SUCCESS;
379   }
380   return retval;
381 }
382
383 int Datatype::create_indexed(int count, int* block_lengths, int* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
384   int size = 0;
385   bool contiguous=true;
386   MPI_Aint lb = 0;
387   MPI_Aint ub = 0;
388   if(count>0){
389     lb=indices[0]*old_type->get_extent();
390     ub=indices[0]*old_type->get_extent() + block_lengths[0]*old_type->ub();
391   }
392
393   for (int i = 0; i < count; i++) {
394     if (block_lengths[i] < 0)
395       return MPI_ERR_ARG;
396     size += block_lengths[i];
397
398     if(indices[i]*old_type->get_extent()+old_type->lb()<lb)
399       lb = indices[i]*old_type->get_extent()+old_type->lb();
400     if(indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub()>ub)
401       ub = indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub();
402
403     if ( (i< count -1) && (indices[i]+block_lengths[i] != indices[i+1]) )
404       contiguous=false;
405   }
406   if(old_type->flags_ & DT_FLAG_DERIVED)
407     contiguous=false;
408
409   if (not contiguous) {
410     *new_type = new Type_Indexed(size * old_type->size(),lb,ub,
411                                  DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
412   }else{
413     Datatype::create_contiguous(size, old_type, lb, new_type);
414   }
415   return MPI_SUCCESS;
416 }
417
418 int Datatype::create_hindexed(int count, int* block_lengths, MPI_Aint* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
419   int size = 0;
420   bool contiguous=true;
421   MPI_Aint lb = 0;
422   MPI_Aint ub = 0;
423   if(count>0){
424     lb=indices[0] + old_type->lb();
425     ub=indices[0] + block_lengths[0]*old_type->ub();
426   }
427   for (int i = 0; i < count; i++) {
428     if (block_lengths[i] < 0)
429       return MPI_ERR_ARG;
430     size += block_lengths[i];
431
432     if(indices[i]+old_type->lb()<lb)
433       lb = indices[i]+old_type->lb();
434     if(indices[i]+block_lengths[i]*old_type->ub()>ub)
435       ub = indices[i]+block_lengths[i]*old_type->ub();
436
437     if ( (i< count -1) && (indices[i]+block_lengths[i]*(static_cast<int>(old_type->size())) != indices[i+1]) )
438       contiguous=false;
439   }
440   if (old_type->flags_ & DT_FLAG_DERIVED || lb!=0)
441     contiguous=false;
442
443   if (not contiguous) {
444     *new_type = new Type_Hindexed(size * old_type->size(),lb,ub,
445                                    DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
446   }else{
447     Datatype::create_contiguous(size, old_type, lb, new_type);
448   }
449   return MPI_SUCCESS;
450 }
451
452 int Datatype::create_struct(int count, int* block_lengths, MPI_Aint* indices, MPI_Datatype* old_types, MPI_Datatype* new_type){
453   size_t size = 0;
454   bool contiguous=true;
455   size = 0;
456   MPI_Aint lb = 0;
457   MPI_Aint ub = 0;
458   if(count>0){
459     lb=indices[0] + old_types[0]->lb();
460     ub=indices[0] + block_lengths[0]*old_types[0]->ub();
461   }
462   bool forced_lb=false;
463   bool forced_ub=false;
464   for (int i = 0; i < count; i++) {
465     if (block_lengths[i]<0)
466       return MPI_ERR_ARG;
467     if (old_types[i]->flags_ & DT_FLAG_DERIVED)
468       contiguous=false;
469
470     size += block_lengths[i]*old_types[i]->size();
471     if (old_types[i]==MPI_LB){
472       lb=indices[i];
473       forced_lb=true;
474     }
475     if (old_types[i]==MPI_UB){
476       ub=indices[i];
477       forced_ub=true;
478     }
479
480     if (not forced_lb && indices[i] + old_types[i]->lb() < lb)
481       lb = indices[i];
482     if (not forced_ub && indices[i] + block_lengths[i] * old_types[i]->ub() > ub)
483       ub = indices[i]+block_lengths[i]*old_types[i]->ub();
484
485     if ( (i< count -1) && (indices[i]+block_lengths[i]*static_cast<int>(old_types[i]->size()) != indices[i+1]) )
486       contiguous=false;
487   }
488   if (not contiguous) {
489     *new_type = new Type_Struct(size, lb,ub, DT_FLAG_DERIVED|DT_FLAG_DATA,
490                                 count, block_lengths, indices, old_types);
491   }else{
492     Datatype::create_contiguous(size, MPI_CHAR, lb, new_type);
493   }
494   return MPI_SUCCESS;
495 }
496
497 int Datatype::create_subarray(int ndims, int* array_of_sizes,
498                              int* array_of_subsizes, int* array_of_starts,
499                              int order, MPI_Datatype oldtype, MPI_Datatype *newtype){
500   MPI_Datatype tmp;
501
502   for (int i = 0; i < ndims; i++) {
503     if (array_of_subsizes[i] > array_of_sizes[i]){
504       XBT_WARN("subarray : array_of_subsizes > array_of_sizes for dim %d",i);
505       return MPI_ERR_ARG;
506     }
507     if (array_of_starts[i] + array_of_subsizes[i] > array_of_sizes[i]){
508       XBT_WARN("subarray : array_of_starts + array_of_subsizes > array_of_sizes for dim %d",i);
509       return MPI_ERR_ARG;
510     }
511   }
512
513   MPI_Aint extent = oldtype->get_extent();
514
515   int i;
516   int step;
517   int end;
518   if( order==MPI_ORDER_C ) {
519       i = ndims - 1;
520       step = -1;
521       end = -1;
522   } else {
523       i = 0;
524       step = 1;
525       end = ndims;
526   }
527
528   MPI_Aint size = (MPI_Aint)array_of_sizes[i] * (MPI_Aint)array_of_sizes[i+step];
529   MPI_Aint lb = (MPI_Aint)array_of_starts[i] + (MPI_Aint)array_of_starts[i+step] *(MPI_Aint)array_of_sizes[i];
530
531   create_vector( array_of_subsizes[i+step], array_of_subsizes[i], array_of_sizes[i],
532                                oldtype, newtype );
533
534   tmp = *newtype;
535
536   for( i += 2 * step; i != end; i += step ) {
537       create_hvector( array_of_subsizes[i], 1, size * extent,
538                                     tmp, newtype );
539       unref(tmp);
540       lb += size * array_of_starts[i];
541       size *= array_of_sizes[i];
542       tmp = *newtype;
543   }
544
545   MPI_Aint lbs[1] = {lb * extent};
546   int sizes [1]={1};
547   //handle LB and UB with a resized call
548   create_hindexed( 1, sizes, lbs, tmp, newtype);
549   unref(tmp);
550
551   tmp = *newtype;
552   create_resized(tmp, 0, extent, newtype);
553
554   unref(tmp);
555   return MPI_SUCCESS;
556 }
557
558 int Datatype::create_resized(MPI_Datatype oldtype,MPI_Aint lb, MPI_Aint extent, MPI_Datatype *newtype){
559   int blocks[3]         = {1, 1, 1};
560   MPI_Aint disps[3]     = {lb, 0, lb + extent};
561   MPI_Datatype types[3] = {MPI_LB, oldtype, MPI_UB};
562
563   *newtype = new simgrid::smpi::Type_Struct(oldtype->size(), lb, lb + extent, DT_FLAG_DERIVED, 3, blocks, disps, types);
564
565   (*newtype)->addflag(~DT_FLAG_COMMITED);
566   return MPI_SUCCESS;
567 }
568
569 Datatype* Datatype::f2c(int id){
570   return static_cast<Datatype*>(F2C::f2c(id));
571 }
572
573
574 }
575 }
576