Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'master' of scm.gforge.inria.fr:/gitroot/simgrid/simgrid
[simgrid.git] / src / smpi / mpi / smpi_datatype.cpp
1 /* smpi_datatype.cpp -- MPI primitives to handle datatypes                  */
2 /* Copyright (c) 2009-2018. The SimGrid Team.  All rights reserved.         */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "private.hpp"
8 #include "simgrid/modelchecker.h"
9 #include "smpi_datatype_derived.hpp"
10 #include "smpi_op.hpp"
11 #include "src/smpi/include/smpi_actor.hpp"
12
13 #include <string>
14
15 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_datatype, smpi, "Logging specific to SMPI (datatype)");
16
17 static std::unordered_map<std::string, simgrid::smpi::Datatype*> id2type_lookup;
18
19 #define CREATE_MPI_DATATYPE(name, id, type)                                                                            \
20   static simgrid::smpi::Datatype mpi_##name((char*)#name, id, sizeof(type), /* size */                                 \
21                                             0,                              /* lb */                                   \
22                                             sizeof(type),                   /* ub = lb + size */                       \
23                                             DT_FLAG_BASIC                   /* flags */                                \
24                                             );                                                                         \
25   const MPI_Datatype name = &mpi_##name;
26
27 #define CREATE_MPI_DATATYPE_NULL(name, id)                                                                             \
28   static simgrid::smpi::Datatype mpi_##name((char*)#name, id, 0, /* size */                                            \
29                                             0,                   /* lb */                                              \
30                                             0,                   /* ub = lb + size */                                  \
31                                             DT_FLAG_BASIC        /* flags */                                           \
32                                             );                                                                         \
33   const MPI_Datatype name = &mpi_##name;
34
35 // Predefined data types
36 CREATE_MPI_DATATYPE(MPI_CHAR, 2, char);
37 CREATE_MPI_DATATYPE(MPI_SHORT, 3, short);
38 CREATE_MPI_DATATYPE(MPI_INT, 1, int);
39 CREATE_MPI_DATATYPE(MPI_LONG, 4, long);
40 CREATE_MPI_DATATYPE(MPI_LONG_LONG, 7, long long);
41 CREATE_MPI_DATATYPE(MPI_SIGNED_CHAR, 8, signed char);
42 CREATE_MPI_DATATYPE(MPI_UNSIGNED_CHAR, 9, unsigned char);
43 CREATE_MPI_DATATYPE(MPI_UNSIGNED_SHORT, 10, unsigned short);
44 CREATE_MPI_DATATYPE(MPI_UNSIGNED, 11, unsigned int);
45 CREATE_MPI_DATATYPE(MPI_UNSIGNED_LONG, 12, unsigned long);
46 CREATE_MPI_DATATYPE(MPI_UNSIGNED_LONG_LONG, 13, unsigned long long);
47 CREATE_MPI_DATATYPE(MPI_FLOAT, 5, float);
48 CREATE_MPI_DATATYPE(MPI_DOUBLE, 0, double);
49 CREATE_MPI_DATATYPE(MPI_LONG_DOUBLE, 14, long double);
50 CREATE_MPI_DATATYPE(MPI_WCHAR, 15, wchar_t);
51 CREATE_MPI_DATATYPE(MPI_C_BOOL, 16, bool);
52 CREATE_MPI_DATATYPE(MPI_BYTE, 6, int8_t);
53 CREATE_MPI_DATATYPE(MPI_INT8_T, 17, int8_t);
54 CREATE_MPI_DATATYPE(MPI_INT16_T, 18, int16_t);
55 CREATE_MPI_DATATYPE(MPI_INT32_T, 19, int32_t);
56 CREATE_MPI_DATATYPE(MPI_INT64_T, 20, int64_t);
57 CREATE_MPI_DATATYPE(MPI_UINT8_T, 21, uint8_t);
58 CREATE_MPI_DATATYPE(MPI_UINT16_T, 22, uint16_t);
59 CREATE_MPI_DATATYPE(MPI_UINT32_T, 23, uint32_t);
60 CREATE_MPI_DATATYPE(MPI_UINT64_T, 24, uint64_t);
61 CREATE_MPI_DATATYPE(MPI_C_FLOAT_COMPLEX, 25, float _Complex);
62 CREATE_MPI_DATATYPE(MPI_C_DOUBLE_COMPLEX, 26, double _Complex);
63 CREATE_MPI_DATATYPE(MPI_C_LONG_DOUBLE_COMPLEX, 27, long double _Complex);
64 CREATE_MPI_DATATYPE(MPI_AINT, 28, MPI_Aint);
65 CREATE_MPI_DATATYPE(MPI_OFFSET, 29, MPI_Offset);
66
67 CREATE_MPI_DATATYPE(MPI_FLOAT_INT, 30, float_int);
68 CREATE_MPI_DATATYPE(MPI_LONG_INT, 31, long_int);
69 CREATE_MPI_DATATYPE(MPI_DOUBLE_INT, 32, double_int);
70 CREATE_MPI_DATATYPE(MPI_SHORT_INT, 33, short_int);
71 CREATE_MPI_DATATYPE(MPI_2INT, 34, int_int);
72 CREATE_MPI_DATATYPE(MPI_2FLOAT, 35, float_float);
73 CREATE_MPI_DATATYPE(MPI_2DOUBLE, 36, double_double);
74 CREATE_MPI_DATATYPE(MPI_2LONG, 37, long_long);
75
76 CREATE_MPI_DATATYPE(MPI_REAL, 38, float);
77 CREATE_MPI_DATATYPE(MPI_REAL4, 39, float);
78 CREATE_MPI_DATATYPE(MPI_REAL8, 40, double);
79 CREATE_MPI_DATATYPE(MPI_REAL16, 41, long double);
80 CREATE_MPI_DATATYPE_NULL(MPI_DATATYPE_NULL, -1);
81 CREATE_MPI_DATATYPE_NULL(MPI_COMPLEX8, 42);
82 CREATE_MPI_DATATYPE_NULL(MPI_COMPLEX16, 43);
83 CREATE_MPI_DATATYPE_NULL(MPI_COMPLEX32, 44);
84 CREATE_MPI_DATATYPE(MPI_INTEGER1, 45, int);
85 CREATE_MPI_DATATYPE(MPI_INTEGER2, 46, int16_t);
86 CREATE_MPI_DATATYPE(MPI_INTEGER4, 47, int32_t);
87 CREATE_MPI_DATATYPE(MPI_INTEGER8, 48, int64_t);
88 CREATE_MPI_DATATYPE(MPI_INTEGER16, 49, integer128_t);
89
90 CREATE_MPI_DATATYPE(MPI_LONG_DOUBLE_INT, 50, long_double_int);
91
92 CREATE_MPI_DATATYPE_NULL(MPI_UB, 51);
93 CREATE_MPI_DATATYPE_NULL(MPI_LB, 52);
94 CREATE_MPI_DATATYPE(MPI_PACKED, 53, char);
95 // Internal use only
96 CREATE_MPI_DATATYPE(MPI_PTR, 54, void*);
97
98 namespace simgrid{
99 namespace smpi{
100
101 std::unordered_map<int, smpi_key_elem> Datatype::keyvals_; // required by the Keyval class implementation
102 int Datatype::keyval_id_=0; // required by the Keyval class implementation
103 Datatype::Datatype(int ident, int size, MPI_Aint lb, MPI_Aint ub, int flags) : Datatype(size, lb, ub, flags)
104 {
105   id = std::to_string(ident);
106 }
107 Datatype::Datatype(int size,MPI_Aint lb, MPI_Aint ub, int flags) : name_(nullptr), size_(size), lb_(lb), ub_(ub), flags_(flags), refcount_(1){
108 #if SIMGRID_HAVE_MC
109   if(MC_is_active())
110     MC_ignore(&(refcount_), sizeof(refcount_));
111 #endif
112 }
113
114 //for predefined types, so in_use = 0.
115 Datatype::Datatype(char* name, int ident, int size, MPI_Aint lb, MPI_Aint ub, int flags)
116     : name_(name), id(std::to_string(ident)), size_(size), lb_(lb), ub_(ub), flags_(flags), refcount_(0)
117 {
118   id2type_lookup.insert({id, this});
119 #if SIMGRID_HAVE_MC
120   if(MC_is_active())
121     MC_ignore(&(refcount_), sizeof(refcount_));
122 #endif
123 }
124
125 Datatype::Datatype(Datatype *datatype, int* ret) : name_(nullptr), lb_(datatype->lb_), ub_(datatype->ub_), flags_(datatype->flags_), refcount_(1)
126 {
127   flags_ &= ~DT_FLAG_PREDEFINED;
128   *ret = MPI_SUCCESS;
129   if(datatype->name_)
130     name_ = xbt_strdup(datatype->name_);
131     
132   if (not datatype->attributes()->empty()) {
133     int flag=0;
134     void* value_out;
135     for (auto const& it : *(datatype->attributes())) {
136       smpi_key_elem elem = keyvals_.at(it.first);
137       if (elem != nullptr){
138         if( elem->copy_fn.type_copy_fn != MPI_NULL_COPY_FN && 
139             elem->copy_fn.type_copy_fn != MPI_TYPE_DUP_FN)
140           *ret = elem->copy_fn.type_copy_fn(datatype, it.first, elem->extra_state, it.second, &value_out, &flag);
141         else if ( elem->copy_fn.type_copy_fn_fort != MPI_NULL_COPY_FN &&
142                   (*(int*)*elem->copy_fn.type_copy_fn_fort) != 1){
143           value_out=(int*)xbt_malloc(sizeof(int));
144           elem->copy_fn.type_copy_fn_fort(datatype, it.first, elem->extra_state, it.second, value_out, &flag,ret);
145         }
146         if (*ret != MPI_SUCCESS) {
147           break;
148         }
149         if(elem->copy_fn.type_copy_fn == MPI_TYPE_DUP_FN || 
150           ((elem->copy_fn.type_copy_fn_fort != MPI_NULL_COPY_FN) && (*(int*)*elem->copy_fn.type_copy_fn_fort == 1))){
151           elem->refcount++;
152           attributes()->insert({it.first, it.second});
153         } else if (flag){
154           elem->refcount++;
155           attributes()->insert({it.first, value_out});
156         }
157       }
158     }
159   }
160 }
161
162 Datatype::~Datatype(){
163   xbt_assert(refcount_ >= 0);
164
165   if(flags_ & DT_FLAG_PREDEFINED)
166     return;
167
168   //if still used, mark for deletion
169   if(refcount_!=0){
170       flags_ |=DT_FLAG_DESTROYED;
171       return;
172   }
173
174   cleanup_attr<Datatype>();
175
176   xbt_free(name_);
177 }
178
179
180 void Datatype::ref(){
181
182   refcount_++;
183
184 #if SIMGRID_HAVE_MC
185   if(MC_is_active())
186     MC_ignore(&(refcount_), sizeof(refcount_));
187 #endif
188 }
189
190 void Datatype::unref(MPI_Datatype datatype)
191 {
192   if (datatype->refcount_ > 0)
193     datatype->refcount_--;
194
195   if (datatype->refcount_ == 0 && not(datatype->flags_ & DT_FLAG_PREDEFINED))
196     delete datatype;
197
198 #if SIMGRID_HAVE_MC
199   if(MC_is_active())
200     MC_ignore(&(datatype->refcount_), sizeof(datatype->refcount_));
201 #endif
202 }
203
204 void Datatype::commit()
205 {
206   flags_ |= DT_FLAG_COMMITED;
207 }
208
209 bool Datatype::is_valid(){
210   return (flags_ & DT_FLAG_COMMITED);
211 }
212
213 bool Datatype::is_basic()
214 {
215   return (flags_ & DT_FLAG_BASIC);
216 }
217
218 const char* Datatype::encode(MPI_Datatype dt)
219 {
220   return dt->id.c_str();
221 }
222
223 MPI_Datatype Datatype::decode(std::string datatype_id)
224 {
225   return id2type_lookup.find(datatype_id)->second;
226 }
227
228 bool Datatype::is_replayable()
229 {
230   return ((this==MPI_BYTE)||(this==MPI_DOUBLE)||(this==MPI_INT)||
231           (this==MPI_CHAR)||(this==MPI_SHORT)||(this==MPI_LONG)||(this==MPI_FLOAT));
232 }
233
234 size_t Datatype::size(){
235   return size_;
236 }
237
238 int Datatype::flags(){
239   return flags_;
240 }
241
242 int Datatype::refcount(){
243   return refcount_;
244 }
245
246 void Datatype::addflag(int flag){
247   flags_ &= flag;
248 }
249
250 MPI_Aint Datatype::lb(){
251   return lb_;
252 }
253
254 MPI_Aint Datatype::ub(){
255   return ub_;
256 }
257
258 char* Datatype::name(){
259   return name_;
260 }
261
262
263 int Datatype::extent(MPI_Aint * lb, MPI_Aint * extent){
264   *lb = lb_;
265   *extent = ub_ - lb_;
266   return MPI_SUCCESS;
267 }
268
269 MPI_Aint Datatype::get_extent(){
270   return ub_ - lb_;
271 }
272
273 void Datatype::get_name(char* name, int* length){
274   *length = strlen(name_);
275   strncpy(name, name_, *length+1);
276 }
277
278 void Datatype::set_name(char* name){
279   if(name_!=nullptr &&  (flags_ & DT_FLAG_PREDEFINED) == 0)
280     xbt_free(name_);
281   name_ = xbt_strdup(name);
282 }
283
284 int Datatype::pack(void* inbuf, int incount, void* outbuf, int outcount, int* position,MPI_Comm comm){
285   if (outcount - *position < incount*static_cast<int>(size_))
286     return MPI_ERR_BUFFER;
287   Datatype::copy(inbuf, incount, this, static_cast<char*>(outbuf) + *position, outcount, MPI_CHAR);
288   *position += incount * size_;
289   return MPI_SUCCESS;
290 }
291
292 int Datatype::unpack(void* inbuf, int insize, int* position, void* outbuf, int outcount,MPI_Comm comm){
293   if (outcount*static_cast<int>(size_)> insize)
294     return MPI_ERR_BUFFER;
295   Datatype::copy(static_cast<char*>(inbuf) + *position, insize, MPI_CHAR, outbuf, outcount, this);
296   *position += outcount * size_;
297   return MPI_SUCCESS;
298 }
299
300
301 int Datatype::copy(void *sendbuf, int sendcount, MPI_Datatype sendtype,
302                        void *recvbuf, int recvcount, MPI_Datatype recvtype){
303
304 // FIXME Handle the case of a partial shared malloc.
305
306   if (smpi_privatize_global_variables == SmpiPrivStrategies::MMAP) {
307     smpi_switch_data_segment(simgrid::s4u::Actor::self());
308   }
309   /* First check if we really have something to do */
310   if (recvcount > 0 && recvbuf != sendbuf) {
311     sendcount *= sendtype->size();
312     recvcount *= recvtype->size();
313     int count = sendcount < recvcount ? sendcount : recvcount;
314
315     if (not(sendtype->flags() & DT_FLAG_DERIVED) && not(recvtype->flags() & DT_FLAG_DERIVED)) {
316       if (not smpi_process()->replaying())
317         memcpy(recvbuf, sendbuf, count);
318     } else if (not(sendtype->flags() & DT_FLAG_DERIVED)) {
319       recvtype->unserialize(sendbuf, recvbuf, count / recvtype->size(), MPI_REPLACE);
320     } else if (not(recvtype->flags() & DT_FLAG_DERIVED)) {
321       sendtype->serialize(sendbuf, recvbuf, count / sendtype->size());
322     }else{
323
324       void * buf_tmp = xbt_malloc(count);
325
326       sendtype->serialize( sendbuf, buf_tmp,count/sendtype->size());
327       recvtype->unserialize( buf_tmp, recvbuf,count/recvtype->size(), MPI_REPLACE);
328
329       xbt_free(buf_tmp);
330     }
331   }
332
333   return sendcount > recvcount ? MPI_ERR_TRUNCATE : MPI_SUCCESS;
334 }
335
336 //Default serialization method : memcpy.
337 void Datatype::serialize( void* noncontiguous_buf, void *contiguous_buf, int count){
338   char* contiguous_buf_char = static_cast<char*>(contiguous_buf);
339   char* noncontiguous_buf_char = static_cast<char*>(noncontiguous_buf)+lb_;
340   memcpy(contiguous_buf_char, noncontiguous_buf_char, count*size_);
341
342 }
343
344 void Datatype::unserialize( void* contiguous_buf, void *noncontiguous_buf, int count, MPI_Op op){
345   char* contiguous_buf_char = static_cast<char*>(contiguous_buf);
346   char* noncontiguous_buf_char = static_cast<char*>(noncontiguous_buf)+lb_;
347   int n=count;
348   if(op!=MPI_OP_NULL)
349     op->apply( contiguous_buf_char, noncontiguous_buf_char, &n, this);
350 }
351
352 int Datatype::create_contiguous(int count, MPI_Datatype old_type, MPI_Aint lb, MPI_Datatype* new_type){
353   if(old_type->flags_ & DT_FLAG_DERIVED){
354     //handle this case as a hvector with stride equals to the extent of the datatype
355     return create_hvector(count, 1, old_type->get_extent(), old_type, new_type);
356   }
357   if(count>0)
358     *new_type = new Type_Contiguous(count * old_type->size(), lb, lb + count * old_type->size(),
359                                    DT_FLAG_DERIVED, count, old_type);
360   else
361     *new_type = new Datatype(count * old_type->size(), lb, lb + count * old_type->size(),0);
362   return MPI_SUCCESS;
363 }
364
365 int Datatype::create_vector(int count, int block_length, int stride, MPI_Datatype old_type, MPI_Datatype* new_type)
366 {
367   int retval;
368   if (block_length<0)
369     return MPI_ERR_ARG;
370   MPI_Aint lb = 0;
371   MPI_Aint ub = 0;
372   if(count>0){
373     lb=old_type->lb();
374     ub=((count-1)*stride+block_length-1)*old_type->get_extent()+old_type->ub();
375   }
376   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length){
377     *new_type = new Type_Vector(count * (block_length) * old_type->size(), lb, ub,
378                                    DT_FLAG_DERIVED, count, block_length, stride, old_type);
379     retval=MPI_SUCCESS;
380   }else{
381     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
382     *new_type = new Datatype(count * block_length * old_type->size(), 0, ((count -1) * stride + block_length)*
383                          old_type->size(), DT_FLAG_CONTIGUOUS);
384     retval=MPI_SUCCESS;
385   }
386   return retval;
387 }
388
389
390 int Datatype::create_hvector(int count, int block_length, MPI_Aint stride, MPI_Datatype old_type, MPI_Datatype* new_type)
391 {
392   int retval;
393   if (block_length<0)
394     return MPI_ERR_ARG;
395   MPI_Aint lb = 0;
396   MPI_Aint ub = 0;
397   if(count>0){
398     lb=old_type->lb();
399     ub=((count-1)*stride)+(block_length-1)*old_type->get_extent()+old_type->ub();
400   }
401   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length*old_type->get_extent()){
402     *new_type = new Type_Hvector(count * (block_length) * old_type->size(), lb, ub,
403                                    DT_FLAG_DERIVED, count, block_length, stride, old_type);
404     retval=MPI_SUCCESS;
405   }else{
406     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
407     *new_type = new Datatype(count * block_length * old_type->size(), 0, count * block_length * old_type->size(), DT_FLAG_CONTIGUOUS);
408     retval=MPI_SUCCESS;
409   }
410   return retval;
411 }
412
413 int Datatype::create_indexed(int count, int* block_lengths, int* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
414   int size = 0;
415   bool contiguous=true;
416   MPI_Aint lb = 0;
417   MPI_Aint ub = 0;
418   if(count>0){
419     lb=indices[0]*old_type->get_extent();
420     ub=indices[0]*old_type->get_extent() + block_lengths[0]*old_type->ub();
421   }
422
423   for (int i = 0; i < count; i++) {
424     if (block_lengths[i] < 0)
425       return MPI_ERR_ARG;
426     size += block_lengths[i];
427
428     if(indices[i]*old_type->get_extent()+old_type->lb()<lb)
429       lb = indices[i]*old_type->get_extent()+old_type->lb();
430     if(indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub()>ub)
431       ub = indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub();
432
433     if ( (i< count -1) && (indices[i]+block_lengths[i] != indices[i+1]) )
434       contiguous=false;
435   }
436   if(old_type->flags_ & DT_FLAG_DERIVED)
437     contiguous=false;
438
439   if (not contiguous) {
440     *new_type = new Type_Indexed(size * old_type->size(),lb,ub,
441                                  DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
442   }else{
443     Datatype::create_contiguous(size, old_type, lb, new_type);
444   }
445   return MPI_SUCCESS;
446 }
447
448 int Datatype::create_hindexed(int count, int* block_lengths, MPI_Aint* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
449   int size = 0;
450   bool contiguous=true;
451   MPI_Aint lb = 0;
452   MPI_Aint ub = 0;
453   if(count>0){
454     lb=indices[0] + old_type->lb();
455     ub=indices[0] + block_lengths[0]*old_type->ub();
456   }
457   for (int i = 0; i < count; i++) {
458     if (block_lengths[i] < 0)
459       return MPI_ERR_ARG;
460     size += block_lengths[i];
461
462     if(indices[i]+old_type->lb()<lb)
463       lb = indices[i]+old_type->lb();
464     if(indices[i]+block_lengths[i]*old_type->ub()>ub)
465       ub = indices[i]+block_lengths[i]*old_type->ub();
466
467     if ( (i< count -1) && (indices[i]+block_lengths[i]*(static_cast<int>(old_type->size())) != indices[i+1]) )
468       contiguous=false;
469   }
470   if (old_type->flags_ & DT_FLAG_DERIVED || lb!=0)
471     contiguous=false;
472
473   if (not contiguous) {
474     *new_type = new Type_Hindexed(size * old_type->size(),lb,ub,
475                                    DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
476   }else{
477     Datatype::create_contiguous(size, old_type, lb, new_type);
478   }
479   return MPI_SUCCESS;
480 }
481
482 int Datatype::create_struct(int count, int* block_lengths, MPI_Aint* indices, MPI_Datatype* old_types, MPI_Datatype* new_type){
483   size_t size = 0;
484   bool contiguous=true;
485   size = 0;
486   MPI_Aint lb = 0;
487   MPI_Aint ub = 0;
488   if(count>0){
489     lb=indices[0] + old_types[0]->lb();
490     ub=indices[0] + block_lengths[0]*old_types[0]->ub();
491   }
492   bool forced_lb=false;
493   bool forced_ub=false;
494   for (int i = 0; i < count; i++) {
495     if (block_lengths[i]<0)
496       return MPI_ERR_ARG;
497     if (old_types[i]->flags_ & DT_FLAG_DERIVED)
498       contiguous=false;
499
500     size += block_lengths[i]*old_types[i]->size();
501     if (old_types[i]==MPI_LB){
502       lb=indices[i];
503       forced_lb=true;
504     }
505     if (old_types[i]==MPI_UB){
506       ub=indices[i];
507       forced_ub=true;
508     }
509
510     if (not forced_lb && indices[i] + old_types[i]->lb() < lb)
511       lb = indices[i];
512     if (not forced_ub && indices[i] + block_lengths[i] * old_types[i]->ub() > ub)
513       ub = indices[i]+block_lengths[i]*old_types[i]->ub();
514
515     if ( (i< count -1) && (indices[i]+block_lengths[i]*static_cast<int>(old_types[i]->size()) != indices[i+1]) )
516       contiguous=false;
517   }
518   if (not contiguous) {
519     *new_type = new Type_Struct(size, lb,ub, DT_FLAG_DERIVED|DT_FLAG_DATA,
520                                 count, block_lengths, indices, old_types);
521   }else{
522     Datatype::create_contiguous(size, MPI_CHAR, lb, new_type);
523   }
524   return MPI_SUCCESS;
525 }
526
527 int Datatype::create_subarray(int ndims, int* array_of_sizes,
528                              int* array_of_subsizes, int* array_of_starts,
529                              int order, MPI_Datatype oldtype, MPI_Datatype *newtype){
530   MPI_Datatype tmp;
531
532   for (int i = 0; i < ndims; i++) {
533     if (array_of_subsizes[i] > array_of_sizes[i]){
534       XBT_WARN("subarray : array_of_subsizes > array_of_sizes for dim %d",i);
535       return MPI_ERR_ARG;
536     }
537     if (array_of_starts[i] + array_of_subsizes[i] > array_of_sizes[i]){
538       XBT_WARN("subarray : array_of_starts + array_of_subsizes > array_of_sizes for dim %d",i);
539       return MPI_ERR_ARG;
540     }
541   }
542
543   MPI_Aint extent = oldtype->get_extent();
544
545   int i;
546   int step;
547   int end;
548   if( order==MPI_ORDER_C ) {
549       i = ndims - 1;
550       step = -1;
551       end = -1;
552   } else {
553       i = 0;
554       step = 1;
555       end = ndims;
556   }
557
558   MPI_Aint size = (MPI_Aint)array_of_sizes[i] * (MPI_Aint)array_of_sizes[i+step];
559   MPI_Aint lb = (MPI_Aint)array_of_starts[i] + (MPI_Aint)array_of_starts[i+step] *(MPI_Aint)array_of_sizes[i];
560
561   create_vector( array_of_subsizes[i+step], array_of_subsizes[i], array_of_sizes[i],
562                                oldtype, newtype );
563
564   tmp = *newtype;
565
566   for( i += 2 * step; i != end; i += step ) {
567       create_hvector( array_of_subsizes[i], 1, size * extent,
568                                     tmp, newtype );
569       unref(tmp);
570       lb += size * array_of_starts[i];
571       size *= array_of_sizes[i];
572       tmp = *newtype;
573   }
574
575   MPI_Aint lbs[1] = {lb * extent};
576   int sizes [1]={1};
577   //handle LB and UB with a resized call
578   create_hindexed( 1, sizes, lbs, tmp, newtype);
579   unref(tmp);
580
581   tmp = *newtype;
582   create_resized(tmp, 0, extent, newtype);
583
584   unref(tmp);
585   return MPI_SUCCESS;
586 }
587
588 int Datatype::create_resized(MPI_Datatype oldtype,MPI_Aint lb, MPI_Aint extent, MPI_Datatype *newtype){
589   int blocks[3]         = {1, 1, 1};
590   MPI_Aint disps[3]     = {lb, 0, lb + extent};
591   MPI_Datatype types[3] = {MPI_LB, oldtype, MPI_UB};
592
593   *newtype = new simgrid::smpi::Type_Struct(oldtype->size(), lb, lb + extent, DT_FLAG_DERIVED, 3, blocks, disps, types);
594
595   (*newtype)->addflag(~DT_FLAG_COMMITED);
596   return MPI_SUCCESS;
597 }
598
599 Datatype* Datatype::f2c(int id){
600   return static_cast<Datatype*>(F2C::f2c(id));
601 }
602
603
604 }
605 }
606