Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
move resized to its own method
[simgrid.git] / src / smpi / mpi / smpi_datatype.cpp
1 /* smpi_datatype.cpp -- MPI primitives to handle datatypes                  */
2 /* Copyright (c) 2009-2017. The SimGrid Team.  All rights reserved.         */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "simgrid/modelchecker.h"
8 #include "private.hpp"
9 #include "smpi_datatype_derived.hpp"
10 #include "smpi_op.hpp"
11 #include "smpi_process.hpp"
12
13 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_datatype, smpi, "Logging specific to SMPI (datatype)");
14
15 #define CREATE_MPI_DATATYPE(name, type)               \
16   static simgrid::smpi::Datatype mpi_##name (         \
17     (char*) # name,                                   \
18     sizeof(type),   /* size */                        \
19     0,              /* lb */                          \
20     sizeof(type),   /* ub = lb + size */              \
21     DT_FLAG_BASIC  /* flags */                        \
22   );                                                  \
23 const MPI_Datatype name = &mpi_##name;
24
25 #define CREATE_MPI_DATATYPE_NULL(name)                \
26   static simgrid::smpi::Datatype mpi_##name (         \
27     (char*) # name,                                   \
28     0,              /* size */                        \
29     0,              /* lb */                          \
30     0,              /* ub = lb + size */              \
31     DT_FLAG_BASIC  /* flags */                       \
32   );                                                  \
33 const MPI_Datatype name = &mpi_##name;
34
35 // Predefined data types
36 CREATE_MPI_DATATYPE(MPI_CHAR, char);
37 CREATE_MPI_DATATYPE(MPI_SHORT, short);
38 CREATE_MPI_DATATYPE(MPI_INT, int);
39 CREATE_MPI_DATATYPE(MPI_LONG, long);
40 CREATE_MPI_DATATYPE(MPI_LONG_LONG, long long);
41 CREATE_MPI_DATATYPE(MPI_SIGNED_CHAR, signed char);
42 CREATE_MPI_DATATYPE(MPI_UNSIGNED_CHAR, unsigned char);
43 CREATE_MPI_DATATYPE(MPI_UNSIGNED_SHORT, unsigned short);
44 CREATE_MPI_DATATYPE(MPI_UNSIGNED, unsigned int);
45 CREATE_MPI_DATATYPE(MPI_UNSIGNED_LONG, unsigned long);
46 CREATE_MPI_DATATYPE(MPI_UNSIGNED_LONG_LONG, unsigned long long);
47 CREATE_MPI_DATATYPE(MPI_FLOAT, float);
48 CREATE_MPI_DATATYPE(MPI_DOUBLE, double);
49 CREATE_MPI_DATATYPE(MPI_LONG_DOUBLE, long double);
50 CREATE_MPI_DATATYPE(MPI_WCHAR, wchar_t);
51 CREATE_MPI_DATATYPE(MPI_C_BOOL, bool);
52 CREATE_MPI_DATATYPE(MPI_BYTE, int8_t);
53 CREATE_MPI_DATATYPE(MPI_INT8_T, int8_t);
54 CREATE_MPI_DATATYPE(MPI_INT16_T, int16_t);
55 CREATE_MPI_DATATYPE(MPI_INT32_T, int32_t);
56 CREATE_MPI_DATATYPE(MPI_INT64_T, int64_t);
57 CREATE_MPI_DATATYPE(MPI_UINT8_T, uint8_t);
58 CREATE_MPI_DATATYPE(MPI_UINT16_T, uint16_t);
59 CREATE_MPI_DATATYPE(MPI_UINT32_T, uint32_t);
60 CREATE_MPI_DATATYPE(MPI_UINT64_T, uint64_t);
61 CREATE_MPI_DATATYPE(MPI_C_FLOAT_COMPLEX, float _Complex);
62 CREATE_MPI_DATATYPE(MPI_C_DOUBLE_COMPLEX, double _Complex);
63 CREATE_MPI_DATATYPE(MPI_C_LONG_DOUBLE_COMPLEX, long double _Complex);
64 CREATE_MPI_DATATYPE(MPI_AINT, MPI_Aint);
65 CREATE_MPI_DATATYPE(MPI_OFFSET, MPI_Offset);
66
67 CREATE_MPI_DATATYPE(MPI_FLOAT_INT, float_int);
68 CREATE_MPI_DATATYPE(MPI_LONG_INT, long_int);
69 CREATE_MPI_DATATYPE(MPI_DOUBLE_INT, double_int);
70 CREATE_MPI_DATATYPE(MPI_SHORT_INT, short_int);
71 CREATE_MPI_DATATYPE(MPI_2INT, int_int);
72 CREATE_MPI_DATATYPE(MPI_2FLOAT, float_float);
73 CREATE_MPI_DATATYPE(MPI_2DOUBLE, double_double);
74 CREATE_MPI_DATATYPE(MPI_2LONG, long_long);
75
76 CREATE_MPI_DATATYPE(MPI_REAL, float);
77 CREATE_MPI_DATATYPE(MPI_REAL4, float);
78 CREATE_MPI_DATATYPE(MPI_REAL8, float);
79 CREATE_MPI_DATATYPE(MPI_REAL16, double);
80 CREATE_MPI_DATATYPE_NULL(MPI_COMPLEX8);
81 CREATE_MPI_DATATYPE_NULL(MPI_COMPLEX16);
82 CREATE_MPI_DATATYPE_NULL(MPI_COMPLEX32);
83 CREATE_MPI_DATATYPE(MPI_INTEGER1, int);
84 CREATE_MPI_DATATYPE(MPI_INTEGER2, int16_t);
85 CREATE_MPI_DATATYPE(MPI_INTEGER4, int32_t);
86 CREATE_MPI_DATATYPE(MPI_INTEGER8, int64_t);
87 CREATE_MPI_DATATYPE(MPI_INTEGER16, integer128_t);
88
89 CREATE_MPI_DATATYPE(MPI_LONG_DOUBLE_INT, long_double_int);
90
91 CREATE_MPI_DATATYPE_NULL(MPI_UB);
92 CREATE_MPI_DATATYPE_NULL(MPI_LB);
93 CREATE_MPI_DATATYPE(MPI_PACKED, char);
94 // Internal use only
95 CREATE_MPI_DATATYPE(MPI_PTR, void*);
96
97 namespace simgrid{
98 namespace smpi{
99
100 std::unordered_map<int, smpi_key_elem> Datatype::keyvals_;
101 int Datatype::keyval_id_=0;
102
103 Datatype::Datatype(int size,MPI_Aint lb, MPI_Aint ub, int flags) : name_(nullptr), size_(size), lb_(lb), ub_(ub), flags_(flags), refcount_(1){
104 #if SIMGRID_HAVE_MC
105   if(MC_is_active())
106     MC_ignore(&(refcount_), sizeof(refcount_));
107 #endif
108 }
109
110 //for predefined types, so in_use = 0.
111 Datatype::Datatype(char* name, int size,MPI_Aint lb, MPI_Aint ub, int flags) : name_(name), size_(size), lb_(lb), ub_(ub), flags_(flags), refcount_(0){
112 #if SIMGRID_HAVE_MC
113   if(MC_is_active())
114     MC_ignore(&(refcount_), sizeof(refcount_));
115 #endif
116 }
117
118 Datatype::Datatype(Datatype *datatype, int* ret) : name_(nullptr), lb_(datatype->lb_), ub_(datatype->ub_), flags_(datatype->flags_), refcount_(1)
119 {
120   flags_ &= ~DT_FLAG_PREDEFINED;
121   *ret = MPI_SUCCESS;
122   if(datatype->name_)
123     name_ = xbt_strdup(datatype->name_);
124
125   if (not datatype->attributes()->empty()) {
126     int flag;
127     void* value_out;
128     for(auto it = datatype->attributes()->begin(); it != datatype->attributes()->end(); it++){
129       smpi_key_elem elem = keyvals_.at((*it).first);
130
131       if (elem != nullptr && elem->copy_fn.type_copy_fn != MPI_NULL_COPY_FN) {
132         *ret = elem->copy_fn.type_copy_fn(datatype, (*it).first, nullptr, (*it).second, &value_out, &flag);
133         if (*ret != MPI_SUCCESS) {
134           break;
135         }
136         if (flag){
137           elem->refcount++;
138           attributes()->insert({(*it).first, value_out});
139         }
140       }
141     }
142   }
143 }
144
145 Datatype::~Datatype(){
146   xbt_assert(refcount_ >= 0);
147
148   if(flags_ & DT_FLAG_PREDEFINED)
149     return;
150
151   //if still used, mark for deletion
152   if(refcount_!=0){
153       flags_ |=DT_FLAG_DESTROYED;
154       return;
155   }
156
157   cleanup_attr<Datatype>();
158
159   xbt_free(name_);
160 }
161
162
163 void Datatype::ref(){
164
165   refcount_++;
166
167 #if SIMGRID_HAVE_MC
168   if(MC_is_active())
169     MC_ignore(&(refcount_), sizeof(refcount_));
170 #endif
171 }
172
173 void Datatype::unref(MPI_Datatype datatype)
174 {
175   if (datatype->refcount_ > 0)
176     datatype->refcount_--;
177
178   if (datatype->refcount_ == 0 && not(datatype->flags_ & DT_FLAG_PREDEFINED))
179     delete datatype;
180
181 #if SIMGRID_HAVE_MC
182   if(MC_is_active())
183     MC_ignore(&(datatype->refcount_), sizeof(datatype->refcount_));
184 #endif
185 }
186
187 void Datatype::commit()
188 {
189   flags_ |= DT_FLAG_COMMITED;
190 }
191
192 bool Datatype::is_valid(){
193   return (flags_ & DT_FLAG_COMMITED);
194 }
195
196 bool Datatype::is_basic()
197 {
198   return (flags_ & DT_FLAG_BASIC);
199 }
200
201 bool Datatype::is_replayable()
202 {
203   return ((this==MPI_BYTE)||(this==MPI_DOUBLE)||(this==MPI_INT)||
204           (this==MPI_CHAR)||(this==MPI_SHORT)||(this==MPI_LONG)||(this==MPI_FLOAT));
205 }
206
207 size_t Datatype::size(){
208   return size_;
209 }
210
211 int Datatype::flags(){
212   return flags_;
213 }
214
215 int Datatype::refcount(){
216   return refcount_;
217 }
218
219 void Datatype::addflag(int flag){
220   flags_ &= flag;
221 }
222
223 MPI_Aint Datatype::lb(){
224   return lb_;
225 }
226
227 MPI_Aint Datatype::ub(){
228   return ub_;
229 }
230
231 char* Datatype::name(){
232   return name_;
233 }
234
235
236 int Datatype::extent(MPI_Aint * lb, MPI_Aint * extent){
237   *lb = lb_;
238   *extent = ub_ - lb_;
239   return MPI_SUCCESS;
240 }
241
242 MPI_Aint Datatype::get_extent(){
243   return ub_ - lb_;
244 }
245
246 void Datatype::get_name(char* name, int* length){
247   *length = strlen(name_);
248   strncpy(name, name_, *length+1);
249 }
250
251 void Datatype::set_name(char* name){
252   if(name_!=nullptr &&  (flags_ & DT_FLAG_PREDEFINED) == 0)
253     xbt_free(name_);
254   name_ = xbt_strdup(name);
255 }
256
257 int Datatype::pack(void* inbuf, int incount, void* outbuf, int outcount, int* position,MPI_Comm comm){
258   if (outcount - *position < incount*static_cast<int>(size_))
259     return MPI_ERR_BUFFER;
260   Datatype::copy(inbuf, incount, this, static_cast<char*>(outbuf) + *position, outcount, MPI_CHAR);
261   *position += incount * size_;
262   return MPI_SUCCESS;
263 }
264
265 int Datatype::unpack(void* inbuf, int insize, int* position, void* outbuf, int outcount,MPI_Comm comm){
266   if (outcount*static_cast<int>(size_)> insize)
267     return MPI_ERR_BUFFER;
268   Datatype::copy(static_cast<char*>(inbuf) + *position, insize, MPI_CHAR, outbuf, outcount, this);
269   *position += outcount * size_;
270   return MPI_SUCCESS;
271 }
272
273
274 int Datatype::copy(void *sendbuf, int sendcount, MPI_Datatype sendtype,
275                        void *recvbuf, int recvcount, MPI_Datatype recvtype){
276
277 // FIXME Handle the case of a partial shared malloc.
278
279   if(smpi_privatize_global_variables == SMPI_PRIVATIZE_MMAP){
280     smpi_switch_data_segment(simgrid::s4u::Actor::self()->getPid());
281   }
282   /* First check if we really have something to do */
283   if (recvcount > 0 && recvbuf != sendbuf) {
284     sendcount *= sendtype->size();
285     recvcount *= recvtype->size();
286     int count = sendcount < recvcount ? sendcount : recvcount;
287
288     if (not(sendtype->flags() & DT_FLAG_DERIVED) && not(recvtype->flags() & DT_FLAG_DERIVED)) {
289       if (not smpi_process()->replaying())
290         memcpy(recvbuf, sendbuf, count);
291     } else if (not(sendtype->flags() & DT_FLAG_DERIVED)) {
292       recvtype->unserialize(sendbuf, recvbuf, count / recvtype->size(), MPI_REPLACE);
293     } else if (not(recvtype->flags() & DT_FLAG_DERIVED)) {
294       sendtype->serialize(sendbuf, recvbuf, count / sendtype->size());
295     }else{
296
297       void * buf_tmp = xbt_malloc(count);
298
299       sendtype->serialize( sendbuf, buf_tmp,count/sendtype->size());
300       recvtype->unserialize( buf_tmp, recvbuf,count/recvtype->size(), MPI_REPLACE);
301
302       xbt_free(buf_tmp);
303     }
304   }
305
306   return sendcount > recvcount ? MPI_ERR_TRUNCATE : MPI_SUCCESS;
307 }
308
309 //Default serialization method : memcpy.
310 void Datatype::serialize( void* noncontiguous_buf, void *contiguous_buf, int count){
311   char* contiguous_buf_char = static_cast<char*>(contiguous_buf);
312   char* noncontiguous_buf_char = static_cast<char*>(noncontiguous_buf)+lb_;
313   memcpy(contiguous_buf_char, noncontiguous_buf_char, count*size_);
314
315 }
316
317 void Datatype::unserialize( void* contiguous_buf, void *noncontiguous_buf, int count, MPI_Op op){
318   char* contiguous_buf_char = static_cast<char*>(contiguous_buf);
319   char* noncontiguous_buf_char = static_cast<char*>(noncontiguous_buf)+lb_;
320   int n=count;
321   if(op!=MPI_OP_NULL)
322     op->apply( contiguous_buf_char, noncontiguous_buf_char, &n, this);
323 }
324
325 int Datatype::create_contiguous(int count, MPI_Datatype old_type, MPI_Aint lb, MPI_Datatype* new_type){
326   if(old_type->flags_ & DT_FLAG_DERIVED){
327     //handle this case as a hvector with stride equals to the extent of the datatype
328     return create_hvector(count, 1, old_type->get_extent(), old_type, new_type);
329   }
330   if(count>0)
331     *new_type = new Type_Contiguous(count * old_type->size(), lb, lb + count * old_type->size(),
332                                    DT_FLAG_DERIVED, count, old_type);
333   else
334     *new_type = new Datatype(count * old_type->size(), lb, lb + count * old_type->size(),0);
335   return MPI_SUCCESS;
336 }
337
338 int Datatype::create_vector(int count, int block_length, int stride, MPI_Datatype old_type, MPI_Datatype* new_type)
339 {
340   int retval;
341   if (block_length<0)
342     return MPI_ERR_ARG;
343   MPI_Aint lb = 0;
344   MPI_Aint ub = 0;
345   if(count>0){
346     lb=old_type->lb();
347     ub=((count-1)*stride+block_length-1)*old_type->get_extent()+old_type->ub();
348   }
349   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length){
350     *new_type = new Type_Vector(count * (block_length) * old_type->size(), lb, ub,
351                                    DT_FLAG_DERIVED, count, block_length, stride, old_type);
352     retval=MPI_SUCCESS;
353   }else{
354     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
355     *new_type = new Datatype(count * block_length * old_type->size(), 0, ((count -1) * stride + block_length)*
356                          old_type->size(), DT_FLAG_CONTIGUOUS);
357     retval=MPI_SUCCESS;
358   }
359   return retval;
360 }
361
362
363 int Datatype::create_hvector(int count, int block_length, MPI_Aint stride, MPI_Datatype old_type, MPI_Datatype* new_type)
364 {
365   int retval;
366   if (block_length<0)
367     return MPI_ERR_ARG;
368   MPI_Aint lb = 0;
369   MPI_Aint ub = 0;
370   if(count>0){
371     lb=old_type->lb();
372     ub=((count-1)*stride)+(block_length-1)*old_type->get_extent()+old_type->ub();
373   }
374   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length*old_type->get_extent()){
375     *new_type = new Type_Hvector(count * (block_length) * old_type->size(), lb, ub,
376                                    DT_FLAG_DERIVED, count, block_length, stride, old_type);
377     retval=MPI_SUCCESS;
378   }else{
379     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
380     *new_type = new Datatype(count * block_length * old_type->size(), 0, count * block_length * old_type->size(), DT_FLAG_CONTIGUOUS);
381     retval=MPI_SUCCESS;
382   }
383   return retval;
384 }
385
386 int Datatype::create_indexed(int count, int* block_lengths, int* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
387   int size = 0;
388   bool contiguous=true;
389   MPI_Aint lb = 0;
390   MPI_Aint ub = 0;
391   if(count>0){
392     lb=indices[0]*old_type->get_extent();
393     ub=indices[0]*old_type->get_extent() + block_lengths[0]*old_type->ub();
394   }
395
396   for (int i = 0; i < count; i++) {
397     if (block_lengths[i] < 0)
398       return MPI_ERR_ARG;
399     size += block_lengths[i];
400
401     if(indices[i]*old_type->get_extent()+old_type->lb()<lb)
402       lb = indices[i]*old_type->get_extent()+old_type->lb();
403     if(indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub()>ub)
404       ub = indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub();
405
406     if ( (i< count -1) && (indices[i]+block_lengths[i] != indices[i+1]) )
407       contiguous=false;
408   }
409   if(old_type->flags_ & DT_FLAG_DERIVED)
410     contiguous=false;
411
412   if (not contiguous) {
413     *new_type = new Type_Indexed(size * old_type->size(),lb,ub,
414                                  DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
415   }else{
416     Datatype::create_contiguous(size, old_type, lb, new_type);
417   }
418   return MPI_SUCCESS;
419 }
420
421 int Datatype::create_hindexed(int count, int* block_lengths, MPI_Aint* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
422   int size = 0;
423   bool contiguous=true;
424   MPI_Aint lb = 0;
425   MPI_Aint ub = 0;
426   if(count>0){
427     lb=indices[0] + old_type->lb();
428     ub=indices[0] + block_lengths[0]*old_type->ub();
429   }
430   for (int i = 0; i < count; i++) {
431     if (block_lengths[i] < 0)
432       return MPI_ERR_ARG;
433     size += block_lengths[i];
434
435     if(indices[i]+old_type->lb()<lb)
436       lb = indices[i]+old_type->lb();
437     if(indices[i]+block_lengths[i]*old_type->ub()>ub)
438       ub = indices[i]+block_lengths[i]*old_type->ub();
439
440     if ( (i< count -1) && (indices[i]+block_lengths[i]*(static_cast<int>(old_type->size())) != indices[i+1]) )
441       contiguous=false;
442   }
443   if (old_type->flags_ & DT_FLAG_DERIVED || lb!=0)
444     contiguous=false;
445
446   if (not contiguous) {
447     *new_type = new Type_Hindexed(size * old_type->size(),lb,ub,
448                                    DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
449   }else{
450     Datatype::create_contiguous(size, old_type, lb, new_type);
451   }
452   return MPI_SUCCESS;
453 }
454
455 int Datatype::create_struct(int count, int* block_lengths, MPI_Aint* indices, MPI_Datatype* old_types, MPI_Datatype* new_type){
456   size_t size = 0;
457   bool contiguous=true;
458   size = 0;
459   MPI_Aint lb = 0;
460   MPI_Aint ub = 0;
461   if(count>0){
462     lb=indices[0] + old_types[0]->lb();
463     ub=indices[0] + block_lengths[0]*old_types[0]->ub();
464   }
465   bool forced_lb=false;
466   bool forced_ub=false;
467   for (int i = 0; i < count; i++) {
468     if (block_lengths[i]<0)
469       return MPI_ERR_ARG;
470     if (old_types[i]->flags_ & DT_FLAG_DERIVED)
471       contiguous=false;
472
473     size += block_lengths[i]*old_types[i]->size();
474     if (old_types[i]==MPI_LB){
475       lb=indices[i];
476       forced_lb=true;
477     }
478     if (old_types[i]==MPI_UB){
479       ub=indices[i];
480       forced_ub=true;
481     }
482
483     if (not forced_lb && indices[i] + old_types[i]->lb() < lb)
484       lb = indices[i];
485     if (not forced_ub && indices[i] + block_lengths[i] * old_types[i]->ub() > ub)
486       ub = indices[i]+block_lengths[i]*old_types[i]->ub();
487
488     if ( (i< count -1) && (indices[i]+block_lengths[i]*static_cast<int>(old_types[i]->size()) != indices[i+1]) )
489       contiguous=false;
490   }
491   if (not contiguous) {
492     *new_type = new Type_Struct(size, lb,ub, DT_FLAG_DERIVED|DT_FLAG_DATA,
493                                 count, block_lengths, indices, old_types);
494   }else{
495     Datatype::create_contiguous(size, MPI_CHAR, lb, new_type);
496   }
497   return MPI_SUCCESS;
498 }
499
500 int Datatype::create_subarray(int ndims, int* array_of_sizes,
501                              int* array_of_subsizes, int* array_of_starts,
502                              int order, MPI_Datatype oldtype, MPI_Datatype *newtype){
503
504   int i, step, end;
505   MPI_Datatype tmp;
506   
507   for (i=0; i < ndims; i++) {
508     if (array_of_subsizes[i] > array_of_sizes[i]){
509       XBT_WARN("subarray : array_of_subsizes > array_of_sizes for dim %d\n",i);
510       return MPI_ERR_ARG;
511     }
512     if (array_of_starts[i] + array_of_subsizes[i] > array_of_sizes[i]){
513       XBT_WARN("subarray : array_of_starts + array_of_subsizes > array_of_sizes for dim %d\n",i);
514       return MPI_ERR_ARG;
515     }
516   }
517   
518   MPI_Aint extent = oldtype->get_extent();
519   
520   if( order==MPI_ORDER_C ) {
521       i = ndims - 1;
522       step = -1;
523       end = -1;
524   } else {
525       i = 0;
526       step = 1;
527       end = ndims;
528   }
529   
530   MPI_Aint size = (MPI_Aint)array_of_sizes[i] * (MPI_Aint)array_of_sizes[i+step];
531   MPI_Aint lb = (MPI_Aint)array_of_starts[i] + (MPI_Aint)array_of_starts[i+step] *(MPI_Aint)array_of_sizes[i];
532
533   create_vector( array_of_subsizes[i+step], array_of_subsizes[i], array_of_sizes[i],
534                                oldtype, newtype );
535
536   tmp = *newtype;
537
538   for( i += 2 * step; i != end; i += step ) {
539       create_hvector( array_of_subsizes[i], 1, size * extent,
540                                     tmp, newtype );
541       unref(tmp);
542       lb += size * array_of_starts[i];
543       size *= array_of_sizes[i];
544       tmp = *newtype;
545   }
546
547   MPI_Aint lbs[1] = {lb * extent};
548   int sizes [1]={1};
549   //handle LB and UB with a resized call
550   create_hindexed( 1, sizes, lbs, tmp, newtype);
551   unref(tmp);
552   
553   tmp = *newtype;
554   create_resized(tmp, 0, extent, newtype);
555
556   unref(tmp);
557   return MPI_SUCCESS;
558 }
559
560 int Datatype::create_resized(MPI_Datatype oldtype,MPI_Aint lb, MPI_Aint extent, MPI_Datatype *newtype){
561   int blocks[3]         = {1, 1, 1};
562   MPI_Aint disps[3]     = {lb, 0, lb + extent};
563   MPI_Datatype types[3] = {MPI_LB, oldtype, MPI_UB};
564
565   *newtype = new simgrid::smpi::Type_Struct(oldtype->size(), lb, lb + extent, DT_FLAG_DERIVED, 3, blocks, disps, types);
566
567   (*newtype)->addflag(~DT_FLAG_COMMITED);
568   return MPI_SUCCESS;
569 }
570
571 Datatype* Datatype::f2c(int id){
572   return static_cast<Datatype*>(F2C::f2c(id));
573 }
574
575
576 }
577 }
578