Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
6dfe3bdf90a4369ba46592b2c2de21fff2a924ca
[simgrid.git] / src / smpi / smpi_datatype.cpp
1 /* smpi_datatype.cpp -- MPI primitives to handle datatypes                      */
2 /* Copyright (c) 2009-2017. The SimGrid Team.
3  * All rights reserved.                                                     */
4
5 /* This program is free software; you can redistribute it and/or modify it
6  * under the terms of the license (GNU LGPL) which comes with this package. */
7
8 #include "mc/mc.h"
9 #include "private.h"
10 #include "simgrid/modelchecker.h"
11 #include <limits.h>
12 #include <stdio.h>
13 #include <stdlib.h>
14 #include <string.h>
15 #include <string>
16 #include <unordered_map>
17 #include <xbt/ex.hpp>
18
19 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_datatype, smpi, "Logging specific to SMPI (datatype)");
20
21 #define CREATE_MPI_DATATYPE(name, type)               \
22   static simgrid::smpi::Datatype mpi_##name (         \
23     (char*) # name,                                   \
24     sizeof(type),   /* size */                        \
25     0,              /* lb */                          \
26     sizeof(type),   /* ub = lb + size */              \
27     DT_FLAG_BASIC  /* flags */                       \
28   );                                                  \
29 const MPI_Datatype name = &mpi_##name;
30
31 #define CREATE_MPI_DATATYPE_NULL(name)                \
32   static simgrid::smpi::Datatype mpi_##name (         \
33     (char*) # name,                                   \
34     0,              /* size */                        \
35     0,              /* lb */                          \
36     0,              /* ub = lb + size */              \
37     DT_FLAG_BASIC  /* flags */                       \
38   );                                                  \
39 const MPI_Datatype name = &mpi_##name;
40
41 // Predefined data types
42 CREATE_MPI_DATATYPE(MPI_CHAR, char);
43 CREATE_MPI_DATATYPE(MPI_SHORT, short);
44 CREATE_MPI_DATATYPE(MPI_INT, int);
45 CREATE_MPI_DATATYPE(MPI_LONG, long);
46 CREATE_MPI_DATATYPE(MPI_LONG_LONG, long long);
47 CREATE_MPI_DATATYPE(MPI_SIGNED_CHAR, signed char);
48 CREATE_MPI_DATATYPE(MPI_UNSIGNED_CHAR, unsigned char);
49 CREATE_MPI_DATATYPE(MPI_UNSIGNED_SHORT, unsigned short);
50 CREATE_MPI_DATATYPE(MPI_UNSIGNED, unsigned int);
51 CREATE_MPI_DATATYPE(MPI_UNSIGNED_LONG, unsigned long);
52 CREATE_MPI_DATATYPE(MPI_UNSIGNED_LONG_LONG, unsigned long long);
53 CREATE_MPI_DATATYPE(MPI_FLOAT, float);
54 CREATE_MPI_DATATYPE(MPI_DOUBLE, double);
55 CREATE_MPI_DATATYPE(MPI_LONG_DOUBLE, long double);
56 CREATE_MPI_DATATYPE(MPI_WCHAR, wchar_t);
57 CREATE_MPI_DATATYPE(MPI_C_BOOL, bool);
58 CREATE_MPI_DATATYPE(MPI_BYTE, int8_t);
59 CREATE_MPI_DATATYPE(MPI_INT8_T, int8_t);
60 CREATE_MPI_DATATYPE(MPI_INT16_T, int16_t);
61 CREATE_MPI_DATATYPE(MPI_INT32_T, int32_t);
62 CREATE_MPI_DATATYPE(MPI_INT64_T, int64_t);
63 CREATE_MPI_DATATYPE(MPI_UINT8_T, uint8_t);
64 CREATE_MPI_DATATYPE(MPI_UINT16_T, uint16_t);
65 CREATE_MPI_DATATYPE(MPI_UINT32_T, uint32_t);
66 CREATE_MPI_DATATYPE(MPI_UINT64_T, uint64_t);
67 CREATE_MPI_DATATYPE(MPI_C_FLOAT_COMPLEX, float _Complex);
68 CREATE_MPI_DATATYPE(MPI_C_DOUBLE_COMPLEX, double _Complex);
69 CREATE_MPI_DATATYPE(MPI_C_LONG_DOUBLE_COMPLEX, long double _Complex);
70 CREATE_MPI_DATATYPE(MPI_AINT, MPI_Aint);
71 CREATE_MPI_DATATYPE(MPI_OFFSET, MPI_Offset);
72
73 CREATE_MPI_DATATYPE(MPI_FLOAT_INT, float_int);
74 CREATE_MPI_DATATYPE(MPI_LONG_INT, long_int);
75 CREATE_MPI_DATATYPE(MPI_DOUBLE_INT, double_int);
76 CREATE_MPI_DATATYPE(MPI_SHORT_INT, short_int);
77 CREATE_MPI_DATATYPE(MPI_2INT, int_int);
78 CREATE_MPI_DATATYPE(MPI_2FLOAT, float_float);
79 CREATE_MPI_DATATYPE(MPI_2DOUBLE, double_double);
80 CREATE_MPI_DATATYPE(MPI_2LONG, long_long);
81
82 CREATE_MPI_DATATYPE(MPI_REAL, float);
83 CREATE_MPI_DATATYPE(MPI_REAL4, float);
84 CREATE_MPI_DATATYPE(MPI_REAL8, float);
85 CREATE_MPI_DATATYPE(MPI_REAL16, double);
86 CREATE_MPI_DATATYPE_NULL(MPI_COMPLEX8);
87 CREATE_MPI_DATATYPE_NULL(MPI_COMPLEX16);
88 CREATE_MPI_DATATYPE_NULL(MPI_COMPLEX32);
89 CREATE_MPI_DATATYPE(MPI_INTEGER1, int);
90 CREATE_MPI_DATATYPE(MPI_INTEGER2, int16_t);
91 CREATE_MPI_DATATYPE(MPI_INTEGER4, int32_t);
92 CREATE_MPI_DATATYPE(MPI_INTEGER8, int64_t);
93 CREATE_MPI_DATATYPE(MPI_INTEGER16, integer128_t);
94
95 CREATE_MPI_DATATYPE(MPI_LONG_DOUBLE_INT, long_double_int);
96
97 CREATE_MPI_DATATYPE_NULL(MPI_UB);
98 CREATE_MPI_DATATYPE_NULL(MPI_LB);
99 CREATE_MPI_DATATYPE(MPI_PACKED, char);
100 // Internal use only
101 CREATE_MPI_DATATYPE(MPI_PTR, void*);
102
103 namespace simgrid{
104 namespace smpi{
105
106 std::unordered_map<int, smpi_key_elem> Datatype::keyvals_;
107 int Datatype::keyval_id_=0;
108
109 Datatype::Datatype(int size,MPI_Aint lb, MPI_Aint ub, int flags) : name_(nullptr), size_(size), lb_(lb), ub_(ub), flags_(flags), refcount_(1){
110 #if HAVE_MC
111   if(MC_is_active())
112     MC_ignore(&(refcount_), sizeof(refcount_));
113 #endif
114 }
115
116 //for predefined types, so in_use = 0.
117 Datatype::Datatype(char* name, int size,MPI_Aint lb, MPI_Aint ub, int flags) : name_(name), size_(size), lb_(lb), ub_(ub), flags_(flags), refcount_(0){
118 #if HAVE_MC
119   if(MC_is_active())
120     MC_ignore(&(refcount_), sizeof(refcount_));
121 #endif
122 }
123
124 Datatype::Datatype(Datatype *datatype, int* ret) : name_(nullptr), lb_(datatype->lb_), ub_(datatype->ub_), flags_(datatype->flags_), refcount_(1)
125 {
126   flags_ &= ~DT_FLAG_PREDEFINED;
127   *ret = MPI_SUCCESS;
128   if(datatype->name_)
129     name_ = xbt_strdup(datatype->name_);
130   
131   if(!(datatype->attributes()->empty())){
132     int flag;
133     void* value_out;
134     for(auto it = datatype->attributes()->begin(); it != datatype->attributes()->end(); it++){
135       smpi_key_elem elem = keyvals_.at((*it).first);
136       
137       if (elem != nullptr && elem->copy_fn.type_copy_fn != MPI_NULL_COPY_FN) {
138         *ret = elem->copy_fn.type_copy_fn(datatype, (*it).first, nullptr, (*it).second, &value_out, &flag);
139         if (*ret != MPI_SUCCESS) {
140           break;
141         }
142         if (flag){
143           elem->refcount++;
144           attributes()->insert({(*it).first, value_out});
145         }
146       }
147     }
148   }
149 }
150
151 Datatype::~Datatype(){
152   xbt_assert(refcount_ >= 0);
153
154   if(flags_ & DT_FLAG_PREDEFINED)
155     return;
156
157   //if still used, mark for deletion
158   if(refcount_!=0){
159       flags_ |=DT_FLAG_DESTROYED;
160       return;
161   }
162
163   cleanup_attr<Datatype>();
164
165   xbt_free(name_);
166 }
167
168
169 void Datatype::ref(){
170
171   refcount_++;
172
173 #if HAVE_MC
174   if(MC_is_active())
175     MC_ignore(&(refcount_), sizeof(refcount_));
176 #endif
177 }
178
179 void Datatype::unref(MPI_Datatype datatype)
180 {
181   if (datatype->refcount_ > 0)
182     datatype->refcount_--;
183
184   if (datatype->refcount_ == 0  && !(datatype->flags_ & DT_FLAG_PREDEFINED))
185     delete datatype;
186
187 #if HAVE_MC
188   if(MC_is_active())
189     MC_ignore(&(datatype->refcount_), sizeof(datatype->refcount_));
190 #endif
191 }
192
193 void Datatype::commit()
194 {
195   flags_ |= DT_FLAG_COMMITED;
196 }
197
198
199 bool Datatype::is_valid(){
200   return (flags_ & DT_FLAG_COMMITED);
201 }
202
203 size_t Datatype::size(){
204   return size_;
205 }
206
207 int Datatype::flags(){
208   return flags_;
209 }
210
211 int Datatype::refcount(){
212   return refcount_;
213 }
214
215 void Datatype::addflag(int flag){
216   flags_ &= flag;
217 }
218
219 MPI_Aint Datatype::lb(){
220   return lb_;
221 }
222
223 MPI_Aint Datatype::ub(){
224   return ub_;
225 }
226
227 char* Datatype::name(){
228   return name_;
229 }
230
231
232 int Datatype::extent(MPI_Aint * lb, MPI_Aint * extent){
233   *lb = lb_;
234   *extent = ub_ - lb_;
235   return MPI_SUCCESS;
236 }
237
238 MPI_Aint Datatype::get_extent(){
239   return ub_ - lb_;
240 }
241
242 void Datatype::get_name(char* name, int* length){
243   *length = strlen(name_);
244   strncpy(name, name_, *length+1);
245 }
246
247 void Datatype::set_name(char* name){
248   if(name_!=nullptr &&  (flags_ & DT_FLAG_PREDEFINED) == 0)
249     xbt_free(name_);
250   name_ = xbt_strdup(name);
251 }
252
253 int Datatype::pack(void* inbuf, int incount, void* outbuf, int outcount, int* position,MPI_Comm comm){
254   if (outcount - *position < incount*static_cast<int>(size_))
255     return MPI_ERR_BUFFER;
256   Datatype::copy(inbuf, incount, this, static_cast<char*>(outbuf) + *position, outcount, MPI_CHAR);
257   *position += incount * size_;
258   return MPI_SUCCESS;
259 }
260
261 int Datatype::unpack(void* inbuf, int insize, int* position, void* outbuf, int outcount,MPI_Comm comm){
262   if (outcount*static_cast<int>(size_)> insize)
263     return MPI_ERR_BUFFER;
264   Datatype::copy(static_cast<char*>(inbuf) + *position, insize, MPI_CHAR, outbuf, outcount, this);
265   *position += outcount * size_;
266   return MPI_SUCCESS;
267 }
268
269
270 int Datatype::copy(void *sendbuf, int sendcount, MPI_Datatype sendtype,
271                        void *recvbuf, int recvcount, MPI_Datatype recvtype){
272   int count;
273
274 // FIXME Handle the case of a partial shared malloc.
275
276   if(smpi_privatize_global_variables == SMPI_PRIVATIZE_MMAP){
277     smpi_switch_data_segment(smpi_process()->index());
278   }
279   /* First check if we really have something to do */
280   if (recvcount > 0 && recvbuf != sendbuf) {
281     sendcount *= sendtype->size();
282     recvcount *= recvtype->size();
283     count = sendcount < recvcount ? sendcount : recvcount;
284
285     if(!(sendtype->flags() & DT_FLAG_DERIVED) && !(recvtype->flags() & DT_FLAG_DERIVED)) {
286       if(!smpi_process()->replaying()) 
287         memcpy(recvbuf, sendbuf, count);
288     }
289     else if (!(sendtype->flags() & DT_FLAG_DERIVED))
290     {
291       recvtype->unserialize( sendbuf, recvbuf, recvcount/recvtype->size(), MPI_REPLACE);
292     }
293     else if (!(recvtype->flags() & DT_FLAG_DERIVED))
294     {
295       sendtype->serialize(sendbuf, recvbuf, sendcount/sendtype->size());
296     }else{
297
298       void * buf_tmp = xbt_malloc(count);
299
300       sendtype->serialize( sendbuf, buf_tmp,count/sendtype->size());
301       recvtype->unserialize( buf_tmp, recvbuf,count/recvtype->size(), MPI_REPLACE);
302
303       xbt_free(buf_tmp);
304     }
305   }
306
307   return sendcount > recvcount ? MPI_ERR_TRUNCATE : MPI_SUCCESS;
308 }
309
310 //Default serialization method : memcpy.
311 void Datatype::serialize( void* noncontiguous_buf, void *contiguous_buf, int count){
312   char* contiguous_buf_char = static_cast<char*>(contiguous_buf);
313   char* noncontiguous_buf_char = static_cast<char*>(noncontiguous_buf)+lb_;
314   memcpy(contiguous_buf_char, noncontiguous_buf_char, count*size_);
315
316 }
317
318 void Datatype::unserialize( void* contiguous_buf, void *noncontiguous_buf, int count, MPI_Op op){
319   char* contiguous_buf_char = static_cast<char*>(contiguous_buf);
320   char* noncontiguous_buf_char = static_cast<char*>(noncontiguous_buf)+lb_;
321   int n=count;
322   if(op!=MPI_OP_NULL)
323     op->apply( contiguous_buf_char, noncontiguous_buf_char, &n, this);
324 }
325
326 int Datatype::create_contiguous(int count, MPI_Datatype old_type, MPI_Aint lb, MPI_Datatype* new_type){
327   if(old_type->flags_ & DT_FLAG_DERIVED){
328     //handle this case as a hvector with stride equals to the extent of the datatype
329     return create_hvector(count, 1, old_type->get_extent(), old_type, new_type);
330   }
331   if(count>0)
332     *new_type = new Type_Contiguous(count * old_type->size(), lb, lb + count * old_type->size(),
333                                    DT_FLAG_DERIVED, count, old_type);
334   else
335     *new_type = new Datatype(count * old_type->size(), lb, lb + count * old_type->size(),0);
336   return MPI_SUCCESS;
337 }
338
339 int Datatype::create_vector(int count, int block_length, int stride, MPI_Datatype old_type, MPI_Datatype* new_type)
340 {
341   int retval;
342   if (block_length<0) 
343     return MPI_ERR_ARG;
344   MPI_Aint lb = 0;
345   MPI_Aint ub = 0;
346   if(count>0){
347     lb=old_type->lb();
348     ub=((count-1)*stride+block_length-1)*old_type->get_extent()+old_type->ub();
349   }
350   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length){
351     *new_type = new Type_Vector(count * (block_length) * old_type->size(), lb, ub,
352                                    DT_FLAG_DERIVED, count, block_length, stride, old_type);
353     retval=MPI_SUCCESS;
354   }else{
355     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
356     *new_type = new Datatype(count * block_length * old_type->size(), 0, ((count -1) * stride + block_length)*
357                          old_type->size(), DT_FLAG_CONTIGUOUS);
358     retval=MPI_SUCCESS;
359   }
360   return retval;
361 }
362
363
364 int Datatype::create_hvector(int count, int block_length, MPI_Aint stride, MPI_Datatype old_type, MPI_Datatype* new_type)
365 {
366   int retval;
367   if (block_length<0) 
368     return MPI_ERR_ARG;
369   MPI_Aint lb = 0;
370   MPI_Aint ub = 0;
371   if(count>0){
372     lb=old_type->lb();
373     ub=((count-1)*stride)+(block_length-1)*old_type->get_extent()+old_type->ub();
374   }
375   if(old_type->flags() & DT_FLAG_DERIVED || stride != block_length*old_type->get_extent()){
376     *new_type = new Type_Hvector(count * (block_length) * old_type->size(), lb, ub,
377                                    DT_FLAG_DERIVED, count, block_length, stride, old_type);
378     retval=MPI_SUCCESS;
379   }else{
380     /* in this situation the data are contiguous thus it's not required to serialize and unserialize it*/
381     *new_type = new Datatype(count * block_length * old_type->size(), 0, count * block_length * old_type->size(), DT_FLAG_CONTIGUOUS);
382     retval=MPI_SUCCESS;
383   }
384   return retval;
385 }
386
387 int Datatype::create_indexed(int count, int* block_lengths, int* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
388   int size = 0;
389   bool contiguous=true;
390   MPI_Aint lb = 0;
391   MPI_Aint ub = 0;
392   if(count>0){
393     lb=indices[0]*old_type->get_extent();
394     ub=indices[0]*old_type->get_extent() + block_lengths[0]*old_type->ub();
395   }
396
397   for (int i = 0; i < count; i++) {
398     if (block_lengths[i] < 0)
399       return MPI_ERR_ARG;
400     size += block_lengths[i];
401
402     if(indices[i]*old_type->get_extent()+old_type->lb()<lb)
403       lb = indices[i]*old_type->get_extent()+old_type->lb();
404     if(indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub()>ub)
405       ub = indices[i]*old_type->get_extent()+block_lengths[i]*old_type->ub();
406
407     if ( (i< count -1) && (indices[i]+block_lengths[i] != indices[i+1]) )
408       contiguous=false;
409   }
410   if(old_type->flags_ & DT_FLAG_DERIVED)
411     contiguous=false;
412
413   if(!contiguous){
414     *new_type = new Type_Indexed(size * old_type->size(),lb,ub,
415                                  DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
416   }else{
417     Datatype::create_contiguous(size, old_type, lb, new_type);
418   }
419   return MPI_SUCCESS;
420 }
421
422 int Datatype::create_hindexed(int count, int* block_lengths, MPI_Aint* indices, MPI_Datatype old_type, MPI_Datatype* new_type){
423   int size = 0;
424   bool contiguous=true;
425   MPI_Aint lb = 0;
426   MPI_Aint ub = 0;
427   if(count>0){
428     lb=indices[0] + old_type->lb();
429     ub=indices[0] + block_lengths[0]*old_type->ub();
430   }
431   for (int i = 0; i < count; i++) {
432     if (block_lengths[i] < 0)
433       return MPI_ERR_ARG;
434     size += block_lengths[i];
435
436     if(indices[i]+old_type->lb()<lb) 
437       lb = indices[i]+old_type->lb();
438     if(indices[i]+block_lengths[i]*old_type->ub()>ub) 
439       ub = indices[i]+block_lengths[i]*old_type->ub();
440
441     if ( (i< count -1) && (indices[i]+block_lengths[i]*(static_cast<int>(old_type->size())) != indices[i+1]) )
442       contiguous=false;
443   }
444   if (old_type->flags_ & DT_FLAG_DERIVED || lb!=0)
445     contiguous=false;
446
447   if(!contiguous){
448     *new_type = new Type_Hindexed(size * old_type->size(),lb,ub,
449                                    DT_FLAG_DERIVED|DT_FLAG_DATA, count, block_lengths, indices, old_type);
450   }else{
451     Datatype::create_contiguous(size, old_type, lb, new_type);
452   }
453   return MPI_SUCCESS;
454 }
455
456 int Datatype::create_struct(int count, int* block_lengths, MPI_Aint* indices, MPI_Datatype* old_types, MPI_Datatype* new_type){
457   size_t size = 0;
458   bool contiguous=true;
459   size = 0;
460   MPI_Aint lb = 0;
461   MPI_Aint ub = 0;
462   if(count>0){
463     lb=indices[0] + old_types[0]->lb();
464     ub=indices[0] + block_lengths[0]*old_types[0]->ub();
465   }
466   bool forced_lb=false;
467   bool forced_ub=false;
468   for (int i = 0; i < count; i++) {
469     if (block_lengths[i]<0)
470       return MPI_ERR_ARG;
471     if (old_types[i]->flags_ & DT_FLAG_DERIVED)
472       contiguous=false;
473
474     size += block_lengths[i]*old_types[i]->size();
475     if (old_types[i]==MPI_LB){
476       lb=indices[i];
477       forced_lb=true;
478     }
479     if (old_types[i]==MPI_UB){
480       ub=indices[i];
481       forced_ub=true;
482     }
483
484     if(!forced_lb && indices[i]+old_types[i]->lb()<lb) 
485       lb = indices[i];
486     if(!forced_ub &&  indices[i]+block_lengths[i]*old_types[i]->ub()>ub)
487       ub = indices[i]+block_lengths[i]*old_types[i]->ub();
488
489     if ( (i< count -1) && (indices[i]+block_lengths[i]*static_cast<int>(old_types[i]->size()) != indices[i+1]) )
490       contiguous=false;
491   }
492   if(!contiguous){
493     *new_type = new Type_Struct(size, lb,ub, DT_FLAG_DERIVED|DT_FLAG_DATA, 
494                                 count, block_lengths, indices, old_types);
495   }else{
496     Datatype::create_contiguous(size, MPI_CHAR, lb, new_type);
497   }
498   return MPI_SUCCESS;
499 }
500
501 Datatype* Datatype::f2c(int id){
502   return static_cast<Datatype*>(F2C::f2c(id));
503 }
504
505
506 }
507 }
508