Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'master' of https://github.com/mpoquet/simgrid
[simgrid.git] / teshsuite / smpi / mpich3-test / rma / strided_putget_indexed_shared.c
1 /* -*- Mode: C; c-basic-offset:4 ; indent-tabs-mode:nil ; -*- */
2 /*
3  *  (C) 2011 by Argonne National Laboratory.
4  *      See COPYRIGHT in top-level directory.
5  */
6
7 /* One-Sided MPI 2-D Strided Accumulate Test
8  *
9  * Author: James Dinan <dinan@mcs.anl.gov>
10  * Date  : November, 2012
11  *
12  * This code performs N strided put operations followed by get operations into
13  * a 2d patch of a shared array.  The array has dimensions [X, Y] and the
14  * subarray has dimensions [SUB_X, SUB_Y] and begins at index [0, 0].  The
15  * input and output buffers are specified using an MPI indexed type.
16  */
17
18 #include <stdio.h>
19 #include <stdlib.h>
20 #include <math.h>
21 #include <mpi.h>
22 #include "mpitest.h"
23 #include "squelch.h"
24
25 #define XDIM 8
26 #define YDIM 1024
27 #define SUB_XDIM 8
28 #define SUB_YDIM 255
29 #define ITERATIONS 10
30
31 int main(int argc, char **argv) {
32     int rank, nranks, rank_world, nranks_world;
33     int i, j, peer, bufsize, errors;
34     double *win_buf, *src_buf, *dst_buf;
35     MPI_Win buf_win;
36     MPI_Comm shr_comm;
37
38     MTest_Init(&argc, &argv);
39
40     MPI_Comm_rank(MPI_COMM_WORLD, &rank_world);
41     MPI_Comm_size(MPI_COMM_WORLD, &nranks_world);
42
43     MPI_Comm_split_type(MPI_COMM_WORLD, MPI_COMM_TYPE_SHARED, rank, MPI_INFO_NULL, &shr_comm);
44
45     MPI_Comm_rank(shr_comm, &rank);
46     MPI_Comm_size(shr_comm, &nranks);
47
48     bufsize = XDIM * YDIM * sizeof(double);
49     MPI_Alloc_mem(bufsize, MPI_INFO_NULL, &src_buf);
50     MPI_Alloc_mem(bufsize, MPI_INFO_NULL, &dst_buf);
51
52     MPI_Win_allocate_shared(bufsize, 1, MPI_INFO_NULL, shr_comm, &win_buf, &buf_win);
53
54     MPI_Win_fence(0, buf_win);
55
56     for (i = 0; i < XDIM*YDIM; i++) {
57         *(win_buf + i) = -1.0;
58         *(src_buf + i) =  1.0 + rank;
59     }
60
61     MPI_Win_fence(0, buf_win);
62
63     peer = (rank+1) % nranks;
64
65     /* Perform ITERATIONS strided accumulate operations */
66
67     for (i = 0; i < ITERATIONS; i++) {
68       int idx_rem[SUB_YDIM];
69       int blk_len[SUB_YDIM];
70       MPI_Datatype src_type, dst_type;
71
72       for (j = 0; j < SUB_YDIM; j++) {
73         idx_rem[j] = j*XDIM;
74         blk_len[j] = SUB_XDIM;
75       }
76
77       MPI_Type_indexed(SUB_YDIM, blk_len, idx_rem, MPI_DOUBLE, &src_type);
78       MPI_Type_indexed(SUB_YDIM, blk_len, idx_rem, MPI_DOUBLE, &dst_type);
79
80       MPI_Type_commit(&src_type);
81       MPI_Type_commit(&dst_type);
82
83       MPI_Win_lock(MPI_LOCK_EXCLUSIVE, peer, 0, buf_win);
84       MPI_Put(src_buf, 1, src_type, peer, 0, 1, dst_type, buf_win);
85       MPI_Win_unlock(peer, buf_win);
86
87       MPI_Win_lock(MPI_LOCK_EXCLUSIVE, peer, 0, buf_win);
88       MPI_Get(dst_buf, 1, src_type, peer, 0, 1, dst_type, buf_win);
89       MPI_Win_unlock(peer, buf_win);
90
91       MPI_Type_free(&src_type);
92       MPI_Type_free(&dst_type);
93     }
94
95     MPI_Barrier(shr_comm);
96
97     /* Verify that the results are correct */
98
99     MPI_Win_lock(MPI_LOCK_EXCLUSIVE, rank, 0, buf_win);
100     errors = 0;
101     for (i = 0; i < SUB_XDIM; i++) {
102       for (j = 0; j < SUB_YDIM; j++) {
103         const double actual   = *(win_buf + i + j*XDIM);
104         const double expected = (1.0 + ((rank+nranks-1)%nranks));
105         if (fabs(actual - expected) > 1.0e-10) {
106           SQUELCH( printf("%d: Data validation failed at [%d, %d] expected=%f actual=%f\n",
107               rank, j, i, expected, actual); );
108           errors++;
109           fflush(stdout);
110         }
111       }
112     }
113     for (i = SUB_XDIM; i < XDIM; i++) {
114       for (j = 0; j < SUB_YDIM; j++) {
115         const double actual   = *(win_buf + i + j*XDIM);
116         const double expected = -1.0;
117         if (fabs(actual - expected) > 1.0e-10) {
118           SQUELCH( printf("%d: Data validation failed at [%d, %d] expected=%f actual=%f\n",
119               rank, j, i, expected, actual); );
120           errors++;
121           fflush(stdout);
122         }
123       }
124     }
125     for (i = 0; i < XDIM; i++) {
126       for (j = SUB_YDIM; j < YDIM; j++) {
127         const double actual   = *(win_buf + i + j*XDIM);
128         const double expected = -1.0;
129         if (fabs(actual - expected) > 1.0e-10) {
130           SQUELCH( printf("%d: Data validation failed at [%d, %d] expected=%f actual=%f\n",
131               rank, j, i, expected, actual); );
132           errors++;
133           fflush(stdout);
134         }
135       }
136     }
137     MPI_Win_unlock(rank, buf_win);
138
139     MPI_Win_free(&buf_win);
140     MPI_Free_mem(src_buf);
141     MPI_Free_mem(dst_buf);
142     MPI_Comm_free(&shr_comm);
143
144     MTest_Finalize( errors );
145     MPI_Finalize();
146     return MTestReturnValue( errors );
147 }