Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'master' of scm.gforge.inria.fr:/gitroot/simgrid/simgrid
[simgrid.git] / teshsuite / smpi / mpich3-test / rma / win_shared_noncontig.c
1 /* -*- Mode: C; c-basic-offset:4 ; indent-tabs-mode:nil ; -*- */
2 /*
3  *
4  *  (C) 2012 by Argonne National Laboratory.
5  *      See COPYRIGHT in top-level directory.
6  */
7
8 #include <stdio.h>
9 #include <stdlib.h>
10 #include <assert.h>
11 #include <mpi.h>
12 #include "mpitest.h"
13
14 #define ELEM_PER_PROC 10000
15
16 const int verbose = 0;
17
18 int main(int argc, char **argv) {
19     int      i, j, rank, nproc;
20     int      shm_rank, shm_nproc;
21     MPI_Info alloc_shared_info;
22     int      errors = 0, all_errors = 0;
23     int      disp_unit;
24     int     *my_base;
25     MPI_Win  shm_win;
26     MPI_Comm shm_comm;
27
28     MPI_Init(&argc, &argv);
29
30     MPI_Comm_rank(MPI_COMM_WORLD, &rank);
31     MPI_Comm_size(MPI_COMM_WORLD, &nproc);
32
33     MPI_Info_create(&alloc_shared_info);
34     MPI_Info_set(alloc_shared_info, "alloc_shared_noncontig", "true");
35
36     MPI_Comm_split_type(MPI_COMM_WORLD, MPI_COMM_TYPE_SHARED, rank, MPI_INFO_NULL, &shm_comm);
37
38     MPI_Comm_rank(shm_comm, &shm_rank);
39     MPI_Comm_size(shm_comm, &shm_nproc);
40
41     /* Allocate ELEM_PER_PROC integers for each process */
42     MPI_Win_allocate_shared(sizeof(int)*ELEM_PER_PROC, sizeof(int), alloc_shared_info, 
43                              shm_comm, &my_base, &shm_win);
44
45     MPI_Win_lock_all(MPI_MODE_NOCHECK, shm_win);
46
47     /* Write to all my data */
48     for (i = 0; i < ELEM_PER_PROC; i++) {
49         my_base[i] = i;
50     }
51
52     MPI_Win_sync(shm_win);
53     MPI_Barrier(shm_comm);
54     MPI_Win_sync(shm_win);
55
56     /* Read and verify everyone's data */
57     for (i = 0; i < shm_nproc; i++) {
58         int      *base;
59         MPI_Aint  size;
60
61         MPI_Win_shared_query(shm_win, i, &size, &disp_unit, &base);
62         assert(size == ELEM_PER_PROC * sizeof(int));
63
64         for (j = 0; j < ELEM_PER_PROC; j++) {
65             if ( base[j] != j ) {
66                 errors++;
67                 printf("%d -- Got %d at rank %d index %d, expected %d\n", shm_rank, 
68                        base[j], i, j, j);
69             }
70         }
71     }
72
73     MPI_Win_unlock_all(shm_win);
74     MPI_Win_free(&shm_win);
75     MPI_Comm_free(&shm_comm);
76
77     MPI_Info_free(&alloc_shared_info);
78
79     MPI_Reduce(&errors, &all_errors, 1, MPI_INT, MPI_SUM, 0, MPI_COMM_WORLD);
80
81     if (rank == 0 && all_errors == 0)
82         printf(" No Errors\n");
83
84     MPI_Finalize();
85
86     return 0;
87 }