Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Reduce the size of partial shared malloc tests.
[simgrid.git] / teshsuite / smpi / mpich3-test / rma / win_shared_zerobyte.c
1 /* -*- Mode: C; c-basic-offset:4 ; indent-tabs-mode:nil ; -*- */
2 /*
3  *
4  *  (C) 2014 by Argonne National Laboratory.
5  *      See COPYRIGHT in top-level directory.
6  */
7
8 #include <stdio.h>
9 #include <stdlib.h>
10 #include <assert.h>
11 #include <mpi.h>
12 #include "mpitest.h"
13
14 const int verbose = 0;
15
16 int main(int argc, char **argv)
17 {
18     int i, rank, nproc;
19     int shm_rank, shm_nproc;
20     MPI_Aint size;
21     int errors = 0, all_errors = 0;
22     int **bases = NULL, *abs_base, *my_base;
23     int disp_unit;
24     MPI_Win shm_win;
25     MPI_Comm shm_comm;
26     int ELEM_PER_PROC = 0;
27
28     MPI_Init(&argc, &argv);
29
30     MPI_Comm_rank(MPI_COMM_WORLD, &rank);
31     MPI_Comm_size(MPI_COMM_WORLD, &nproc);
32
33     MPI_Comm_split_type(MPI_COMM_WORLD, MPI_COMM_TYPE_SHARED, rank, MPI_INFO_NULL, &shm_comm);
34
35     MPI_Comm_rank(shm_comm, &shm_rank);
36     MPI_Comm_size(shm_comm, &shm_nproc);
37
38     /* Platform does not support shared memory, just return. */
39     if (shm_nproc < 2) {
40         goto exit;
41     }
42
43     bases = calloc(shm_nproc, sizeof(int *));
44
45     if (shm_rank == 0 || shm_rank == shm_nproc - 1) {
46         ELEM_PER_PROC = 16;
47     }
48
49     /* Allocate ELEM_PER_PROC integers for each process */
50     MPI_Win_allocate_shared(sizeof(int) * ELEM_PER_PROC, sizeof(int), MPI_INFO_NULL,
51                             shm_comm, &my_base, &shm_win);
52
53     /* Locate absolute base */
54     MPI_Win_shared_query(shm_win, MPI_PROC_NULL, &size, &disp_unit, &abs_base);
55
56     if (verbose)
57         printf("%d -- allocate shared: my_base = %p, absolute base = %p\n", shm_rank, my_base,
58                abs_base);
59
60     for (i = 0; i < shm_nproc; i++) {
61         MPI_Win_shared_query(shm_win, i, &size, &disp_unit, &bases[i]);
62         if (verbose)
63             printf("%d --    shared query: base[%d]=%p, size %ld, unit %d\n",
64                    shm_rank, i, bases[i], size, disp_unit);
65     }
66
67     MPI_Win_lock_all(MPI_MODE_NOCHECK, shm_win);
68
69     /* Reset data */
70     for (i = 0; i < ELEM_PER_PROC; i++) {
71         my_base[i] = 0;
72     }
73
74     MPI_Win_sync(shm_win);
75     MPI_Barrier(shm_comm);
76     MPI_Win_sync(shm_win);
77
78     /* Read and verify everyone's data */
79     if (shm_rank == 0) {
80         bases[0][0] = 1;
81     }
82
83     MPI_Win_sync(shm_win);
84     MPI_Barrier(shm_comm);
85     MPI_Win_sync(shm_win);
86
87     if (bases[0][0] != 1) {
88         errors++;
89         printf("%d -- Got %d at rank %d index %d, expected %d\n", shm_rank, bases[0][0], 0, 0, 1);
90     }
91
92     if (bases[shm_nproc - 1][0] != 0) {
93         errors++;
94         printf("%d -- Got %d at rank %d index %d, expected %d\n", shm_rank,
95                bases[shm_nproc - 1][0], shm_nproc - 1, 0, 0);
96     }
97
98     MPI_Win_unlock_all(shm_win);
99     MPI_Win_free(&shm_win);
100
101     MPI_Reduce(&errors, &all_errors, 1, MPI_INT, MPI_SUM, 0, MPI_COMM_WORLD);
102
103   exit:
104
105     if (rank == 0 && all_errors == 0)
106         printf(" No Errors\n");
107
108     MPI_Comm_free(&shm_comm);
109
110     MPI_Finalize();
111
112     if (bases)
113         free(bases);
114
115     return 0;
116 }