Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Add io test in mpich testsuite.
[simgrid.git] / teshsuite / smpi / mpich3-test / io / i_hindexed_io.c
1 /* -*- Mode: C; c-basic-offset:4 ; indent-tabs-mode:nil ; -*- */
2 /*
3  *  (C) 2014 by Argonne National Laboratory.
4  *      See COPYRIGHT in top-level directory.
5  */
6 #include <mpi.h>
7 #include <stdio.h>
8 #include <string.h>
9 #include <stdlib.h>
10 #include <unistd.h>
11
12 #define DATA_SIZE 324*4
13 #define PAD 256
14 #define HEADER 144
15 #define BLK_COUNT 3
16
17 static void handle_error(int errcode, const char *str)
18 {
19     char msg[MPI_MAX_ERROR_STRING];
20     int resultlen;
21     MPI_Error_string(errcode, msg, &resultlen);
22     fprintf(stderr, "%s: %s\n", str, msg);
23     MPI_Abort(MPI_COMM_WORLD, 1);
24 }
25
26 #define CHECK(fn) { int errcode; errcode = (fn); if (errcode != MPI_SUCCESS) handle_error(errcode, #fn); }
27
28 int main(int argc, char **argv)
29 {
30     MPI_File fh;
31     MPI_Datatype file_type, mem_type;
32     int *data = NULL;
33     int *verify = NULL;
34     int data_size = DATA_SIZE;
35     int i, j, k, nr_errors = 0;
36     MPI_Aint disp[BLK_COUNT];
37
38     char *filename = (char*)"unnamed.dat";
39     MPI_Status status;
40     MPI_Request request;
41
42     MPI_Init(&argc, &argv);
43     disp[0] = (MPI_Aint) (PAD);
44     disp[1] = (MPI_Aint) (data_size * 1 + PAD);
45     disp[2] = (MPI_Aint) (data_size * 2 + PAD);
46
47     data = malloc(data_size);
48     verify = malloc(data_size * BLK_COUNT + HEADER + PAD);
49     for (i = 0; i < data_size / sizeof(int); i++)
50         data[i] = i;
51
52     MPI_Type_create_hindexed_block(BLK_COUNT, data_size, disp, MPI_BYTE, &file_type);
53     MPI_Type_commit(&file_type);
54
55     MPI_Type_create_hvector(BLK_COUNT, data_size, 0, MPI_BYTE, &mem_type);
56     MPI_Type_commit(&mem_type);
57
58     if (1 < argc)
59         filename = argv[1];
60
61     CHECK(MPI_File_open(MPI_COMM_WORLD, filename,
62                         MPI_MODE_RDWR | MPI_MODE_CREATE | MPI_MODE_DELETE_ON_CLOSE,
63                         MPI_INFO_NULL, &fh) != 0);
64
65     CHECK(MPI_File_set_view(fh, HEADER, MPI_BYTE, file_type, "native", MPI_INFO_NULL));
66
67     /* write everything */
68     CHECK(MPI_File_iwrite_at_all(fh, 0, data, 1, mem_type, &request));
69     MPI_Wait(&request, &status);
70
71     /* verify */
72     CHECK(MPI_File_set_view(fh, 0, MPI_BYTE, MPI_BYTE, "native", MPI_INFO_NULL));
73     CHECK(MPI_File_iread_at_all(fh, 0,
74                                 verify, (HEADER + PAD + BLK_COUNT * DATA_SIZE) / sizeof(int),
75                                 MPI_INT, &request));
76     MPI_Wait(&request, &status);
77
78     /* header and block padding should have no data */
79     for (i = 0; i < (HEADER + PAD) / sizeof(int); i++) {
80         if (verify[i] != 0) {
81             nr_errors++;
82             fprintf(stderr, "expected 0, read %d\n", verify[i]);
83         }
84     }
85     /* blocks are replicated */
86     for (j = 0; j < BLK_COUNT; j++) {
87         for (k = 0; k < (DATA_SIZE / sizeof(int)); k++) {
88             if (verify[(HEADER + PAD) / sizeof(int) + k + j * (DATA_SIZE / sizeof(int))]
89                 != data[k]) {
90                 nr_errors++;
91                 fprintf(stderr, "expcted %d, read %d\n", data[k],
92                         verify[(HEADER + PAD) / sizeof(int) + k + j * (DATA_SIZE / sizeof(int))]);
93             }
94             i++;
95         }
96     }
97
98     MPI_File_close(&fh);
99
100     MPI_Type_free(&mem_type);
101     MPI_Type_free(&file_type);
102
103     if (nr_errors == 0)
104         printf(" No Errors\n");
105
106     MPI_Finalize();
107
108     free(data);
109     free(verify);
110     return 0;
111 }