Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Multiply memset size by size of element in umpire.
[simgrid.git] / teshsuite / smpi / isp / umpire / lost-request3.c
1 /* -*- Mode: C; -*- */
2 /* Creator: Bronis R. de Supinski (bronis@llnl.gov) Fri Dec 20 2002 */
3 /* lost-request3.c -- lose lots of requests */
4
5 #ifndef lint
6 static char *rcsid =
7   "$Header: /usr/gapps/asde/cvs-vault/umpire/tests/lost-request3.c,v 1.1 2003/01/13 18:31:48 bronis Exp $";
8 #endif
9
10
11 /* NOTE: Some value of ITERATIONS will imply resource exhaustion */
12 /*       either in Umpire or MPI no matter how things are implemented */
13 /*       the best we can hope for is to fail gracefully... */
14 /* UNKNOWN N breaks umpire due to running out of memory as of 12/20/02... */
15 /* FAILURE IS NOT GRACEFUL AS OF THIS TIME... */
16 #define ITERATIONS                10000
17 #define REQS_PER_ITERATION            3
18 #define REQS_LOST_PER_ITERATION       1
19
20
21 #include <stdio.h>
22 #include "mpi.h"
23
24 #define buf_size 128
25
26
27 int
28 main (int argc, char **argv)
29 {
30   int nprocs = -1;
31   int rank = -1;
32   int i, j;
33   char processor_name[128];
34   int namelen = 128;
35   int buf[buf_size * REQS_PER_ITERATION];
36   MPI_Request req[REQS_PER_ITERATION];
37   MPI_Status statuses[REQS_PER_ITERATION];
38
39   /* init */
40   MPI_Init (&argc, &argv);
41   MPI_Comm_size (MPI_COMM_WORLD, &nprocs);
42   MPI_Comm_rank (MPI_COMM_WORLD, &rank);
43   MPI_Get_processor_name (processor_name, &namelen);
44   printf ("(%d) is alive on %s\n", rank, processor_name);
45   fflush (stdout);
46
47   MPI_Barrier(MPI_COMM_WORLD);
48
49   /* 0 sends 1 two messages, but the request gets overwritten */
50   switch (rank)
51     {
52     case 0:
53       for (i = 0; i < ITERATIONS; i++) {
54         memset (buf, 1, buf_size*sizeof(int) * REQS_PER_ITERATION);
55
56         for (j = 0; j < REQS_PER_ITERATION; j++) {
57           MPI_Isend (&buf[j*buf_size], buf_size, MPI_INT,
58                      1, j, MPI_COMM_WORLD, &req[j]);
59         }
60
61         MPI_Waitall (REQS_PER_ITERATION, req, statuses);
62       }
63
64       break;
65
66     case 1:
67       for (i = 0; i < ITERATIONS; i++) {
68         memset (buf, 2, buf_size*sizeof(int) * REQS_PER_ITERATION);
69
70         for (j = 0; j < REQS_PER_ITERATION; j++) {
71           MPI_Irecv (&buf[j*buf_size], buf_size, MPI_INT,
72                      0, j, MPI_COMM_WORLD, &req[j]);
73         }
74
75         /* do some work here and get confused */
76         MPI_Waitall(REQS_PER_ITERATION-REQS_LOST_PER_ITERATION,req,statuses);
77       }
78
79       break;
80
81     default:
82       /* do nothing */
83       break;
84     }
85
86   MPI_Finalize ();
87   printf ("(%d) Finished normally\n", rank);
88 }
89
90 /* EOF */