Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
This particular RMA test is filled with stupid calls... We send errors for most of...
[simgrid.git] / teshsuite / smpi / mpich3-test / rma / selfrma.c
index ca8ae4b..6a8b4f0 100644 (file)
 static char MTEST_Descrip[] = "RMA to self";
 */
 
-int main( int argc, char *argv[] )
+int main(int argc, char *argv[])
 {
     int errs = 0;
     int rank, size, i, j;
-    MPI_Comm      comm;
-    MPI_Win       win;
-    int           *winbuf, count;
-    int           *sbuf, scount, vcount;
-    MPI_Datatype  vectype;
+    MPI_Comm comm;
+    MPI_Win win;
+    int *winbuf, count;
+    int *sbuf, scount, vcount;
+    MPI_Datatype vectype;
 
-    MTest_Init( &argc, &argv );
+    MTest_Init(&argc, &argv);
 
     comm = MPI_COMM_WORLD;
 
-    MPI_Comm_rank( comm, &rank );
-    MPI_Comm_size( comm, &size );
+    MPI_Comm_rank(comm, &rank);
+    MPI_Comm_size(comm, &size);
 
     /* Allocate and initialize sbuf */
     scount = 1000;
-    count  = 1000;
-    sbuf   = (int *)malloc( scount * sizeof(int) );
+    count = 1000;
+    sbuf = (int *) malloc(scount * sizeof(int));
     if (!sbuf) {
-       fprintf( stderr, "Could not allocate send buffer f size %d\n", 
-                scount );
-       MPI_Abort( MPI_COMM_WORLD, 0 );
+        fprintf(stderr, "Could not allocate send buffer f size %d\n", scount);
+        MPI_Abort(MPI_COMM_WORLD, 0);
     }
-    for (i=0; i<scount; i++) sbuf[i] = i;
+    for (i = 0; i < scount; i++)
+        sbuf[i] = i;
 
-    MPI_Alloc_mem( count*sizeof(int), MPI_INFO_NULL, &winbuf );
+    MPI_Alloc_mem(count * sizeof(int), MPI_INFO_NULL, &winbuf);
 
     /* This is a simple vector type */
     vcount = count / 4;
-    MPI_Type_vector( vcount, 1, 2, MPI_INT, &vectype );
-    MPI_Type_commit( &vectype );
-    MPI_Win_create( winbuf, count * sizeof(int), sizeof(int), MPI_INFO_NULL, 
-                   comm, &win );
+    MPI_Type_vector(vcount, 1, 2, MPI_INT, &vectype);
+    MPI_Type_commit(&vectype);
+    MPI_Win_create(winbuf, count * sizeof(int), sizeof(int), MPI_INFO_NULL, comm, &win);
+
+    /* Check with different combination of types, including non-contig on
+     * both sides */
 
-    /* Check with different combination of types, including non-contig on 
-       both sides */
-    
     /* Clear winbuf */
-    memset( winbuf, 0, count*sizeof(int) );
-    MPI_Win_lock( MPI_LOCK_EXCLUSIVE, rank, 0, win );
-    MPI_Put( sbuf, 1, vectype, rank, 0, 1, vectype, win );
-    MPI_Win_unlock( rank, win );
+    memset(winbuf, 0, count * sizeof(int));
+    MPI_Win_lock(MPI_LOCK_EXCLUSIVE, rank, 0, win);
+    MPI_Put(sbuf, 1, vectype, rank, 0, 1, vectype, win);
+    MPI_Win_unlock(rank, win);
     /* Check results */
     j = 0;
-    for (i=0; i<vcount; i++) {
-       if (winbuf[j] != sbuf[j]) {
-           errs ++;
-           fprintf( stderr, "VecPut: winbuf[%d] = %d, should = %d\n", 
-                    winbuf[j], j, sbuf[j] );
-       }
-       j += 2;
+    for (i = 0; i < vcount; i++) {
+        if (winbuf[j] != sbuf[j]) {
+            errs++;
+            fprintf(stderr, "VecPut: winbuf[%d] = %d, should = %d\n", j, winbuf[j], sbuf[j]);
+        }
+        j += 2;
     }
 
-    memset( winbuf, 0, count*sizeof(int) );
-    MPI_Win_lock( MPI_LOCK_SHARED, rank, 0, win );
-    MPI_Accumulate( sbuf, 1, vectype, rank, 0, 1, vectype, MPI_SUM, win );
-    MPI_Win_unlock( rank, win );
+    memset(winbuf, 0, count * sizeof(int));
+    MPI_Win_lock(MPI_LOCK_SHARED, rank, 0, win);
+    MPI_Accumulate(sbuf, 1, vectype, rank, 0, 1, vectype, MPI_SUM, win);
+    MPI_Win_unlock(rank, win);
     /* Check results */
     j = 0;
-    for (i=0; i<vcount; i++) {
-       if (winbuf[j] != sbuf[j]) {
-           errs ++;
-           fprintf( stderr, "VecAcc: winbuf[%d] = %d, should = %d\n", 
-                    winbuf[j], j, sbuf[j] );
-       }
-       j += 2;
+    for (i = 0; i < vcount; i++) {
+        if (winbuf[j] != sbuf[j]) {
+            errs++;
+            fprintf(stderr, "VecAcc: winbuf[%d] = %d, should = %d\n", j, winbuf[j], sbuf[j]);
+        }
+        j += 2;
     }
 
     /* Now, use get to fetch back the results that we just wrote */
-    memset( sbuf, 0, count*sizeof(int) );
-    MPI_Win_lock( MPI_LOCK_SHARED, rank, 0, win );
-    MPI_Get( sbuf, 1, vectype, rank, 0, 1, vectype, win );
-    MPI_Win_unlock( rank, win );
+    memset(sbuf, 0, count * sizeof(int));
+    MPI_Win_lock(MPI_LOCK_SHARED, rank, 0, win);
+    MPI_Get(sbuf, 1, vectype, rank, 0, 1, vectype, win);
+    MPI_Win_unlock(rank, win);
     /* Check results */
     j = 0;
-    for (i=0; i<vcount; i++) {
-       if (winbuf[j] != sbuf[j]) {
-           errs ++;
-           fprintf( stderr, "VecAcc: winbuf[%d] = %d, should = %d\n", 
-                    winbuf[j], j, sbuf[j] );
-       }
-       j += 2;
+    for (i = 0; i < vcount; i++) {
+        if (winbuf[j] != sbuf[j]) {
+            errs++;
+            fprintf(stderr, "VecAcc: winbuf[%d] = %d, should = %d\n", j, winbuf[j], sbuf[j]);
+        }
+        j += 2;
     }
 
-    MPI_Win_free( &win );
-    MPI_Free_mem( winbuf );
-    free( sbuf );
-    MPI_Type_free( &vectype );
+    MPI_Win_free(&win);
+    MPI_Free_mem(winbuf);
+    free(sbuf);
+    MPI_Type_free(&vectype);
 
-    MTest_Finalize( errs );
+    MTest_Finalize(errs);
 
     MPI_Finalize();
     return 0;