Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
start to clean MM smpi example
[simgrid.git] / examples / smpi / MM / 2.5D_MM.c
diff --git a/examples/smpi/MM/2.5D_MM.c b/examples/smpi/MM/2.5D_MM.c
deleted file mode 100644 (file)
index 041342e..0000000
+++ /dev/null
@@ -1,285 +0,0 @@
-/* Copyright (c) 2012-2014. The SimGrid Team.
- * All rights reserved.                                                     */
-
-/* This program is free software; you can redistribute it and/or modify it
- * under the terms of the license (GNU LGPL) which comes with this package. */
-
-/*!
- * 2.5D Block Matrix Multiplication example
- *
- */
-
-#include "Matrix_init.h"
-#include "Summa.h"
-#include "2.5D_MM.h"
-#include <stdlib.h>
-#include <stdio.h>
-#include "xbt/log.h"
-#define CHECK_25D 1
-
- XBT_LOG_NEW_DEFAULT_CATEGORY(25D_MM,
-                             "Messages specific for this msg example");
-
-double two_dot_five(
-                    size_t m, size_t k, size_t n,
-                    size_t Block_size, size_t group, size_t key,
-                    size_t size_row, size_t size_col, size_t NB_groups ){
-  double *a,  *b,  *c;
-  double *res = NULL;
-  /* Split the communicator into groups */
-
-  /* Find out my identity in the default communicator */
-  int myrank;
-  int NB_proc;
-  int err;
-  int useless = 0;
-
-
-  double time, communication_time = 0;
-  double start_time, end_time; //time mesure
-  double end_time_intern; //time mesure
-  double start_time_reduce, end_time_reduce; //time mesure
-
-  MPI_Comm my_world;
-
-  if ( group >= NB_groups ){
-    XBT_DEBUG(
-                "Not enough group NB_groups : %zu my group id : %zu\n",
-                NB_groups, group);
-    MPI_Comm_split(MPI_COMM_WORLD, 0, key, &my_world);
-    return -1;
-  }else{
-    MPI_Comm_split(MPI_COMM_WORLD, 1, key, &my_world);
-  }
-
-  MPI_Comm_size (my_world, &NB_proc);
-
-  if ( NB_proc < (int)(size_row*size_col*NB_groups) ){
-    XBT_INFO(
-                "Not enough processors NB_proc : %d required : %zu\n",
-                NB_proc, size_row*size_col*NB_groups);
-    return -1;
-  }
-
-
-
-  MPI_Comm group_comm;
-  MPI_Comm_split(my_world, group, key, &group_comm);
-
-  MPI_Comm_rank(group_comm, &myrank);
-  MPI_Comm_size (group_comm, &NB_proc);
-  /* for each group start the execution of his */
-
-
-  NB_proc=size_row*size_col;
-  size_t row = myrank / size_row;
-  size_t col = myrank % size_row;
-
-
-
-
-  /*-------------------------Check some mandatory conditions------------------*/
-  size_t NB_Block = k / Block_size;
-  if ( k % Block_size != 0 ){
-    XBT_INFO(
-                "The matrix size has to be proportionnal to the number\
-                of blocks: %zu\n", NB_Block);
-    return -1;
-  }
-
-  if ( size_row > NB_Block || size_col > NB_Block ){
-    XBT_INFO(
-                "Number of blocks is too small compare to the number of"
-                " processors (%zu,%zu) in a row or a col (%zu)\n",
-                size_col, size_row, NB_Block);
-    return -1;
-  }
-
-  if ( NB_Block % size_row != 0 || NB_Block % size_col != 0){
-    XBT_INFO("The number of Block by processor is not an %s",
-                "integer\n");
-    return -1;
-  }
-
-
-
-  if(row >= size_col || col >= size_row){
-    XBT_INFO( "I'm useless bye!!! col: %zu row: %zu, "
-                "size_col: %zu , size_row: %zu \n",
-                col,row,size_col,size_row);
-    useless = 1;
-  }
-
-
-  if(useless == 1){
-    /*----------------------Prepare the Communication Layer-------------------*/
-    /* add useless processor on a new color to execute the matrix
-     * multiplication with the other processors*/
-
-    /* Split comm size_to row and column comms */
-    MPI_Comm row_comm, col_comm, group_line;
-    MPI_Comm_split(my_world, myrank, MPI_UNDEFINED, &group_line);
-    /* color by row, rank by column */
-    MPI_Comm_split(group_comm, size_row, MPI_UNDEFINED, &row_comm);
-    /* color by column, rank by row */
-    MPI_Comm_split(group_comm, size_col, MPI_UNDEFINED, &col_comm);
-    /*------------------------Communication Layer can be used-----------------*/
-
-    return 0;
-  }
-  XBT_DEBUG( "I'm initialized col: %zu row: %zu, "
-              "size_col: %zu , size_row: %zu, my rank: %d \n"
-              ,col,row,size_col,size_row, myrank);
-
-
-
-  /*------------------------Initialize the matrices---------------------------*/
-
-  /* think about a common interface
-   *  int pdgemm( CblasRowMajor, CblasNoTrans, CblasNoTrans,
-   *                 m, n, k, alpha, a, ia, ja, lda, b, ib, jb, ldb,
-   *                 beta, c, ldc, Comm, rank );
-   */
-
-  /*------------------------Prepare the Communication Layer-------------------*/
-  /* Split comm size_to row and column comms */
-  MPI_Comm row_comm, col_comm, group_line;
-  MPI_Comm_split(my_world, myrank, group, &group_line);
-  /* color by row, rank by column */
-  MPI_Comm_split(group_comm, row, col, &row_comm);
-  /* color by column, rank by row */
-  MPI_Comm_split(group_comm, col, row, &col_comm);
-  /*-------------------------Communication Layer can be used------------------*/
-
-  // matrix sizes
-  m   = m   / size_col;
-  n   = n   / size_row;
-  size_t k_a = k / size_row;
-  size_t k_b = k / size_col;
-
-
-
-  /*only on the group 0*/
-  if( group == 0 ) {
-    matrices_initialisation(&a, &b, &c, m, k_a, k_b, n, row, col);
-    if( NB_groups > 1 ) res = malloc( sizeof(double)*m*n );
-  } else matrices_allocation(&a, &b, &c, m, k_a, k_b, n);
-
-
-  /*-------------------Configuration for Summa algorihtm--------------------*/
-  /*--------------------Allocation of matrices block-------------------------*/
-  double *a_Summa, *b_Summa;
-  blocks_initialisation(&a_Summa, &b_Summa, m, Block_size, n);
-
-  /*--------------------Communication types for MPI--------------------------*/
-  MPI_Datatype Block_a;
-  MPI_Datatype Block_a_local;
-  MPI_Datatype Block_b;
-  MPI_Type_vector(m , Block_size, k_a, MPI_DOUBLE, &Block_a);
-  MPI_Type_vector(m , Block_size, Block_size, MPI_DOUBLE, &Block_a_local);
-  MPI_Type_vector(Block_size, n, n, MPI_DOUBLE, &Block_b);
-  MPI_Type_commit(&Block_a);
-  MPI_Type_commit(&Block_a_local);
-  MPI_Type_commit(&Block_b);
-  /*-------------Communication types for MPI are configured------------------*/
-
-
-
-
-  MPI_Barrier(my_world);
-  start_time = MPI_Wtime();
-  if( NB_groups > 1 ) {
-    err = MPI_Bcast(a, m*k_a, MPI_DOUBLE, 0, group_line);
-    if (err != MPI_SUCCESS) {
-      perror("Error Bcast A\n");
-      return -1;
-    }
-    err = MPI_Bcast(b, n*k_b, MPI_DOUBLE, 0, group_line);
-    if (err != MPI_SUCCESS) {
-      perror("Error Bcast B\n");
-      return -1;
-    }
-    MPI_Barrier(my_world);
-  }
-  end_time_intern = MPI_Wtime();
-  communication_time += end_time_intern - start_time;
-
-  XBT_INFO( "group %zu NB_block: %zu, NB_groups %zu\n"
-              ,group,NB_Block, NB_groups);
-  XBT_INFO(
-              "m %zu,  k_a %zu,  k_b %zu,  n %zu,  Block_size %zu, "
-              "group*NB_Block/NB_groups %zu, "
-              "(group+1)*NB_Block/NB_groups %zu, row %zu,  col %zu,"
-              "size_row %zu,  size_col %zu\n" ,
-              m, k_a, k_b, n, Block_size,
-              group*NB_Block/NB_groups, (group+1)*NB_Block/NB_groups,
-              row, col, size_row, size_col);
-
-
-  Summa( a, b, c, k_a, n, n, m, k_a, k_b, n, Block_size,
-          group*NB_Block/NB_groups, (group+1)*NB_Block/NB_groups,
-          row, col, size_row, size_col, a_Summa, b_Summa, Block_a,
-          Block_a_local, Block_b, row_comm, col_comm, 0);
-
-  /*-------------------------End Summa algorihtm-----------------------------*/
-
-  MPI_Comm_rank(group_line, &myrank);
-
-  MPI_Barrier(my_world);
-  start_time_reduce = MPI_Wtime();
-  if( NB_groups > 1 ) {
-    // a gather is better?
-    err = MPI_Reduce(c, res, m*n, MPI_DOUBLE, MPI_SUM, 0, group_line);
-    if (err != MPI_SUCCESS) {
-      perror("Error Bcast A\n");
-      return -1;
-    }
-  }else{
-    double *swap= c;
-    c = res;
-    res=swap;
-  }
-  MPI_Barrier(my_world);
-  end_time_reduce = MPI_Wtime();
-
-  MPI_Barrier(my_world);
-  end_time = MPI_Wtime();
-  time = end_time - start_time;
-  double reduce_time = end_time_reduce - start_time_reduce;
-  printf("communication time: %e reduce time: %e seconds, "
-         "total time: %e seconds\n",communication_time,reduce_time,time);
-  MPI_Barrier(my_world);
-
-#if CHECK_25D
-  if(myrank == 0)
-    check_result(res, a, b, m, n, k_a, k_b, row, col, size_row, size_col);
-#endif
-
-  // close properly the pragram
-
-  MPI_Type_free(&Block_a);
-  MPI_Type_free(&Block_a_local);
-  MPI_Type_free(&Block_b);
-
-  free(a_Summa);
-  free(b_Summa);
-
-
-  free( a );
-  free( b );
-  if( NB_groups > 1 ) {
-    free( c );
-  }
-  free(res);
-
-  MPI_Barrier(MPI_COMM_WORLD);
-  MPI_Comm_free(&my_world);
-  MPI_Comm_free(&group_comm);
-  MPI_Comm_free(&group_line);
-  MPI_Comm_free(&row_comm);
-  MPI_Comm_free(&col_comm);
-  return 0;
-}
-
-
-