Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
add MPI_Probe and MPI_Iprobe support, and better handling of the MPI_Status structure...
[simgrid.git] / src / smpi / private.h
index c87a523..f32ddc6 100644 (file)
@@ -9,10 +9,11 @@
 
 #include "xbt.h"
 #include "xbt/xbt_os_time.h"
-#include "simix/simix.h"
+#include "simgrid/simix.h"
 #include "smpi/smpi.h"
 #include "smpi/smpif.h"
-#include "instr/private.h"
+#include "smpi/smpi_cocci.h"
+#include "instr/instr_private.h"
 
 struct s_smpi_process_data;
 typedef struct s_smpi_process_data *smpi_process_data_t;
@@ -29,10 +30,7 @@ typedef struct s_smpi_mpi_request {
   int dst;
   int tag;
   MPI_Comm comm;
-  smx_rdv_t rdv;
-  smx_comm_t pair;
-  int complete;
-  MPI_Request match;
+  smx_action_t action;
   unsigned flags;
 #ifdef HAVE_TRACING
   int send;
@@ -42,18 +40,22 @@ typedef struct s_smpi_mpi_request {
 
 void smpi_process_init(int *argc, char ***argv);
 void smpi_process_destroy(void);
+void smpi_process_finalize(void);
 
 smpi_process_data_t smpi_process_data(void);
 smpi_process_data_t smpi_process_remote_data(int index);
+void smpi_process_set_user_data(void *);
+void* smpi_process_get_user_data(void);
 int smpi_process_count(void);
-int smpi_process_index(void);
+smx_rdv_t smpi_process_mailbox(void);
+smx_rdv_t smpi_process_remote_mailbox(int index);
+smx_rdv_t smpi_process_mailbox_small(void);
+smx_rdv_t smpi_process_remote_mailbox_small(int index);
 xbt_os_timer_t smpi_process_timer(void);
 void smpi_process_simulated_start(void);
 double smpi_process_simulated_elapsed(void);
 
 void print_request(const char *message, MPI_Request request);
-void smpi_process_post_send(MPI_Comm comm, MPI_Request request);
-void smpi_process_post_recv(MPI_Request request);
 
 void smpi_global_init(void);
 void smpi_global_destroy(void);
@@ -86,6 +88,7 @@ MPI_Comm smpi_comm_new(MPI_Group group);
 void smpi_comm_destroy(MPI_Comm comm);
 MPI_Group smpi_comm_group(MPI_Comm comm);
 int smpi_comm_size(MPI_Comm comm);
+void smpi_comm_get_name(MPI_Comm comm, char* name, int* len);
 int smpi_comm_rank(MPI_Comm comm);
 MPI_Comm smpi_comm_split(MPI_Comm comm, int color, int key);
 
@@ -115,6 +118,9 @@ void smpi_mpi_sendrecv(void *sendbuf, int sendcount, MPI_Datatype sendtype,
 int smpi_mpi_test(MPI_Request * request, MPI_Status * status);
 int smpi_mpi_testany(int count, MPI_Request requests[], int *index,
                      MPI_Status * status);
+void smpi_mpi_probe(int source, int tag, MPI_Comm comm, MPI_Status* status);
+MPI_Request smpi_mpi_iprobe(int source, int tag, MPI_Comm comm, int* flag,
+                    MPI_Status* status);
 int smpi_mpi_get_count(MPI_Status * status, MPI_Datatype datatype);
 void smpi_mpi_wait(MPI_Request * request, MPI_Status * status);
 int smpi_mpi_waitany(int count, MPI_Request requests[],
@@ -181,6 +187,7 @@ int smpi_coll_basic_alltoallv(void *sendbuf, int *sendcounts,
 void smpi_bench_destroy(void);
 void smpi_bench_begin(void);
 void smpi_bench_end(void);
+void smpi_execute_flops(double flops);
 
 // f77 wrappers
 void mpi_init__(int*);