Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Messages which the payload datatype descriptor is NULL contain 0 bytes as payload...
[simgrid.git] / TODO
1 ###
2 ### Ongoing stuff
3 ###
4
5
6 ###
7 ### Planned
8 ###
9
10 *
11 * Infrastructure
12 ****************
13
14 [autoconf]
15   * Check the gcc version on powerpc. We disabled -floop-optimize on powerpc,
16     but versions above 3.4.0 should be ok.
17   * check whether we have better than jmp_buf to implement exceptions, and
18     use it (may need to generate a public .h, as glib does)
19
20 *
21 * XBT
22 *****
23
24 [doc]
25   * graphic showing:
26     (errors, logs ; dynars, dicts, hooks, pools; config, rrdb)
27
28 [portability layer]
29   * Mallocators and/or memory pool so that we can cleanly kill an actor
30
31 [errors/exception]
32   * Better split casual errors from programing errors.
33     The first ones should be repported to the user, the second should kill
34     the program (or, yet better, only the msg handler)
35   * Allows the use of an error handler depending on the current module (ie,
36     the same philosophy than log4c using GSL's error functions)
37
38 [logs]
39   * Hijack message from a given category to another for a while (to mask
40     initializations, and more)
41   * Allow each actor to have its own setting
42   * a init/exit mecanism for logging appender
43   * Several appenders; fix the setting stuff to change the appender
44   * more logging appenders (take those from Ralf in l2)
45
46 [dict]
47   * speed up the cursors, for example using the contexts when available
48
49 [modules]
50   * better formalisation of what modules are (amok deeply needs it)
51     configuration + init() + exit() + dependencies
52   * allow to load them at runtime
53     check in erlang how they upgrade them without downtime
54
55 [other modules]
56   * we may need a round-robin database module, and a statistical one
57   * a hook module *may* help cleaning up some parts. Not sure yet.
58   * Some of the datacontainer modules seem to overlap. Kill some of them?
59
60 *
61 * GRAS
62 ******
63
64 [doc]
65   * add the token ring as official example
66   * implement the P2P protocols that macedon does. They constitute great
67     examples, too
68
69 [transport]  
70   * Spawn threads handling the communication
71     - Data sending cannot be delegated if we want to be kept informed
72       (*easily*) of errors here.
73       - Actor execution flow shouldn't be interrupted
74       - It should be allowed to access (both in read and write access) 
75         any data available (ie, referenced) from the actor without 
76         requesting to check for a condition before.
77         (in other word, no mutex or assimilated)
78       - I know that enforcing those rules prevent the implementation of
79         really cleaver stuff. Keeping the stuff simple for the users is more
80         important to me than allowing them to do cleaver tricks. Black magic
81         should be done *within* gras to reach a good performance level.
82
83     - Data receiving can be delegated (and should)
84       The first step here is a "simple" mailbox mecanism, with a fifo of
85         messages protected by semaphore.
86       The rest is rather straightforward too.
87
88   * use poll(2) instead of select(2) when available. (first need to check
89     the advantage of doing so ;)
90
91     Another idea we spoke about was to simulate this feature with a bunch of
92     threads blocked in a read(1) on each incomming socket. The latency is
93     reduced by the cost of a syscall, but the more I think about it, the
94     less I find the idea adapted to our context.
95
96   * timeout the send/recv too (hard to do in RL)
97   * Adaptative timeout
98   * multiplex on incoming SOAP over HTTP (once datadesc can deal with it)
99
100   * The module syntax/API is too complex. 
101     - Everybody opens a server socket (or almost), and nobody open two of
102       them. This should be done automatically without user intervention.
103     - I'd like to offer the possibility to speak to someone, not to speak on
104       a socket. Users shouldn't care about such technical details. 
105     - the idea of host_cookie in NWS seem to match my needs, but we still
106       need a proper name ;)
107     - this would allow to exchange a "socket" between peer :)
108     - the creation needs to identify the peer actor within the process
109
110   * when a send failed because the socket was closed on the other side, 
111     try to reopen it seamlessly. Needs exceptions or another way to
112     differentiate between the several system_error.
113   * cache accepted sockets and close the old ones after a while. 
114     Depends on the previous item; difficult to achieve with firewalls
115
116 [datadesc]
117   * Implement gras_datadesc_cpy to speedup things in the simulator
118     (and allow to have several "actors" within the same unix process).
119     For now, we mimick closely the RL even in SG. It was easier to do
120       since the datadesc layer is unchanged, but it is not needed and
121       hinders performance.
122     gras_datadesc_cpy needs to provide the size of the corresponding messages, so
123      that we can report it into the simulator.
124   * Add a XML wire protocol alongside to the binary one (for SOAP/HTTP)
125   * cbps:
126     - Error handling
127     - Regression tests
128   * Inter-arch conversions
129     - Port to ARM
130     - Convert in the same buffer when size increase
131     - Exchange (on net) structures in one shoot when possible.
132     - Port to really exotic platforms (Cray is not IEEE ;)
133   * datadesc_set_cste: give the value by default when receiving. 
134     - It's not transfered anymore, which is good for functions pointer.
135   * Parsing macro
136     - Cleanup the code (bison?)
137     - Factorize code in union/struct field adding
138     - Handle typedefs (needs love from DataDesc/)
139     - Handle unions with annotate
140     - Handle enum
141     - Handle long long and long double
142     - Forbid "char", allow "signed char" and "unsigned char", or user code won't be 
143       portable to ARM, at least.
144     - Handle struct/union/enum embeeded within another container 
145       (needs modifications in DataDesc, too)
146  
147     - Check short a, b;
148     - Check short ***
149     - Check struct { struct { int a } b; } 
150
151   * gras_datadesc_import_nws?
152
153 [Messaging]
154   * A proper RPC mecanism
155     - gras_rpctype_declare_v (name,ver, payload_request, payload_answer)
156       (or gras_msgtype_declare_rpc_v). 
157     - Attaching a cb works the same way.
158     - gras_msg_rpc(peer, &request, &answer)
159     - On the wire, a byte indicate the message type:
160       - 0: one-way message (what we have for now)
161       - 1: method call (answer expected; sessionID attached)
162       - 2: successful return (usual datatype attached, with sessionID)
163       - 3: error return (payload = exception)
164       - other message types are possible (forwarding request, group
165         communication)
166   * Message priority
167   * Message forwarding
168   * Group communication
169   * Message declarations in a tree manner (such as log channels)?
170   
171 [GRASPE] (platform expender) 
172   * Tool to visualize/deploy and manage in RL
173   * pull method of source diffusion in graspe-slave
174
175 [Actors] (parallelism in GRAS)
176   * An actor is a user process. 
177     It has a highly sequential control flow from its birth until its death. 
178     The timers won't stop the current execution to branch elsewhere, they
179     will be delayed until the actor is ready to listen. Likewise, no signal
180     delivery. The goal is to KISS for users.
181   * You can fork a new actor, even on remote hosts. 
182   * They are implemented as threads in RL, but this is still a distributed
183     memory *model*. If you want to share data with another actor, send it
184     using the message interface to explicit who's responsible of this data.
185   * data exchange between actors placed within the same UNIX process is  
186     *implemented* by memcopy, but that's an implementation detail.
187
188 [Other, more general issues]
189   * watchdog in RL (ie, while (1) { fork; exec the child, wait in father })
190   * Allow [homogeneous] dico to be sent
191   * Make GRAS thread safe by mutexing what needs to be
192
193 *
194 * AMOK
195 ******
196
197 [bandwidth]
198   * finish this module (still missing the saturate part)
199   * add a version guessing the appropriate datasizes automatically
200 [other modules]
201   * provide a way to retrieve the host load as in NWS
202   * log control, management, dynamic token ring
203   * a way using SSH to ask a remote host to open a socket back on me
204