vcl: support for eventfd mq signaling
[vpp.git] / src / vnet / session / application_interface.h
1 /*
2  * Copyright (c) 2016 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 #ifndef __included_uri_h__
16 #define __included_uri_h__
17
18 #include <svm/svm_fifo_segment.h>
19 #include <vnet/session/session.h>
20 #include <vnet/session/application.h>
21 #include <vnet/session/transport.h>
22 #include <vnet/tls/tls.h>
23
24 typedef struct _vnet_app_attach_args_t
25 {
26   /** Binary API client index */
27   u32 api_client_index;
28
29   /** Application name. Used by builtin apps */
30   u8 *name;
31
32   /** Application and segment manager options */
33   u64 *options;
34
35   /** ID of the namespace the app has access to */
36   u8 *namespace_id;
37
38   /** Session to application callback functions */
39   session_cb_vft_t *session_cb_vft;
40
41   /*
42    * Results
43    */
44   ssvm_private_t *segment;
45   svm_msg_q_t *app_evt_q;
46   u32 app_index;
47 } vnet_app_attach_args_t;
48
49 typedef struct _vnet_app_detach_args_t
50 {
51   u32 app_index;
52 } vnet_app_detach_args_t;
53
54 typedef struct _vnet_bind_args_t
55 {
56   union
57   {
58     char *uri;
59     session_endpoint_t sep;
60   };
61
62   u32 app_index;
63
64   /*
65    * Results
66    */
67   char *segment_name;
68   u32 segment_name_length;
69   u64 server_event_queue_address;
70   u64 handle;
71 } vnet_bind_args_t;
72
73 typedef struct _vnet_unbind_args_t
74 {
75   union
76   {
77     char *uri;
78     u64 handle;
79   };
80   u32 app_index;
81 } vnet_unbind_args_t;
82
83 typedef struct _vnet_connect_args
84 {
85   union
86   {
87     char *uri;
88     session_endpoint_extended_t sep;
89   };
90   u32 app_index;
91   u32 api_context;
92
93   session_handle_t session_handle;
94 } vnet_connect_args_t;
95
96 typedef struct _vnet_disconnect_args_t
97 {
98   session_handle_t handle;
99   u32 app_index;
100 } vnet_disconnect_args_t;
101
102 typedef struct _vnet_application_add_tls_cert_args_t
103 {
104   u32 app_index;
105   u8 *cert;
106 } vnet_app_add_tls_cert_args_t;
107
108 typedef struct _vnet_application_add_tls_key_args_t
109 {
110   u32 app_index;
111   u8 *key;
112 } vnet_app_add_tls_key_args_t;
113
114 /* Application attach options */
115 typedef enum
116 {
117   APP_OPTIONS_FLAGS,
118   APP_OPTIONS_EVT_QUEUE_SIZE,
119   APP_OPTIONS_SEGMENT_SIZE,
120   APP_OPTIONS_ADD_SEGMENT_SIZE,
121   APP_OPTIONS_PRIVATE_SEGMENT_COUNT,
122   APP_OPTIONS_RX_FIFO_SIZE,
123   APP_OPTIONS_TX_FIFO_SIZE,
124   APP_OPTIONS_PREALLOC_FIFO_PAIRS,
125   APP_OPTIONS_NAMESPACE,
126   APP_OPTIONS_NAMESPACE_SECRET,
127   APP_OPTIONS_PROXY_TRANSPORT,
128   APP_OPTIONS_ACCEPT_COOKIE,
129   APP_OPTIONS_TLS_ENGINE,
130   APP_OPTIONS_N_OPTIONS
131 } app_attach_options_index_t;
132
133 #define foreach_app_options_flags                               \
134   _(ACCEPT_REDIRECT, "Use FIFO with redirects")                 \
135   _(ADD_SEGMENT, "Add segment and signal app if needed")        \
136   _(IS_BUILTIN, "Application is builtin")                       \
137   _(IS_PROXY, "Application is proxying")                        \
138   _(USE_GLOBAL_SCOPE, "App can use global session scope")       \
139   _(USE_LOCAL_SCOPE, "App can use local session scope")         \
140   _(USE_MQ_FOR_CTRL_MSGS, "Use message queue for ctr msgs")     \
141   _(EVT_MQ_USE_EVENTFD, "Use eventfds for signaling")           \
142
143 typedef enum _app_options
144 {
145 #define _(sym, str) APP_OPTIONS_##sym,
146   foreach_app_options_flags
147 #undef _
148 } app_options_t;
149
150 typedef enum _app_options_flags
151 {
152 #define _(sym, str) APP_OPTIONS_FLAGS_##sym = 1 << APP_OPTIONS_##sym,
153   foreach_app_options_flags
154 #undef _
155 } app_options_flags_t;
156
157 #define foreach_fd_type                                         \
158   _(VPP_MQ_SEGMENT, "Fd for vpp's event mq segment")            \
159   _(MEMFD_SEGMENT, "Fd for memfd segment")                      \
160   _(MQ_EVENTFD, "Event fd used by message queue")               \
161   _(VPP_MQ_EVENTFD, "Event fd used by vpp's message queue")     \
162
163 typedef enum session_fd_type_
164 {
165 #define _(sym, str) SESSION_FD_##sym,
166   foreach_fd_type
167 #undef _
168   SESSION_N_FD_TYPE
169 } session_fd_type_t;
170
171 typedef enum session_fd_flag_
172 {
173 #define _(sym, str) SESSION_FD_F_##sym = 1 << SESSION_FD_##sym,
174   foreach_fd_type
175 #undef _
176 } session_fd_flag_t;
177
178 int vnet_bind_uri (vnet_bind_args_t *);
179 int vnet_unbind_uri (vnet_unbind_args_t * a);
180 clib_error_t *vnet_connect_uri (vnet_connect_args_t * a);
181
182 clib_error_t *vnet_application_attach (vnet_app_attach_args_t * a);
183 clib_error_t *vnet_bind (vnet_bind_args_t * a);
184 clib_error_t *vnet_connect (vnet_connect_args_t * a);
185 clib_error_t *vnet_unbind (vnet_unbind_args_t * a);
186 int vnet_application_detach (vnet_app_detach_args_t * a);
187 int vnet_disconnect_session (vnet_disconnect_args_t * a);
188
189 clib_error_t *vnet_app_add_tls_cert (vnet_app_add_tls_cert_args_t * a);
190 clib_error_t *vnet_app_add_tls_key (vnet_app_add_tls_key_args_t * a);
191
192 extern const char test_srv_crt_rsa[];
193 extern const u32 test_srv_crt_rsa_len;
194 extern const char test_srv_key_rsa[];
195 extern const u32 test_srv_key_rsa_len;
196
197 typedef struct app_session_transport_
198 {
199   ip46_address_t rmt_ip;        /**< remote ip */
200   ip46_address_t lcl_ip;        /**< local ip */
201   u16 rmt_port;                 /**< remote port (network order) */
202   u16 lcl_port;                 /**< local port (network order) */
203   u8 is_ip4;                    /**< set if uses ip4 networking */
204 } app_session_transport_t;
205
206 #define foreach_app_session_field                                       \
207   _(svm_fifo_t, *rx_fifo)               /**< rx fifo */                 \
208   _(svm_fifo_t, *tx_fifo)               /**< tx fifo */                 \
209   _(session_type_t, session_type)       /**< session type */            \
210   _(volatile u8, session_state)         /**< session state */           \
211   _(u32, session_index)                 /**< index in owning pool */    \
212   _(app_session_transport_t, transport) /**< transport info */          \
213   _(svm_msg_q_t, *vpp_evt_q)            /**< vpp event queue  */        \
214   _(u8, is_dgram)                       /**< flag for dgram mode */     \
215
216 typedef struct
217 {
218 #define _(type, name) type name;
219   foreach_app_session_field
220 #undef _
221 } app_session_t;
222
223 typedef struct session_accepted_msg_
224 {
225   u32 context;
226   u64 listener_handle;
227   u64 handle;
228   u64 server_rx_fifo;
229   u64 server_tx_fifo;
230   u64 vpp_event_queue_address;
231   u64 server_event_queue_address;
232   u64 client_event_queue_address;
233   u16 port;
234   u8 is_ip4;
235   u8 ip[16];
236 } __clib_packed session_accepted_msg_t;
237
238 typedef struct session_accepted_reply_msg_
239 {
240   u32 context;
241   i32 retval;
242   u64 handle;
243 } __clib_packed session_accepted_reply_msg_t;
244
245 /* Make sure this is not too large, otherwise it won't fit when dequeued in
246  * the session queue node */
247 STATIC_ASSERT (sizeof (session_accepted_reply_msg_t) <= 16, "accept reply");
248
249 typedef struct session_connected_msg_
250 {
251   u32 context;
252   i32 retval;
253   u64 handle;
254   u64 server_rx_fifo;
255   u64 server_tx_fifo;
256   u64 vpp_event_queue_address;
257   u64 client_event_queue_address;
258   u64 server_event_queue_address;
259   u32 segment_size;
260   u8 segment_name_length;
261   u8 segment_name[64];
262   u8 lcl_ip[16];
263   u8 is_ip4;
264   u16 lcl_port;
265 } __clib_packed session_connected_msg_t;
266
267 typedef struct session_disconnected_msg_
268 {
269   u32 client_index;
270   u32 context;
271   u64 handle;
272 } __clib_packed session_disconnected_msg_t;
273
274 typedef struct session_disconnected_reply_msg_
275 {
276   u32 context;
277   i32 retval;
278   u64 handle;
279 } __clib_packed session_disconnected_reply_msg_t;
280
281 typedef struct session_reset_msg_
282 {
283   u32 client_index;
284   u32 context;
285   u64 handle;
286 } __clib_packed session_reset_msg_t;
287
288 typedef struct session_reset_reply_msg_
289 {
290   u32 client_index;
291   u32 context;
292   i32 retval;
293   u64 handle;
294 } __clib_packed session_reset_reply_msg_t;
295
296 typedef struct app_session_event_
297 {
298   svm_msg_q_msg_t msg;
299   session_event_t *evt;
300 } __clib_packed app_session_evt_t;
301
302 static inline void
303 app_alloc_ctrl_evt_to_vpp (svm_msg_q_t * mq, app_session_evt_t * app_evt,
304                            u8 evt_type)
305 {
306   svm_msg_q_lock_and_alloc_msg_w_ring (mq,
307                                        SESSION_MQ_CTRL_EVT_RING,
308                                        SVM_Q_WAIT, &app_evt->msg);
309   svm_msg_q_unlock (mq);
310   app_evt->evt = svm_msg_q_msg_data (mq, &app_evt->msg);
311   memset (app_evt->evt, 0, sizeof (*app_evt->evt));
312   app_evt->evt->event_type = evt_type;
313 }
314
315 static inline void
316 app_send_ctrl_evt_to_vpp (svm_msg_q_t * mq, app_session_evt_t * app_evt)
317 {
318   svm_msg_q_add (mq, &app_evt->msg, SVM_Q_WAIT);
319 }
320
321 /**
322  * Send fifo io event to vpp worker thread
323  *
324  * Because there may be multiple writers to one of vpp's queues, this
325  * protects message allocation and enqueueing.
326  *
327  * @param mq            vpp message queue
328  * @param f             fifo for which the event is sent
329  * @param evt_type      type of event
330  * @param noblock       flag to indicate is request is blocking or not
331  * @return              0 if success, negative integer otherwise
332  */
333 static inline int
334 app_send_io_evt_to_vpp (svm_msg_q_t * mq, svm_fifo_t * f, u8 evt_type,
335                         u8 noblock)
336 {
337   session_event_t *evt;
338   svm_msg_q_msg_t msg;
339
340   if (noblock)
341     {
342       if (svm_msg_q_try_lock (mq))
343         return -1;
344       if (PREDICT_FALSE (svm_msg_q_ring_is_full (mq, SESSION_MQ_IO_EVT_RING)))
345         {
346           svm_msg_q_unlock (mq);
347           return -2;
348         }
349       msg = svm_msg_q_alloc_msg_w_ring (mq, SESSION_MQ_IO_EVT_RING);
350       if (PREDICT_FALSE (svm_msg_q_msg_is_invalid (&msg)))
351         {
352           svm_msg_q_unlock (mq);
353           return -2;
354         }
355       evt = (session_event_t *) svm_msg_q_msg_data (mq, &msg);
356       evt->fifo = f;
357       evt->event_type = evt_type;
358       svm_msg_q_add_and_unlock (mq, &msg);
359       return 0;
360     }
361   else
362     {
363       svm_msg_q_lock (mq);
364       while (svm_msg_q_ring_is_full (mq, SESSION_MQ_IO_EVT_RING))
365         svm_msg_q_wait (mq);
366       msg = svm_msg_q_alloc_msg_w_ring (mq, SESSION_MQ_IO_EVT_RING);
367       evt = (session_event_t *) svm_msg_q_msg_data (mq, &msg);
368       evt->fifo = f;
369       evt->event_type = evt_type;
370       if (svm_msg_q_is_full (mq))
371         svm_msg_q_wait (mq);
372       svm_msg_q_add_and_unlock (mq, &msg);
373       return 0;
374     }
375 }
376
377 always_inline int
378 app_send_dgram_raw (svm_fifo_t * f, app_session_transport_t * at,
379                     svm_msg_q_t * vpp_evt_q, u8 * data, u32 len, u8 evt_type,
380                     u8 noblock)
381 {
382   u32 max_enqueue, actual_write;
383   session_dgram_hdr_t hdr;
384   int rv;
385
386   max_enqueue = svm_fifo_max_enqueue (f);
387   if (max_enqueue <= sizeof (session_dgram_hdr_t))
388     return 0;
389
390   max_enqueue -= sizeof (session_dgram_hdr_t);
391   actual_write = clib_min (len, max_enqueue);
392   hdr.data_length = actual_write;
393   hdr.data_offset = 0;
394   clib_memcpy (&hdr.rmt_ip, &at->rmt_ip, sizeof (ip46_address_t));
395   hdr.is_ip4 = at->is_ip4;
396   hdr.rmt_port = at->rmt_port;
397   clib_memcpy (&hdr.lcl_ip, &at->lcl_ip, sizeof (ip46_address_t));
398   hdr.lcl_port = at->lcl_port;
399   rv = svm_fifo_enqueue_nowait (f, sizeof (hdr), (u8 *) & hdr);
400   ASSERT (rv == sizeof (hdr));
401
402   if ((rv = svm_fifo_enqueue_nowait (f, actual_write, data)) > 0)
403     {
404       if (svm_fifo_set_event (f))
405         app_send_io_evt_to_vpp (vpp_evt_q, f, evt_type, noblock);
406     }
407   ASSERT (rv);
408   return rv;
409 }
410
411 always_inline int
412 app_send_dgram (app_session_t * s, u8 * data, u32 len, u8 noblock)
413 {
414   return app_send_dgram_raw (s->tx_fifo, &s->transport, s->vpp_evt_q, data,
415                              len, FIFO_EVENT_APP_TX, noblock);
416 }
417
418 always_inline int
419 app_send_stream_raw (svm_fifo_t * f, svm_msg_q_t * vpp_evt_q, u8 * data,
420                      u32 len, u8 evt_type, u8 noblock)
421 {
422   int rv;
423
424   if ((rv = svm_fifo_enqueue_nowait (f, len, data)) > 0)
425     {
426       if (svm_fifo_set_event (f))
427         app_send_io_evt_to_vpp (vpp_evt_q, f, evt_type, noblock);
428     }
429   return rv;
430 }
431
432 always_inline int
433 app_send_stream (app_session_t * s, u8 * data, u32 len, u8 noblock)
434 {
435   return app_send_stream_raw (s->tx_fifo, s->vpp_evt_q, data, len,
436                               FIFO_EVENT_APP_TX, noblock);
437 }
438
439 always_inline int
440 app_send (app_session_t * s, u8 * data, u32 len, u8 noblock)
441 {
442   if (s->is_dgram)
443     return app_send_dgram (s, data, len, noblock);
444   return app_send_stream (s, data, len, noblock);
445 }
446
447 always_inline int
448 app_recv_dgram_raw (svm_fifo_t * f, u8 * buf, u32 len,
449                     app_session_transport_t * at, u8 clear_evt, u8 peek)
450 {
451   session_dgram_pre_hdr_t ph;
452   u32 max_deq;
453   int rv;
454
455   max_deq = svm_fifo_max_dequeue (f);
456   if (max_deq < sizeof (session_dgram_hdr_t))
457     {
458       if (clear_evt)
459         svm_fifo_unset_event (f);
460       return 0;
461     }
462
463   if (clear_evt)
464     svm_fifo_unset_event (f);
465
466   svm_fifo_peek (f, 0, sizeof (ph), (u8 *) & ph);
467   ASSERT (ph.data_length >= ph.data_offset);
468   if (!ph.data_offset)
469     svm_fifo_peek (f, sizeof (ph), sizeof (*at), (u8 *) at);
470   len = clib_min (len, ph.data_length - ph.data_offset);
471   rv = svm_fifo_peek (f, ph.data_offset + SESSION_CONN_HDR_LEN, len, buf);
472   if (peek)
473     return rv;
474   ph.data_offset += rv;
475   if (ph.data_offset == ph.data_length)
476     svm_fifo_dequeue_drop (f, ph.data_length + SESSION_CONN_HDR_LEN);
477   else
478     svm_fifo_overwrite_head (f, (u8 *) & ph, sizeof (ph));
479   return rv;
480 }
481
482 always_inline int
483 app_recv_dgram (app_session_t * s, u8 * buf, u32 len)
484 {
485   return app_recv_dgram_raw (s->rx_fifo, buf, len, &s->transport, 1, 0);
486 }
487
488 always_inline int
489 app_recv_stream_raw (svm_fifo_t * f, u8 * buf, u32 len, u8 clear_evt, u8 peek)
490 {
491   if (clear_evt)
492     svm_fifo_unset_event (f);
493
494   if (peek)
495     return svm_fifo_peek (f, 0, len, buf);
496
497   return svm_fifo_dequeue_nowait (f, len, buf);
498 }
499
500 always_inline int
501 app_recv_stream (app_session_t * s, u8 * buf, u32 len)
502 {
503   return app_recv_stream_raw (s->rx_fifo, buf, len, 1, 0);
504 }
505
506 always_inline int
507 app_recv (app_session_t * s, u8 * data, u32 len)
508 {
509   if (s->is_dgram)
510     return app_recv_dgram (s, data, len);
511   return app_recv_stream (s, data, len);
512 }
513
514 #endif /* __included_uri_h__ */
515
516 /*
517  * fd.io coding-style-patch-verification: ON
518  *
519  * Local Variables:
520  * eval: (c-set-style "gnu")
521  * End:
522  */