session: session pool migration notification
[vpp.git] / src / vnet / session / application_interface.h
1 /*
2  * Copyright (c) 2016-2019 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 #ifndef __included_uri_h__
16 #define __included_uri_h__
17
18 #include <vlibmemory/api.h>
19 #include <svm/message_queue.h>
20 #include <vnet/session/session_types.h>
21 #include <vnet/tls/tls_test.h>
22 #include <svm/fifo_segment.h>
23
24 typedef struct _stream_session_cb_vft
25 {
26   /** Notify server of new segment */
27   int (*add_segment_callback) (u32 api_client_index, u64 segment_handle);
28
29   /** Notify server of new segment */
30   int (*del_segment_callback) (u32 api_client_index, u64 segment_handle);
31
32   /** Notify server of newly accepted session */
33   int (*session_accept_callback) (session_t * new_session);
34
35   /** Connection request callback */
36   int (*session_connected_callback) (u32 app_wrk_index, u32 opaque,
37                                      session_t * s, u8 code);
38
39   /** Notify app that session is closing */
40   void (*session_disconnect_callback) (session_t * s);
41
42   /** Notify app that transport is closed */
43   void (*session_transport_closed_callback) (session_t * s);
44
45   /** Notify app that session or transport are about to be removed */
46   void (*session_cleanup_callback) (session_t * s, session_cleanup_ntf_t ntf);
47
48   /** Notify app that session was reset */
49   void (*session_reset_callback) (session_t * s);
50
51   /** Notify app that session pool migration happened */
52   void (*session_migrate_callback) (session_t * s, session_handle_t new_sh);
53
54   /** Direct RX callback for built-in application */
55   int (*builtin_app_rx_callback) (session_t * session);
56
57   /** Direct TX callback for built-in application */
58   int (*builtin_app_tx_callback) (session_t * session);
59
60 } session_cb_vft_t;
61
62 #define foreach_app_init_args                   \
63   _(u32, api_client_index)                      \
64   _(u8 *, name)                                 \
65   _(u64 *, options)                             \
66   _(u8 *, namespace_id)                         \
67   _(session_cb_vft_t *, session_cb_vft)         \
68   _(u32, app_index)                             \
69
70 typedef struct _vnet_app_attach_args_t
71 {
72 #define _(_type, _name) _type _name;
73   foreach_app_init_args
74 #undef _
75   ssvm_private_t * segment;
76   svm_msg_q_t *app_evt_q;
77   u64 segment_handle;
78 } vnet_app_attach_args_t;
79
80 typedef struct _vnet_app_detach_args_t
81 {
82   u32 app_index;
83   u32 api_client_index;
84 } vnet_app_detach_args_t;
85
86 typedef struct _vnet_bind_args_t
87 {
88   union
89   {
90     session_endpoint_cfg_t sep_ext;
91     session_endpoint_t sep;
92     char *uri;
93   };
94
95   u32 app_index;
96   u32 wrk_map_index;
97
98   /*
99    * Results
100    */
101   char *segment_name;
102   u32 segment_name_length;
103   u64 server_event_queue_address;
104   u64 handle;
105 } vnet_listen_args_t;
106
107 typedef struct _vnet_unlisten_args_t
108 {
109   union
110   {
111     char *uri;
112     u64 handle;                 /**< Session handle */
113   };
114   u32 app_index;                /**< Owning application index */
115   u32 wrk_map_index;            /**< App's local pool worker index */
116 } vnet_unlisten_args_t;
117
118 typedef struct _vnet_connect_args
119 {
120   union
121   {
122     session_endpoint_cfg_t sep_ext;
123     session_endpoint_t sep;
124     char *uri;
125   };
126   u32 app_index;
127   u32 wrk_map_index;
128   u32 api_context;
129
130   session_handle_t session_handle;
131 } vnet_connect_args_t;
132
133 typedef struct _vnet_disconnect_args_t
134 {
135   session_handle_t handle;
136   u32 app_index;
137 } vnet_disconnect_args_t;
138
139 typedef struct _vnet_application_add_tls_cert_args_t
140 {
141   u32 app_index;
142   u8 *cert;
143 } vnet_app_add_tls_cert_args_t;
144
145 typedef struct _vnet_application_add_tls_key_args_t
146 {
147   u32 app_index;
148   u8 *key;
149 } vnet_app_add_tls_key_args_t;
150
151 typedef enum tls_engine_type_
152 {
153   TLS_ENGINE_NONE,
154   TLS_ENGINE_MBEDTLS,
155   TLS_ENGINE_OPENSSL,
156   TLS_N_ENGINES
157 } tls_engine_type_t;
158
159 /* Application attach options */
160 typedef enum
161 {
162   APP_OPTIONS_FLAGS,
163   APP_OPTIONS_EVT_QUEUE_SIZE,
164   APP_OPTIONS_SEGMENT_SIZE,
165   APP_OPTIONS_ADD_SEGMENT_SIZE,
166   APP_OPTIONS_PRIVATE_SEGMENT_COUNT,
167   APP_OPTIONS_RX_FIFO_SIZE,
168   APP_OPTIONS_TX_FIFO_SIZE,
169   APP_OPTIONS_PREALLOC_FIFO_PAIRS,
170   APP_OPTIONS_NAMESPACE,
171   APP_OPTIONS_NAMESPACE_SECRET,
172   APP_OPTIONS_PROXY_TRANSPORT,
173   APP_OPTIONS_ACCEPT_COOKIE,
174   APP_OPTIONS_TLS_ENGINE,
175   APP_OPTIONS_N_OPTIONS
176 } app_attach_options_index_t;
177
178 #define foreach_app_options_flags                               \
179   _(ACCEPT_REDIRECT, "Use FIFO with redirects")                 \
180   _(ADD_SEGMENT, "Add segment and signal app if needed")        \
181   _(IS_BUILTIN, "Application is builtin")                       \
182   _(IS_TRANSPORT_APP, "Application is a transport proto")       \
183   _(IS_PROXY, "Application is proxying")                        \
184   _(USE_GLOBAL_SCOPE, "App can use global session scope")       \
185   _(USE_LOCAL_SCOPE, "App can use local session scope")         \
186   _(EVT_MQ_USE_EVENTFD, "Use eventfds for signaling")           \
187
188 typedef enum _app_options
189 {
190 #define _(sym, str) APP_OPTIONS_##sym,
191   foreach_app_options_flags
192 #undef _
193 } app_options_t;
194
195 typedef enum _app_options_flags
196 {
197 #define _(sym, str) APP_OPTIONS_FLAGS_##sym = 1 << APP_OPTIONS_##sym,
198   foreach_app_options_flags
199 #undef _
200 } app_options_flags_t;
201
202 #define foreach_fd_type                                         \
203   _(VPP_MQ_SEGMENT, "Fd for vpp's event mq segment")            \
204   _(MEMFD_SEGMENT, "Fd for memfd segment")                      \
205   _(MQ_EVENTFD, "Event fd used by message queue")               \
206   _(VPP_MQ_EVENTFD, "Event fd used by vpp's message queue")     \
207
208 typedef enum session_fd_type_
209 {
210 #define _(sym, str) SESSION_FD_##sym,
211   foreach_fd_type
212 #undef _
213   SESSION_N_FD_TYPE
214 } session_fd_type_t;
215
216 typedef enum session_fd_flag_
217 {
218 #define _(sym, str) SESSION_FD_F_##sym = 1 << SESSION_FD_##sym,
219   foreach_fd_type
220 #undef _
221 } session_fd_flag_t;
222
223 int parse_uri (char *uri, session_endpoint_cfg_t * sep);
224 int vnet_bind_uri (vnet_listen_args_t *);
225 int vnet_unbind_uri (vnet_unlisten_args_t * a);
226 int vnet_connect_uri (vnet_connect_args_t * a);
227
228 int vnet_application_attach (vnet_app_attach_args_t * a);
229 int vnet_application_detach (vnet_app_detach_args_t * a);
230 int vnet_listen (vnet_listen_args_t * a);
231 int vnet_connect (vnet_connect_args_t * a);
232 int vnet_unlisten (vnet_unlisten_args_t * a);
233 int vnet_disconnect_session (vnet_disconnect_args_t * a);
234
235 clib_error_t *vnet_app_add_tls_cert (vnet_app_add_tls_cert_args_t * a);
236 clib_error_t *vnet_app_add_tls_key (vnet_app_add_tls_key_args_t * a);
237
238 typedef struct app_session_transport_
239 {
240   ip46_address_t rmt_ip;        /**< remote ip */
241   ip46_address_t lcl_ip;        /**< local ip */
242   u16 rmt_port;                 /**< remote port (network order) */
243   u16 lcl_port;                 /**< local port (network order) */
244   u8 is_ip4;                    /**< set if uses ip4 networking */
245 } app_session_transport_t;
246
247 #define foreach_app_session_field                                       \
248   _(svm_fifo_t, *rx_fifo)               /**< rx fifo */                 \
249   _(svm_fifo_t, *tx_fifo)               /**< tx fifo */                 \
250   _(session_type_t, session_type)       /**< session type */            \
251   _(volatile u8, session_state)         /**< session state */           \
252   _(u32, session_index)                 /**< index in owning pool */    \
253   _(app_session_transport_t, transport) /**< transport info */          \
254   _(svm_msg_q_t, *vpp_evt_q)            /**< vpp event queue  */        \
255   _(u8, is_dgram)                       /**< flag for dgram mode */     \
256
257 typedef struct
258 {
259 #define _(type, name) type name;
260   foreach_app_session_field
261 #undef _
262 } app_session_t;
263
264 typedef struct session_bound_msg_
265 {
266   u32 context;
267   u64 handle;
268   i32 retval;
269   u8 lcl_is_ip4;
270   u8 lcl_ip[16];
271   u16 lcl_port;
272   uword rx_fifo;
273   uword tx_fifo;
274   uword vpp_evt_q;
275   u32 segment_size;
276   u8 segment_name_length;
277   u8 segment_name[128];
278 } __clib_packed session_bound_msg_t;
279
280 typedef struct session_unlisten_reply_msg_
281 {
282   u32 context;
283   u64 handle;
284   i32 retval;
285 } __clib_packed session_unlisten_reply_msg_t;
286
287 typedef struct session_accepted_msg_
288 {
289   u32 context;
290   u64 listener_handle;
291   u64 handle;
292   uword server_rx_fifo;
293   uword server_tx_fifo;
294   u64 segment_handle;
295   uword vpp_event_queue_address;
296   transport_endpoint_t rmt;
297 } __clib_packed session_accepted_msg_t;
298
299 typedef struct session_accepted_reply_msg_
300 {
301   u32 context;
302   i32 retval;
303   u64 handle;
304 } __clib_packed session_accepted_reply_msg_t;
305
306 /* Make sure this is not too large, otherwise it won't fit when dequeued in
307  * the session queue node */
308 STATIC_ASSERT (sizeof (session_accepted_reply_msg_t) <= 16, "accept reply");
309
310 typedef struct session_connected_msg_
311 {
312   u32 context;
313   i32 retval;
314   u64 handle;
315   uword server_rx_fifo;
316   uword server_tx_fifo;
317   u64 segment_handle;
318   uword ct_rx_fifo;
319   uword ct_tx_fifo;
320   u64 ct_segment_handle;
321   uword vpp_event_queue_address;
322   u32 segment_size;
323   u8 segment_name_length;
324   u8 segment_name[64];
325   transport_endpoint_t lcl;
326 } __clib_packed session_connected_msg_t;
327
328 typedef struct session_disconnected_msg_
329 {
330   u32 client_index;
331   u32 context;
332   u64 handle;
333 } __clib_packed session_disconnected_msg_t;
334
335 typedef struct session_disconnected_reply_msg_
336 {
337   u32 context;
338   i32 retval;
339   u64 handle;
340 } __clib_packed session_disconnected_reply_msg_t;
341
342 typedef struct session_reset_msg_
343 {
344   u32 client_index;
345   u32 context;
346   u64 handle;
347 } __clib_packed session_reset_msg_t;
348
349 typedef struct session_reset_reply_msg_
350 {
351   u32 context;
352   i32 retval;
353   u64 handle;
354 } __clib_packed session_reset_reply_msg_t;
355
356 typedef struct session_req_worker_update_msg_
357 {
358   u64 session_handle;
359 } __clib_packed session_req_worker_update_msg_t;
360
361 /* NOTE: using u16 for wrk indices because message needs to fit in 18B */
362 typedef struct session_worker_update_msg_
363 {
364   u32 client_index;
365   u16 wrk_index;
366   u16 req_wrk_index;
367   u64 handle;
368 } __clib_packed session_worker_update_msg_t;
369
370 typedef struct session_worker_update_reply_msg_
371 {
372   u64 handle;
373   uword rx_fifo;
374   uword tx_fifo;
375   u64 segment_handle;
376 } __clib_packed session_worker_update_reply_msg_t;
377
378 typedef struct app_session_event_
379 {
380   svm_msg_q_msg_t msg;
381   session_event_t *evt;
382 } __clib_packed app_session_evt_t;
383
384 static inline void
385 app_alloc_ctrl_evt_to_vpp (svm_msg_q_t * mq, app_session_evt_t * app_evt,
386                            u8 evt_type)
387 {
388   svm_msg_q_lock_and_alloc_msg_w_ring (mq,
389                                        SESSION_MQ_CTRL_EVT_RING,
390                                        SVM_Q_WAIT, &app_evt->msg);
391   app_evt->evt = svm_msg_q_msg_data (mq, &app_evt->msg);
392   clib_memset (app_evt->evt, 0, sizeof (*app_evt->evt));
393   app_evt->evt->event_type = evt_type;
394 }
395
396 static inline void
397 app_send_ctrl_evt_to_vpp (svm_msg_q_t * mq, app_session_evt_t * app_evt)
398 {
399   svm_msg_q_add_and_unlock (mq, &app_evt->msg);
400 }
401
402 /**
403  * Send fifo io event to vpp worker thread
404  *
405  * Because there may be multiple writers to one of vpp's queues, this
406  * protects message allocation and enqueueing.
407  *
408  * @param mq            vpp message queue
409  * @param f             fifo for which the event is sent
410  * @param evt_type      type of event
411  * @param noblock       flag to indicate is request is blocking or not
412  * @return              0 if success, negative integer otherwise
413  */
414 static inline int
415 app_send_io_evt_to_vpp (svm_msg_q_t * mq, u32 session_index, u8 evt_type,
416                         u8 noblock)
417 {
418   session_event_t *evt;
419   svm_msg_q_msg_t msg;
420
421   if (noblock)
422     {
423       if (svm_msg_q_try_lock (mq))
424         return -1;
425       if (PREDICT_FALSE (svm_msg_q_ring_is_full (mq, SESSION_MQ_IO_EVT_RING)))
426         {
427           svm_msg_q_unlock (mq);
428           return -2;
429         }
430       msg = svm_msg_q_alloc_msg_w_ring (mq, SESSION_MQ_IO_EVT_RING);
431       if (PREDICT_FALSE (svm_msg_q_msg_is_invalid (&msg)))
432         {
433           svm_msg_q_unlock (mq);
434           return -2;
435         }
436       evt = (session_event_t *) svm_msg_q_msg_data (mq, &msg);
437       evt->session_index = session_index;
438       evt->event_type = evt_type;
439       svm_msg_q_add_and_unlock (mq, &msg);
440       return 0;
441     }
442   else
443     {
444       svm_msg_q_lock (mq);
445       while (svm_msg_q_ring_is_full (mq, SESSION_MQ_IO_EVT_RING))
446         svm_msg_q_wait (mq);
447       msg = svm_msg_q_alloc_msg_w_ring (mq, SESSION_MQ_IO_EVT_RING);
448       evt = (session_event_t *) svm_msg_q_msg_data (mq, &msg);
449       evt->session_index = session_index;
450       evt->event_type = evt_type;
451       if (svm_msg_q_is_full (mq))
452         svm_msg_q_wait (mq);
453       svm_msg_q_add_and_unlock (mq, &msg);
454       return 0;
455     }
456 }
457
458 always_inline int
459 app_send_dgram_raw (svm_fifo_t * f, app_session_transport_t * at,
460                     svm_msg_q_t * vpp_evt_q, u8 * data, u32 len, u8 evt_type,
461                     u8 do_evt, u8 noblock)
462 {
463   u32 max_enqueue, actual_write;
464   session_dgram_hdr_t hdr;
465   int rv;
466
467   max_enqueue = svm_fifo_max_enqueue_prod (f);
468   if (max_enqueue <= sizeof (session_dgram_hdr_t))
469     return 0;
470
471   max_enqueue -= sizeof (session_dgram_hdr_t);
472   actual_write = clib_min (len, max_enqueue);
473   hdr.data_length = actual_write;
474   hdr.data_offset = 0;
475   clib_memcpy_fast (&hdr.rmt_ip, &at->rmt_ip, sizeof (ip46_address_t));
476   hdr.is_ip4 = at->is_ip4;
477   hdr.rmt_port = at->rmt_port;
478   clib_memcpy_fast (&hdr.lcl_ip, &at->lcl_ip, sizeof (ip46_address_t));
479   hdr.lcl_port = at->lcl_port;
480   rv = svm_fifo_enqueue (f, sizeof (hdr), (u8 *) & hdr);
481   ASSERT (rv == sizeof (hdr));
482
483   rv = svm_fifo_enqueue (f, actual_write, data);
484   if (do_evt)
485     {
486       if (rv > 0 && svm_fifo_set_event (f))
487         app_send_io_evt_to_vpp (vpp_evt_q, f->master_session_index, evt_type,
488                                 noblock);
489     }
490   ASSERT (rv);
491   return rv;
492 }
493
494 always_inline int
495 app_send_dgram (app_session_t * s, u8 * data, u32 len, u8 noblock)
496 {
497   return app_send_dgram_raw (s->tx_fifo, &s->transport, s->vpp_evt_q, data,
498                              len, SESSION_IO_EVT_TX, 1 /* do_evt */ ,
499                              noblock);
500 }
501
502 always_inline int
503 app_send_stream_raw (svm_fifo_t * f, svm_msg_q_t * vpp_evt_q, u8 * data,
504                      u32 len, u8 evt_type, u8 do_evt, u8 noblock)
505 {
506   int rv;
507
508   rv = svm_fifo_enqueue (f, len, data);
509   if (do_evt)
510     {
511       if (rv > 0 && svm_fifo_set_event (f))
512         app_send_io_evt_to_vpp (vpp_evt_q, f->master_session_index, evt_type,
513                                 noblock);
514     }
515   return rv;
516 }
517
518 always_inline int
519 app_send_stream (app_session_t * s, u8 * data, u32 len, u8 noblock)
520 {
521   return app_send_stream_raw (s->tx_fifo, s->vpp_evt_q, data, len,
522                               SESSION_IO_EVT_TX, 1 /* do_evt */ , noblock);
523 }
524
525 always_inline int
526 app_send (app_session_t * s, u8 * data, u32 len, u8 noblock)
527 {
528   if (s->is_dgram)
529     return app_send_dgram (s, data, len, noblock);
530   return app_send_stream (s, data, len, noblock);
531 }
532
533 always_inline int
534 app_recv_dgram_raw (svm_fifo_t * f, u8 * buf, u32 len,
535                     app_session_transport_t * at, u8 clear_evt, u8 peek)
536 {
537   session_dgram_pre_hdr_t ph;
538   u32 max_deq;
539   int rv;
540
541   max_deq = svm_fifo_max_dequeue_cons (f);
542   if (max_deq < sizeof (session_dgram_hdr_t))
543     {
544       if (clear_evt)
545         svm_fifo_unset_event (f);
546       return 0;
547     }
548
549   if (clear_evt)
550     svm_fifo_unset_event (f);
551
552   svm_fifo_peek (f, 0, sizeof (ph), (u8 *) & ph);
553   ASSERT (ph.data_length >= ph.data_offset);
554   if (!ph.data_offset)
555     svm_fifo_peek (f, sizeof (ph), sizeof (*at), (u8 *) at);
556   len = clib_min (len, ph.data_length - ph.data_offset);
557   rv = svm_fifo_peek (f, ph.data_offset + SESSION_CONN_HDR_LEN, len, buf);
558   if (peek)
559     return rv;
560   ph.data_offset += rv;
561   if (ph.data_offset == ph.data_length)
562     svm_fifo_dequeue_drop (f, ph.data_length + SESSION_CONN_HDR_LEN);
563   else
564     svm_fifo_overwrite_head (f, (u8 *) & ph, sizeof (ph));
565   return rv;
566 }
567
568 always_inline int
569 app_recv_dgram (app_session_t * s, u8 * buf, u32 len)
570 {
571   return app_recv_dgram_raw (s->rx_fifo, buf, len, &s->transport, 1, 0);
572 }
573
574 always_inline int
575 app_recv_stream_raw (svm_fifo_t * f, u8 * buf, u32 len, u8 clear_evt, u8 peek)
576 {
577   if (clear_evt)
578     svm_fifo_unset_event (f);
579
580   if (peek)
581     return svm_fifo_peek (f, 0, len, buf);
582
583   return svm_fifo_dequeue (f, len, buf);
584 }
585
586 always_inline int
587 app_recv_stream (app_session_t * s, u8 * buf, u32 len)
588 {
589   return app_recv_stream_raw (s->rx_fifo, buf, len, 1, 0);
590 }
591
592 always_inline int
593 app_recv (app_session_t * s, u8 * data, u32 len)
594 {
595   if (s->is_dgram)
596     return app_recv_dgram (s, data, len);
597   return app_recv_stream (s, data, len);
598 }
599
600 #endif /* __included_uri_h__ */
601
602 /*
603  * fd.io coding-style-patch-verification: ON
604  *
605  * Local Variables:
606  * eval: (c-set-style "gnu")
607  * End:
608  */