transport: cleanup
[vpp.git] / src / vnet / session / session.h
1 /*
2  * Copyright (c) 2017-2019 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 #ifndef __included_session_h__
16 #define __included_session_h__
17
18 #include <vnet/session/session_types.h>
19 #include <vnet/session/session_lookup.h>
20 #include <vnet/session/session_debug.h>
21 #include <vnet/session/segment_manager.h>
22 #include <svm/message_queue.h>
23
24 #define SESSION_PROXY_LISTENER_INDEX ((u8)~0 - 1)
25
26 typedef enum
27 {
28   FIFO_EVENT_APP_RX,
29   SESSION_IO_EVT_CT_RX,
30   FIFO_EVENT_APP_TX,
31   SESSION_IO_EVT_CT_TX,
32   SESSION_IO_EVT_TX_FLUSH,
33   FIFO_EVENT_DISCONNECT,
34   FIFO_EVENT_BUILTIN_RX,
35   FIFO_EVENT_BUILTIN_TX,
36   FIFO_EVENT_RPC,
37   SESSION_CTRL_EVT_BOUND,
38   SESSION_CTRL_EVT_ACCEPTED,
39   SESSION_CTRL_EVT_ACCEPTED_REPLY,
40   SESSION_CTRL_EVT_CONNECTED,
41   SESSION_CTRL_EVT_CONNECTED_REPLY,
42   SESSION_CTRL_EVT_DISCONNECTED,
43   SESSION_CTRL_EVT_DISCONNECTED_REPLY,
44   SESSION_CTRL_EVT_RESET,
45   SESSION_CTRL_EVT_RESET_REPLY,
46   SESSION_CTRL_EVT_REQ_WORKER_UPDATE,
47   SESSION_CTRL_EVT_WORKER_UPDATE,
48   SESSION_CTRL_EVT_WORKER_UPDATE_REPLY,
49 } session_evt_type_t;
50
51 static inline const char *
52 fifo_event_type_str (session_evt_type_t et)
53 {
54   switch (et)
55     {
56     case FIFO_EVENT_APP_RX:
57       return "FIFO_EVENT_APP_RX";
58     case FIFO_EVENT_APP_TX:
59       return "FIFO_EVENT_APP_TX";
60     case FIFO_EVENT_DISCONNECT:
61       return "FIFO_EVENT_DISCONNECT";
62     case FIFO_EVENT_BUILTIN_RX:
63       return "FIFO_EVENT_BUILTIN_RX";
64     case FIFO_EVENT_RPC:
65       return "FIFO_EVENT_RPC";
66     default:
67       return "UNKNOWN FIFO EVENT";
68     }
69 }
70
71 typedef enum
72 {
73   SESSION_MQ_IO_EVT_RING,
74   SESSION_MQ_CTRL_EVT_RING,
75   SESSION_MQ_N_RINGS
76 } session_mq_rings_e;
77
78 #define foreach_session_input_error                                     \
79 _(NO_SESSION, "No session drops")                                       \
80 _(NO_LISTENER, "No listener for dst port drops")                        \
81 _(ENQUEUED, "Packets pushed into rx fifo")                              \
82 _(NOT_READY, "Session not ready packets")                               \
83 _(FIFO_FULL, "Packets dropped for lack of rx fifo space")               \
84 _(EVENT_FIFO_FULL, "Events not sent for lack of event fifo space")      \
85 _(API_QUEUE_FULL, "Sessions not created for lack of API queue space")   \
86 _(NEW_SEG_NO_SPACE, "Created segment, couldn't allocate a fifo pair")   \
87 _(NO_SPACE, "Couldn't allocate a fifo pair")                            \
88 _(SEG_CREATE, "Couldn't create a new segment")
89
90 typedef enum
91 {
92 #define _(sym,str) SESSION_ERROR_##sym,
93   foreach_session_input_error
94 #undef _
95     SESSION_N_ERROR,
96 } session_error_t;
97
98 typedef struct
99 {
100   void *fp;
101   void *arg;
102 } session_rpc_args_t;
103
104 /* *INDENT-OFF* */
105 typedef struct
106 {
107   u8 event_type;
108   u8 postponed;
109   union
110   {
111     svm_fifo_t *fifo;
112     session_handle_t session_handle;
113     session_rpc_args_t rpc_args;
114     struct
115     {
116       u8 data[0];
117     };
118   };
119 } __clib_packed session_event_t;
120 /* *INDENT-ON* */
121
122 #define SESSION_MSG_NULL { }
123
124 typedef struct session_dgram_pre_hdr_
125 {
126   u32 data_length;
127   u32 data_offset;
128 } session_dgram_pre_hdr_t;
129
130 /* *INDENT-OFF* */
131 typedef CLIB_PACKED (struct session_dgram_header_
132 {
133   u32 data_length;
134   u32 data_offset;
135   ip46_address_t rmt_ip;
136   ip46_address_t lcl_ip;
137   u16 rmt_port;
138   u16 lcl_port;
139   u8 is_ip4;
140 }) session_dgram_hdr_t;
141 /* *INDENT-ON* */
142
143 #define SESSION_CONN_ID_LEN 37
144 #define SESSION_CONN_HDR_LEN 45
145
146 STATIC_ASSERT (sizeof (session_dgram_hdr_t) == (SESSION_CONN_ID_LEN + 8),
147                "session conn id wrong length");
148
149 typedef struct session_tx_context_
150 {
151   CLIB_CACHE_LINE_ALIGN_MARK (cacheline0);
152   session_t *s;
153   transport_proto_vft_t *transport_vft;
154   transport_connection_t *tc;
155   vlib_buffer_t *b;
156   u32 max_dequeue;
157   u32 snd_space;
158   u32 left_to_snd;
159   u32 tx_offset;
160   u32 max_len_to_snd;
161   u16 deq_per_first_buf;
162   u16 deq_per_buf;
163   u16 snd_mss;
164   u16 n_segs_per_evt;
165   u8 n_bufs_per_seg;
166     CLIB_CACHE_LINE_ALIGN_MARK (cacheline1);
167   session_dgram_hdr_t hdr;
168 } session_tx_context_t;
169
170 typedef struct session_manager_worker_
171 {
172   CLIB_CACHE_LINE_ALIGN_MARK (cacheline0);
173
174   /** Worker session pool */
175   session_t *sessions;
176
177   /** vpp event message queue for worker */
178   svm_msg_q_t *vpp_event_queue;
179
180   /** Our approximation of a "complete" dispatch loop period */
181   f64 dispatch_period;
182
183   /** vlib_time_now last time around the track */
184   f64 last_vlib_time;
185
186   /** Per-proto enqueue epoch counters */
187   u64 current_enqueue_epoch[TRANSPORT_N_PROTO];
188
189   /** Per-proto vector of sessions to enqueue */
190   u32 *session_to_enqueue[TRANSPORT_N_PROTO];
191
192   /** Context for session tx */
193   session_tx_context_t ctx;
194
195   /** Vector of tx buffer free lists */
196   u32 *tx_buffers;
197
198   /** Vector of partially read events */
199   session_event_t *free_event_vector;
200
201   /** Vector of active event vectors */
202   session_event_t *pending_event_vector;
203
204   /** Vector of postponed disconnects */
205   session_event_t *pending_disconnects;
206
207   /** Vector of postponed events */
208   session_event_t *postponed_event_vector;
209
210   /** Peekers rw lock */
211   clib_rwlock_t peekers_rw_locks;
212
213   u32 last_tx_packets;
214
215 } session_manager_worker_t;
216
217 typedef int (session_fifo_rx_fn) (vlib_main_t * vm,
218                                   vlib_node_runtime_t * node,
219                                   session_manager_worker_t * wrk,
220                                   session_event_t * e, int *n_tx_pkts);
221
222 extern session_fifo_rx_fn session_tx_fifo_peek_and_snd;
223 extern session_fifo_rx_fn session_tx_fifo_dequeue_and_snd;
224 extern session_fifo_rx_fn session_tx_fifo_dequeue_internal;
225
226 u8 session_node_lookup_fifo_event (svm_fifo_t * f, session_event_t * e);
227
228 typedef struct session_manager_main_
229 {
230   /** Worker contexts */
231   session_manager_worker_t *wrk;
232
233   /** Event queues memfd segment initialized only if so configured */
234   ssvm_private_t evt_qs_segment;
235
236   /** Unique segment name counter */
237   u32 unique_segment_name_counter;
238
239   /** Per transport rx function that can either dequeue or peek */
240   session_fifo_rx_fn **session_tx_fns;
241
242   /** Per session type output nodes. Could optimize to group nodes by
243    * fib but lookup would then require session type parsing in session node.
244    * Trade memory for speed, for now */
245   u32 *session_type_to_next;
246
247   /*
248    * Config parameters
249    */
250
251   /** Session manager is enabled */
252   u8 is_enabled;
253
254   /** vpp fifo event queue configured length */
255   u32 configured_event_queue_length;
256
257   /** Session ssvm segment configs*/
258   uword session_baseva;
259   uword session_va_space_size;
260   u32 evt_qs_segment_size;
261   u8 evt_qs_use_memfd_seg;
262
263   /** Session table size parameters */
264   u32 configured_v4_session_table_buckets;
265   u32 configured_v4_session_table_memory;
266   u32 configured_v4_halfopen_table_buckets;
267   u32 configured_v4_halfopen_table_memory;
268   u32 configured_v6_session_table_buckets;
269   u32 configured_v6_session_table_memory;
270   u32 configured_v6_halfopen_table_buckets;
271   u32 configured_v6_halfopen_table_memory;
272
273   /** Transport table (preallocation) size parameters */
274   u32 local_endpoints_table_memory;
275   u32 local_endpoints_table_buckets;
276
277   /** Preallocate session config parameter */
278   u32 preallocated_sessions;
279
280 #if SESSION_DEBUG
281   /**
282    * last event poll time by thread
283    * Debug only. Will cause false cache-line sharing as-is
284    */
285   f64 *last_event_poll_by_thread;
286 #endif
287
288 } session_manager_main_t;
289
290 extern session_manager_main_t session_manager_main;
291 extern vlib_node_registration_t session_queue_node;
292 extern vlib_node_registration_t session_queue_process_node;
293
294 #define SESSION_Q_PROCESS_FLUSH_FRAMES  1
295 #define SESSION_Q_PROCESS_STOP          2
296
297 always_inline u8
298 stream_session_is_valid (u32 si, u8 thread_index)
299 {
300   session_t *s;
301   s = pool_elt_at_index (session_manager_main.wrk[thread_index].sessions, si);
302   if (s->thread_index != thread_index || s->session_index != si
303       /* || s->server_rx_fifo->master_session_index != si
304          || s->server_tx_fifo->master_session_index != si
305          || s->server_rx_fifo->master_thread_index != thread_index
306          || s->server_tx_fifo->master_thread_index != thread_index */ )
307     return 0;
308   return 1;
309 }
310
311 session_t *session_alloc (u32 thread_index);
312 int session_alloc_fifos (segment_manager_t * sm, session_t * s);
313 void session_free (session_t * s);
314 void session_free_w_fifos (session_t * s);
315
316 always_inline session_t *
317 session_get (u32 si, u32 thread_index)
318 {
319   ASSERT (stream_session_is_valid (si, thread_index));
320   return pool_elt_at_index (session_manager_main.wrk[thread_index].sessions,
321                             si);
322 }
323
324 always_inline session_t *
325 session_get_if_valid (u64 si, u32 thread_index)
326 {
327   if (thread_index >= vec_len (session_manager_main.wrk))
328     return 0;
329
330   if (pool_is_free_index (session_manager_main.wrk[thread_index].sessions,
331                           si))
332     return 0;
333
334   ASSERT (stream_session_is_valid (si, thread_index));
335   return pool_elt_at_index (session_manager_main.wrk[thread_index].sessions,
336                             si);
337 }
338
339 always_inline session_t *
340 session_get_from_handle (session_handle_t handle)
341 {
342   session_manager_main_t *smm = &session_manager_main;
343   u32 session_index, thread_index;
344   session_parse_handle (handle, &session_index, &thread_index);
345   return pool_elt_at_index (smm->wrk[thread_index].sessions, session_index);
346 }
347
348 always_inline session_t *
349 session_get_from_handle_if_valid (session_handle_t handle)
350 {
351   u32 session_index, thread_index;
352   session_parse_handle (handle, &session_index, &thread_index);
353   return session_get_if_valid (session_index, thread_index);
354 }
355
356 always_inline u64
357 session_segment_handle (session_t * s)
358 {
359   svm_fifo_t *f;
360
361   if (s->session_state == SESSION_STATE_LISTENING)
362     return SESSION_INVALID_HANDLE;
363
364   f = s->rx_fifo;
365   return segment_manager_make_segment_handle (f->segment_manager,
366                                               f->segment_index);
367 }
368
369 /**
370  * Acquires a lock that blocks a session pool from expanding.
371  *
372  * This is typically used for safely peeking into other threads'
373  * pools in order to clone elements. Lock should be dropped as soon
374  * as possible by calling @ref session_pool_remove_peeker.
375  *
376  * NOTE: Avoid using pool_elt_at_index while the lock is held because
377  * it may lead to free elt bitmap expansion/contraction!
378  */
379 always_inline void
380 session_pool_add_peeker (u32 thread_index)
381 {
382   session_manager_worker_t *wrk = &session_manager_main.wrk[thread_index];
383   if (thread_index == vlib_get_thread_index ())
384     return;
385   clib_rwlock_reader_lock (&wrk->peekers_rw_locks);
386 }
387
388 always_inline void
389 session_pool_remove_peeker (u32 thread_index)
390 {
391   session_manager_worker_t *wrk = &session_manager_main.wrk[thread_index];
392   if (thread_index == vlib_get_thread_index ())
393     return;
394   clib_rwlock_reader_unlock (&wrk->peekers_rw_locks);
395 }
396
397 /**
398  * Get session from handle and 'lock' pool resize if not in same thread
399  *
400  * Caller should drop the peek 'lock' as soon as possible.
401  */
402 always_inline session_t *
403 session_get_from_handle_safe (u64 handle)
404 {
405   u32 thread_index = session_thread_from_handle (handle);
406   session_manager_worker_t *wrk = &session_manager_main.wrk[thread_index];
407
408   if (thread_index == vlib_get_thread_index ())
409     {
410       return pool_elt_at_index (wrk->sessions,
411                                 session_index_from_handle (handle));
412     }
413   else
414     {
415       session_pool_add_peeker (thread_index);
416       /* Don't use pool_elt_at index. See @ref session_pool_add_peeker */
417       return wrk->sessions + session_index_from_handle (handle);
418     }
419 }
420
421 always_inline u32
422 session_get_index (session_t * s)
423 {
424   return (s - session_manager_main.wrk[s->thread_index].sessions);
425 }
426
427 always_inline session_t *
428 session_clone_safe (u32 session_index, u32 thread_index)
429 {
430   session_t *old_s, *new_s;
431   u32 current_thread_index = vlib_get_thread_index ();
432
433   /* If during the memcpy pool is reallocated AND the memory allocator
434    * decides to give the old chunk of memory to somebody in a hurry to
435    * scribble something on it, we have a problem. So add this thread as
436    * a session pool peeker.
437    */
438   session_pool_add_peeker (thread_index);
439   new_s = session_alloc (current_thread_index);
440   old_s = session_manager_main.wrk[thread_index].sessions + session_index;
441   clib_memcpy_fast (new_s, old_s, sizeof (*new_s));
442   session_pool_remove_peeker (thread_index);
443   new_s->thread_index = current_thread_index;
444   new_s->session_index = session_get_index (new_s);
445   return new_s;
446 }
447
448 int session_open (u32 app_index, session_endpoint_t * tep, u32 opaque);
449 int session_listen (session_t * s, session_endpoint_cfg_t * sep);
450 int session_stop_listen (session_t * s);
451 void session_close (session_t * s);
452 void session_transport_close (session_t * s);
453 void session_transport_cleanup (session_t * s);
454 int session_send_io_evt_to_thread (svm_fifo_t * f,
455                                    session_evt_type_t evt_type);
456 int session_dequeue_notify (session_t * s);
457 int session_send_io_evt_to_thread_custom (void *data, u32 thread_index,
458                                           session_evt_type_t evt_type);
459 void session_send_rpc_evt_to_thread (u32 thread_index, void *fp,
460                                      void *rpc_args);
461 transport_connection_t *session_get_transport (session_t * s);
462
463
464 u8 *format_stream_session (u8 * s, va_list * args);
465 uword unformat_stream_session (unformat_input_t * input, va_list * args);
466 uword unformat_transport_connection (unformat_input_t * input,
467                                      va_list * args);
468
469 /*
470  * Interface to transport protos
471  */
472
473 int session_enqueue_stream_connection (transport_connection_t * tc,
474                                        vlib_buffer_t * b, u32 offset,
475                                        u8 queue_event, u8 is_in_order);
476 int session_enqueue_dgram_connection (session_t * s,
477                                       session_dgram_hdr_t * hdr,
478                                       vlib_buffer_t * b, u8 proto,
479                                       u8 queue_event);
480 int stream_session_peek_bytes (transport_connection_t * tc, u8 * buffer,
481                                u32 offset, u32 max_bytes);
482 u32 stream_session_dequeue_drop (transport_connection_t * tc, u32 max_bytes);
483
484 int session_stream_connect_notify (transport_connection_t * tc, u8 is_fail);
485 int session_dgram_connect_notify (transport_connection_t * tc,
486                                   u32 old_thread_index,
487                                   session_t ** new_session);
488 void stream_session_init_fifos_pointers (transport_connection_t * tc,
489                                          u32 rx_pointer, u32 tx_pointer);
490
491 int stream_session_accept_notify (transport_connection_t * tc);
492 void session_transport_closing_notify (transport_connection_t * tc);
493 void session_transport_delete_notify (transport_connection_t * tc);
494 void session_transport_closed_notify (transport_connection_t * tc);
495 void session_transport_reset_notify (transport_connection_t * tc);
496 int stream_session_accept (transport_connection_t * tc, u32 listener_index,
497                            u8 notify);
498 u32 session_tx_fifo_max_dequeue (transport_connection_t * tc);
499 void session_register_transport (transport_proto_t transport_proto,
500                                  const transport_proto_vft_t * vft, u8 is_ip4,
501                                  u32 output_node);
502
503 always_inline u32
504 transport_max_rx_enqueue (transport_connection_t * tc)
505 {
506   session_t *s = session_get (tc->s_index, tc->thread_index);
507   return svm_fifo_max_enqueue (s->rx_fifo);
508 }
509
510 always_inline u32
511 transport_max_tx_dequeue (transport_connection_t * tc)
512 {
513   session_t *s = session_get (tc->s_index, tc->thread_index);
514   return svm_fifo_max_dequeue (s->tx_fifo);
515 }
516
517 always_inline u32
518 transport_rx_fifo_size (transport_connection_t * tc)
519 {
520   session_t *s = session_get (tc->s_index, tc->thread_index);
521   return s->rx_fifo->nitems;
522 }
523
524 always_inline u32
525 transport_tx_fifo_size (transport_connection_t * tc)
526 {
527   session_t *s = session_get (tc->s_index, tc->thread_index);
528   return s->tx_fifo->nitems;
529 }
530
531 always_inline u8
532 transport_rx_fifo_has_ooo_data (transport_connection_t * tc)
533 {
534   session_t *s = session_get (tc->c_index, tc->thread_index);
535   return svm_fifo_has_ooo_data (s->rx_fifo);
536 }
537
538 always_inline f64
539 transport_dispatch_period (u32 thread_index)
540 {
541   return session_manager_main.wrk[thread_index].dispatch_period;
542 }
543
544 always_inline f64
545 transport_time_now (u32 thread_index)
546 {
547   return session_manager_main.wrk[thread_index].last_vlib_time;
548 }
549
550 always_inline void
551 transport_add_tx_event (transport_connection_t * tc)
552 {
553   session_t *s = session_get (tc->s_index, tc->thread_index);
554   if (svm_fifo_has_event (s->tx_fifo))
555     return;
556   session_send_io_evt_to_thread (s->tx_fifo, FIFO_EVENT_APP_TX);
557 }
558
559 /*
560  * Listen sessions
561  */
562
563 always_inline u64
564 listen_session_get_handle (session_t * s)
565 {
566   ASSERT (s->session_state == SESSION_STATE_LISTENING);
567   return session_handle (s);
568 }
569
570 always_inline session_t *
571 listen_session_get_from_handle (session_handle_t handle)
572 {
573   return session_get_from_handle (handle);
574 }
575
576 always_inline void
577 listen_session_parse_handle (session_handle_t handle, u32 * index,
578                              u32 * thread_index)
579 {
580   session_parse_handle (handle, index, thread_index);
581 }
582
583 always_inline session_t *
584 listen_session_new (u8 thread_index, session_type_t type)
585 {
586   session_t *s;
587   s = session_alloc (thread_index);
588   s->session_type = type;
589   s->session_state = SESSION_STATE_LISTENING;
590   return s;
591 }
592
593 always_inline session_t *
594 listen_session_get (u32 index)
595 {
596   return session_get (index, 0);
597 }
598
599 always_inline void
600 listen_session_del (session_t * s)
601 {
602   session_free (s);
603 }
604
605 transport_connection_t *listen_session_get_transport (session_t * s);
606
607 int
608 listen_session_get_local_session_endpoint (session_t * listener,
609                                            session_endpoint_t * sep);
610
611 /*
612  * Session manager functions
613  */
614
615 always_inline session_manager_main_t *
616 vnet_get_session_manager_main ()
617 {
618   return &session_manager_main;
619 }
620
621 always_inline session_manager_worker_t *
622 session_manager_get_worker (u32 thread_index)
623 {
624   return &session_manager_main.wrk[thread_index];
625 }
626
627 always_inline svm_msg_q_t *
628 session_manager_get_vpp_event_queue (u32 thread_index)
629 {
630   return session_manager_main.wrk[thread_index].vpp_event_queue;
631 }
632
633 always_inline u8
634 session_manager_is_enabled ()
635 {
636   return session_manager_main.is_enabled == 1;
637 }
638
639 #define session_cli_return_if_not_enabled()                             \
640 do {                                                                    \
641     if (!session_manager_main.is_enabled)                               \
642       return clib_error_return(0, "session layer is not enabled");      \
643 } while (0)
644
645 int session_manager_flush_enqueue_events (u8 proto, u32 thread_index);
646 int session_manager_flush_all_enqueue_events (u8 transport_proto);
647 void session_flush_frames_main_thread (vlib_main_t * vm);
648 ssvm_private_t *session_manager_get_evt_q_segment (void);
649 void session_node_enable_disable (u8 is_en);
650 clib_error_t *vnet_session_enable_disable (vlib_main_t * vm, u8 is_en);
651
652 #endif /* __included_session_h__ */
653
654 /*
655  * fd.io coding-style-patch-verification: ON
656  *
657  * Local Variables:
658  * eval: (c-set-style "gnu")
659  * End:
660  */