session: cleanup part 3
[vpp.git] / src / vnet / session / session.h
1 /*
2  * Copyright (c) 2017-2019 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 #ifndef __included_session_h__
16 #define __included_session_h__
17
18 #include <vnet/session/session_types.h>
19 #include <vnet/session/session_lookup.h>
20 #include <vnet/session/transport_interface.h>
21 #include <vnet/session/session_debug.h>
22 #include <vnet/session/segment_manager.h>
23 #include <svm/message_queue.h>
24
25 #define SESSION_PROXY_LISTENER_INDEX ((u8)~0 - 1)
26
27 /* TODO decide how much since we have pre-data as well */
28 #define MAX_HDRS_LEN    100     /* Max number of bytes for headers */
29
30 typedef enum
31 {
32   FIFO_EVENT_APP_RX,
33   SESSION_IO_EVT_CT_RX,
34   FIFO_EVENT_APP_TX,
35   SESSION_IO_EVT_CT_TX,
36   SESSION_IO_EVT_TX_FLUSH,
37   FIFO_EVENT_DISCONNECT,
38   FIFO_EVENT_BUILTIN_RX,
39   FIFO_EVENT_BUILTIN_TX,
40   FIFO_EVENT_RPC,
41   SESSION_CTRL_EVT_BOUND,
42   SESSION_CTRL_EVT_ACCEPTED,
43   SESSION_CTRL_EVT_ACCEPTED_REPLY,
44   SESSION_CTRL_EVT_CONNECTED,
45   SESSION_CTRL_EVT_CONNECTED_REPLY,
46   SESSION_CTRL_EVT_DISCONNECTED,
47   SESSION_CTRL_EVT_DISCONNECTED_REPLY,
48   SESSION_CTRL_EVT_RESET,
49   SESSION_CTRL_EVT_RESET_REPLY,
50   SESSION_CTRL_EVT_REQ_WORKER_UPDATE,
51   SESSION_CTRL_EVT_WORKER_UPDATE,
52   SESSION_CTRL_EVT_WORKER_UPDATE_REPLY,
53 } session_evt_type_t;
54
55 static inline const char *
56 fifo_event_type_str (session_evt_type_t et)
57 {
58   switch (et)
59     {
60     case FIFO_EVENT_APP_RX:
61       return "FIFO_EVENT_APP_RX";
62     case FIFO_EVENT_APP_TX:
63       return "FIFO_EVENT_APP_TX";
64     case FIFO_EVENT_DISCONNECT:
65       return "FIFO_EVENT_DISCONNECT";
66     case FIFO_EVENT_BUILTIN_RX:
67       return "FIFO_EVENT_BUILTIN_RX";
68     case FIFO_EVENT_RPC:
69       return "FIFO_EVENT_RPC";
70     default:
71       return "UNKNOWN FIFO EVENT";
72     }
73 }
74
75 typedef enum
76 {
77   SESSION_MQ_IO_EVT_RING,
78   SESSION_MQ_CTRL_EVT_RING,
79   SESSION_MQ_N_RINGS
80 } session_mq_rings_e;
81
82 #define foreach_session_input_error                                     \
83 _(NO_SESSION, "No session drops")                                       \
84 _(NO_LISTENER, "No listener for dst port drops")                        \
85 _(ENQUEUED, "Packets pushed into rx fifo")                              \
86 _(NOT_READY, "Session not ready packets")                               \
87 _(FIFO_FULL, "Packets dropped for lack of rx fifo space")               \
88 _(EVENT_FIFO_FULL, "Events not sent for lack of event fifo space")      \
89 _(API_QUEUE_FULL, "Sessions not created for lack of API queue space")   \
90 _(NEW_SEG_NO_SPACE, "Created segment, couldn't allocate a fifo pair")   \
91 _(NO_SPACE, "Couldn't allocate a fifo pair")                            \
92 _(SEG_CREATE, "Couldn't create a new segment")
93
94 typedef enum
95 {
96 #define _(sym,str) SESSION_ERROR_##sym,
97   foreach_session_input_error
98 #undef _
99     SESSION_N_ERROR,
100 } session_error_t;
101
102 typedef struct
103 {
104   void *fp;
105   void *arg;
106 } session_rpc_args_t;
107
108 /* *INDENT-OFF* */
109 typedef struct
110 {
111   u8 event_type;
112   u8 postponed;
113   union
114   {
115     svm_fifo_t *fifo;
116     session_handle_t session_handle;
117     session_rpc_args_t rpc_args;
118     struct
119     {
120       u8 data[0];
121     };
122   };
123 } __clib_packed session_event_t;
124 /* *INDENT-ON* */
125
126 #define SESSION_MSG_NULL { }
127
128 typedef struct session_dgram_pre_hdr_
129 {
130   u32 data_length;
131   u32 data_offset;
132 } session_dgram_pre_hdr_t;
133
134 /* *INDENT-OFF* */
135 typedef CLIB_PACKED (struct session_dgram_header_
136 {
137   u32 data_length;
138   u32 data_offset;
139   ip46_address_t rmt_ip;
140   ip46_address_t lcl_ip;
141   u16 rmt_port;
142   u16 lcl_port;
143   u8 is_ip4;
144 }) session_dgram_hdr_t;
145 /* *INDENT-ON* */
146
147 #define SESSION_CONN_ID_LEN 37
148 #define SESSION_CONN_HDR_LEN 45
149
150 STATIC_ASSERT (sizeof (session_dgram_hdr_t) == (SESSION_CONN_ID_LEN + 8),
151                "session conn id wrong length");
152
153 typedef struct session_tx_context_
154 {
155   CLIB_CACHE_LINE_ALIGN_MARK (cacheline0);
156   session_t *s;
157   transport_proto_vft_t *transport_vft;
158   transport_connection_t *tc;
159   vlib_buffer_t *b;
160   u32 max_dequeue;
161   u32 snd_space;
162   u32 left_to_snd;
163   u32 tx_offset;
164   u32 max_len_to_snd;
165   u16 deq_per_first_buf;
166   u16 deq_per_buf;
167   u16 snd_mss;
168   u16 n_segs_per_evt;
169   u8 n_bufs_per_seg;
170     CLIB_CACHE_LINE_ALIGN_MARK (cacheline1);
171   session_dgram_hdr_t hdr;
172 } session_tx_context_t;
173
174 typedef struct session_manager_worker_
175 {
176   CLIB_CACHE_LINE_ALIGN_MARK (cacheline0);
177
178   /** Worker session pool */
179   session_t *sessions;
180
181   /** vpp event message queue for worker */
182   svm_msg_q_t *vpp_event_queue;
183
184   /** Our approximation of a "complete" dispatch loop period */
185   f64 dispatch_period;
186
187   /** vlib_time_now last time around the track */
188   f64 last_vlib_time;
189
190   /** Per-proto enqueue epoch counters */
191   u64 current_enqueue_epoch[TRANSPORT_N_PROTO];
192
193   /** Per-proto vector of sessions to enqueue */
194   u32 *session_to_enqueue[TRANSPORT_N_PROTO];
195
196   /** Context for session tx */
197   session_tx_context_t ctx;
198
199   /** Vector of tx buffer free lists */
200   u32 *tx_buffers;
201
202   /** Vector of partially read events */
203   session_event_t *free_event_vector;
204
205   /** Vector of active event vectors */
206   session_event_t *pending_event_vector;
207
208   /** Vector of postponed disconnects */
209   session_event_t *pending_disconnects;
210
211   /** Vector of postponed events */
212   session_event_t *postponed_event_vector;
213
214   /** Peekers rw lock */
215   clib_rwlock_t peekers_rw_locks;
216
217   u32 last_tx_packets;
218
219 } session_manager_worker_t;
220
221 typedef int (session_fifo_rx_fn) (vlib_main_t * vm,
222                                   vlib_node_runtime_t * node,
223                                   session_manager_worker_t * wrk,
224                                   session_event_t * e, int *n_tx_pkts);
225
226 extern session_fifo_rx_fn session_tx_fifo_peek_and_snd;
227 extern session_fifo_rx_fn session_tx_fifo_dequeue_and_snd;
228 extern session_fifo_rx_fn session_tx_fifo_dequeue_internal;
229
230 u8 session_node_lookup_fifo_event (svm_fifo_t * f, session_event_t * e);
231
232 typedef struct session_manager_main_
233 {
234   /** Worker contexts */
235   session_manager_worker_t *wrk;
236
237   /** Event queues memfd segment initialized only if so configured */
238   ssvm_private_t evt_qs_segment;
239
240   /** Unique segment name counter */
241   u32 unique_segment_name_counter;
242
243   /** Per transport rx function that can either dequeue or peek */
244   session_fifo_rx_fn **session_tx_fns;
245
246   /** Per session type output nodes. Could optimize to group nodes by
247    * fib but lookup would then require session type parsing in session node.
248    * Trade memory for speed, for now */
249   u32 *session_type_to_next;
250
251   /*
252    * Config parameters
253    */
254
255   /** Session manager is enabled */
256   u8 is_enabled;
257
258   /** vpp fifo event queue configured length */
259   u32 configured_event_queue_length;
260
261   /** Session ssvm segment configs*/
262   uword session_baseva;
263   uword session_va_space_size;
264   u32 evt_qs_segment_size;
265   u8 evt_qs_use_memfd_seg;
266
267   /** Session table size parameters */
268   u32 configured_v4_session_table_buckets;
269   u32 configured_v4_session_table_memory;
270   u32 configured_v4_halfopen_table_buckets;
271   u32 configured_v4_halfopen_table_memory;
272   u32 configured_v6_session_table_buckets;
273   u32 configured_v6_session_table_memory;
274   u32 configured_v6_halfopen_table_buckets;
275   u32 configured_v6_halfopen_table_memory;
276
277   /** Transport table (preallocation) size parameters */
278   u32 local_endpoints_table_memory;
279   u32 local_endpoints_table_buckets;
280
281   /** Preallocate session config parameter */
282   u32 preallocated_sessions;
283
284 #if SESSION_DEBUG
285   /**
286    * last event poll time by thread
287    * Debug only. Will cause false cache-line sharing as-is
288    */
289   f64 *last_event_poll_by_thread;
290 #endif
291
292 } session_manager_main_t;
293
294 extern session_manager_main_t session_manager_main;
295 extern vlib_node_registration_t session_queue_node;
296 extern vlib_node_registration_t session_queue_process_node;
297
298 #define SESSION_Q_PROCESS_FLUSH_FRAMES  1
299 #define SESSION_Q_PROCESS_STOP          2
300
301 /*
302  * Session manager function
303  */
304 always_inline session_manager_main_t *
305 vnet_get_session_manager_main ()
306 {
307   return &session_manager_main;
308 }
309
310 always_inline session_manager_worker_t *
311 session_manager_get_worker (u32 thread_index)
312 {
313   return &session_manager_main.wrk[thread_index];
314 }
315
316 always_inline u8
317 stream_session_is_valid (u32 si, u8 thread_index)
318 {
319   session_t *s;
320   s = pool_elt_at_index (session_manager_main.wrk[thread_index].sessions, si);
321   if (s->thread_index != thread_index || s->session_index != si
322       /* || s->server_rx_fifo->master_session_index != si
323          || s->server_tx_fifo->master_session_index != si
324          || s->server_rx_fifo->master_thread_index != thread_index
325          || s->server_tx_fifo->master_thread_index != thread_index */ )
326     return 0;
327   return 1;
328 }
329
330 session_t *session_alloc (u32 thread_index);
331 int session_alloc_fifos (segment_manager_t * sm, session_t * s);
332 void session_free (session_t * s);
333 void session_free_w_fifos (session_t * s);
334
335 always_inline session_t *
336 session_get (u32 si, u32 thread_index)
337 {
338   ASSERT (stream_session_is_valid (si, thread_index));
339   return pool_elt_at_index (session_manager_main.wrk[thread_index].sessions,
340                             si);
341 }
342
343 always_inline session_t *
344 session_get_if_valid (u64 si, u32 thread_index)
345 {
346   if (thread_index >= vec_len (session_manager_main.wrk))
347     return 0;
348
349   if (pool_is_free_index (session_manager_main.wrk[thread_index].sessions,
350                           si))
351     return 0;
352
353   ASSERT (stream_session_is_valid (si, thread_index));
354   return pool_elt_at_index (session_manager_main.wrk[thread_index].sessions,
355                             si);
356 }
357
358 always_inline session_t *
359 session_get_from_handle (session_handle_t handle)
360 {
361   session_manager_main_t *smm = &session_manager_main;
362   u32 session_index, thread_index;
363   session_parse_handle (handle, &session_index, &thread_index);
364   return pool_elt_at_index (smm->wrk[thread_index].sessions, session_index);
365 }
366
367 always_inline session_t *
368 session_get_from_handle_if_valid (session_handle_t handle)
369 {
370   u32 session_index, thread_index;
371   session_parse_handle (handle, &session_index, &thread_index);
372   return session_get_if_valid (session_index, thread_index);
373 }
374
375 always_inline u64
376 session_segment_handle (session_t * s)
377 {
378   svm_fifo_t *f;
379
380   if (s->session_state == SESSION_STATE_LISTENING)
381     return SESSION_INVALID_HANDLE;
382
383   f = s->rx_fifo;
384   return segment_manager_make_segment_handle (f->segment_manager,
385                                               f->segment_index);
386 }
387
388 /**
389  * Acquires a lock that blocks a session pool from expanding.
390  *
391  * This is typically used for safely peeking into other threads'
392  * pools in order to clone elements. Lock should be dropped as soon
393  * as possible by calling @ref session_pool_remove_peeker.
394  *
395  * NOTE: Avoid using pool_elt_at_index while the lock is held because
396  * it may lead to free elt bitmap expansion/contraction!
397  */
398 always_inline void
399 session_pool_add_peeker (u32 thread_index)
400 {
401   session_manager_worker_t *wrk = &session_manager_main.wrk[thread_index];
402   if (thread_index == vlib_get_thread_index ())
403     return;
404   clib_rwlock_reader_lock (&wrk->peekers_rw_locks);
405 }
406
407 always_inline void
408 session_pool_remove_peeker (u32 thread_index)
409 {
410   session_manager_worker_t *wrk = &session_manager_main.wrk[thread_index];
411   if (thread_index == vlib_get_thread_index ())
412     return;
413   clib_rwlock_reader_unlock (&wrk->peekers_rw_locks);
414 }
415
416 /**
417  * Get session from handle and 'lock' pool resize if not in same thread
418  *
419  * Caller should drop the peek 'lock' as soon as possible.
420  */
421 always_inline session_t *
422 session_get_from_handle_safe (u64 handle)
423 {
424   u32 thread_index = session_thread_from_handle (handle);
425   session_manager_worker_t *wrk = &session_manager_main.wrk[thread_index];
426
427   if (thread_index == vlib_get_thread_index ())
428     {
429       return pool_elt_at_index (wrk->sessions,
430                                 session_index_from_handle (handle));
431     }
432   else
433     {
434       session_pool_add_peeker (thread_index);
435       /* Don't use pool_elt_at index. See @ref session_pool_add_peeker */
436       return wrk->sessions + session_index_from_handle (handle);
437     }
438 }
439
440 always_inline u32
441 transport_max_rx_enqueue (transport_connection_t * tc)
442 {
443   session_t *s = session_get (tc->s_index, tc->thread_index);
444   return svm_fifo_max_enqueue (s->rx_fifo);
445 }
446
447 always_inline u32
448 transport_max_tx_dequeue (transport_connection_t * tc)
449 {
450   session_t *s = session_get (tc->s_index, tc->thread_index);
451   return svm_fifo_max_dequeue (s->tx_fifo);
452 }
453
454 always_inline u32
455 transport_rx_fifo_size (transport_connection_t * tc)
456 {
457   session_t *s = session_get (tc->s_index, tc->thread_index);
458   return s->rx_fifo->nitems;
459 }
460
461 always_inline u32
462 transport_tx_fifo_size (transport_connection_t * tc)
463 {
464   session_t *s = session_get (tc->s_index, tc->thread_index);
465   return s->tx_fifo->nitems;
466 }
467
468 always_inline u8
469 transport_rx_fifo_has_ooo_data (transport_connection_t * tc)
470 {
471   session_t *s = session_get (tc->c_index, tc->thread_index);
472   return svm_fifo_has_ooo_data (s->rx_fifo);
473 }
474
475 always_inline f64
476 transport_dispatch_period (u32 thread_index)
477 {
478   return session_manager_main.wrk[thread_index].dispatch_period;
479 }
480
481 always_inline f64
482 transport_time_now (u32 thread_index)
483 {
484   return session_manager_main.wrk[thread_index].last_vlib_time;
485 }
486
487 always_inline u32
488 session_get_index (session_t * s)
489 {
490   return (s - session_manager_main.wrk[s->thread_index].sessions);
491 }
492
493 always_inline session_t *
494 session_clone_safe (u32 session_index, u32 thread_index)
495 {
496   session_t *old_s, *new_s;
497   u32 current_thread_index = vlib_get_thread_index ();
498
499   /* If during the memcpy pool is reallocated AND the memory allocator
500    * decides to give the old chunk of memory to somebody in a hurry to
501    * scribble something on it, we have a problem. So add this thread as
502    * a session pool peeker.
503    */
504   session_pool_add_peeker (thread_index);
505   new_s = session_alloc (current_thread_index);
506   old_s = session_manager_main.wrk[thread_index].sessions + session_index;
507   clib_memcpy_fast (new_s, old_s, sizeof (*new_s));
508   session_pool_remove_peeker (thread_index);
509   new_s->thread_index = current_thread_index;
510   new_s->session_index = session_get_index (new_s);
511   return new_s;
512 }
513
514 transport_connection_t *session_get_transport (session_t * s);
515
516 u32 session_tx_fifo_max_dequeue (transport_connection_t * tc);
517
518 int
519 session_enqueue_stream_connection (transport_connection_t * tc,
520                                    vlib_buffer_t * b, u32 offset,
521                                    u8 queue_event, u8 is_in_order);
522 int session_enqueue_dgram_connection (session_t * s,
523                                       session_dgram_hdr_t * hdr,
524                                       vlib_buffer_t * b, u8 proto,
525                                       u8 queue_event);
526 int stream_session_peek_bytes (transport_connection_t * tc, u8 * buffer,
527                                u32 offset, u32 max_bytes);
528 u32 stream_session_dequeue_drop (transport_connection_t * tc, u32 max_bytes);
529
530 int session_stream_connect_notify (transport_connection_t * tc, u8 is_fail);
531 int session_dgram_connect_notify (transport_connection_t * tc,
532                                   u32 old_thread_index,
533                                   session_t ** new_session);
534 int session_dequeue_notify (session_t * s);
535 void stream_session_init_fifos_pointers (transport_connection_t * tc,
536                                          u32 rx_pointer, u32 tx_pointer);
537
538 int stream_session_accept_notify (transport_connection_t * tc);
539 void session_transport_closing_notify (transport_connection_t * tc);
540 void session_transport_delete_notify (transport_connection_t * tc);
541 void session_transport_closed_notify (transport_connection_t * tc);
542 void session_transport_reset_notify (transport_connection_t * tc);
543 int stream_session_accept (transport_connection_t * tc, u32 listener_index,
544                            u8 notify);
545 int session_open (u32 app_index, session_endpoint_t * tep, u32 opaque);
546 int session_listen (session_t * s, session_endpoint_cfg_t * sep);
547 int session_stop_listen (session_t * s);
548 void session_close (session_t * s);
549 void session_transport_close (session_t * s);
550 void session_transport_cleanup (session_t * s);
551 int session_send_io_evt_to_thread (svm_fifo_t * f,
552                                    session_evt_type_t evt_type);
553 int session_send_io_evt_to_thread_custom (void *data, u32 thread_index,
554                                           session_evt_type_t evt_type);
555 void session_send_rpc_evt_to_thread (u32 thread_index, void *fp,
556                                      void *rpc_args);
557
558 ssvm_private_t *session_manager_get_evt_q_segment (void);
559
560 u8 *format_stream_session (u8 * s, va_list * args);
561 uword unformat_stream_session (unformat_input_t * input, va_list * args);
562 uword unformat_transport_connection (unformat_input_t * input,
563                                      va_list * args);
564
565 void session_register_transport (transport_proto_t transport_proto,
566                                  const transport_proto_vft_t * vft, u8 is_ip4,
567                                  u32 output_node);
568
569 always_inline void
570 transport_add_tx_event (transport_connection_t * tc)
571 {
572   session_t *s = session_get (tc->s_index, tc->thread_index);
573   if (svm_fifo_has_event (s->tx_fifo))
574     return;
575   session_send_io_evt_to_thread (s->tx_fifo, FIFO_EVENT_APP_TX);
576 }
577
578 clib_error_t *vnet_session_enable_disable (vlib_main_t * vm, u8 is_en);
579
580 always_inline svm_msg_q_t *
581 session_manager_get_vpp_event_queue (u32 thread_index)
582 {
583   return session_manager_main.wrk[thread_index].vpp_event_queue;
584 }
585
586 int session_manager_flush_enqueue_events (u8 proto, u32 thread_index);
587 int session_manager_flush_all_enqueue_events (u8 transport_proto);
588
589 always_inline u64
590 listen_session_get_handle (session_t * s)
591 {
592   ASSERT (s->session_state == SESSION_STATE_LISTENING);
593   return session_handle (s);
594 }
595
596 always_inline session_t *
597 listen_session_get_from_handle (session_handle_t handle)
598 {
599   return session_get_from_handle (handle);
600 }
601
602 always_inline void
603 listen_session_parse_handle (session_handle_t handle, u32 * index,
604                              u32 * thread_index)
605 {
606   session_parse_handle (handle, index, thread_index);
607 }
608
609 always_inline session_t *
610 listen_session_new (u8 thread_index, session_type_t type)
611 {
612   session_t *s;
613   s = session_alloc (thread_index);
614   s->session_type = type;
615   s->session_state = SESSION_STATE_LISTENING;
616   return s;
617 }
618
619 always_inline session_t *
620 listen_session_get (u32 index)
621 {
622   return session_get (index, 0);
623 }
624
625 always_inline void
626 listen_session_del (session_t * s)
627 {
628   session_free (s);
629 }
630
631 transport_connection_t *listen_session_get_transport (session_t * s);
632
633 int
634 listen_session_get_local_session_endpoint (session_t * listener,
635                                            session_endpoint_t * sep);
636
637 void session_flush_frames_main_thread (vlib_main_t * vm);
638
639 always_inline u8
640 session_manager_is_enabled ()
641 {
642   return session_manager_main.is_enabled == 1;
643 }
644
645 #define session_cli_return_if_not_enabled()                             \
646 do {                                                                    \
647     if (!session_manager_main.is_enabled)                               \
648       return clib_error_return(0, "session layer is not enabled");      \
649 } while (0)
650
651 void session_node_enable_disable (u8 is_en);
652
653 #endif /* __included_session_h__ */
654
655 /*
656  * fd.io coding-style-patch-verification: ON
657  *
658  * Local Variables:
659  * eval: (c-set-style "gnu")
660  * End:
661  */