udp: refactor port allocation and sharing
[vpp.git] / src / vnet / udp / udp.c
1 /*
2  * Copyright (c) 2016-2020 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 #include <vnet/udp/udp.h>
17 #include <vnet/session/session.h>
18 #include <vnet/dpo/load_balance.h>
19 #include <vnet/ip/ip4_inlines.h>
20 #include <vnet/ip/ip6_inlines.h>
21 #include <vppinfra/sparse_vec.h>
22
23 udp_main_t udp_main;
24
25 static void
26 udp_connection_register_port (u16 lcl_port, u8 is_ip4)
27 {
28   udp_main_t *um = &udp_main;
29   u16 *n;
30
31   /* Setup udp protocol -> next index sparse vector mapping. Do not setup
32    * udp_dst_port_info_t as that is used to distinguish between external
33    * and transport consumed ports */
34
35   if (is_ip4)
36     n = sparse_vec_validate (um->next_by_dst_port4, lcl_port);
37   else
38     n = sparse_vec_validate (um->next_by_dst_port6, lcl_port);
39
40   n[0] = um->local_to_input_edge[is_ip4];
41 }
42
43 static void
44 udp_connection_unregister_port (u16 lcl_port, u8 is_ip4)
45 {
46   udp_main_t *um = &udp_main;
47   u16 *n;
48
49   if (is_ip4)
50     n = sparse_vec_validate (um->next_by_dst_port4, lcl_port);
51   else
52     n = sparse_vec_validate (um->next_by_dst_port6, lcl_port);
53
54   n[0] = UDP_NO_NODE_SET;
55 }
56
57 udp_connection_t *
58 udp_connection_alloc (u32 thread_index)
59 {
60   udp_worker_t *wrk = udp_worker_get (thread_index);
61   udp_connection_t *uc;
62
63   pool_get_aligned_safe (wrk->connections, uc, CLIB_CACHE_LINE_BYTES);
64
65   clib_memset (uc, 0, sizeof (*uc));
66   uc->c_c_index = uc - wrk->connections;
67   uc->c_thread_index = thread_index;
68   uc->c_proto = TRANSPORT_PROTO_UDP;
69   return uc;
70 }
71
72 void
73 udp_connection_free (udp_connection_t * uc)
74 {
75   udp_worker_t *wrk = udp_worker_get (uc->c_thread_index);
76
77   clib_spinlock_free (&uc->rx_lock);
78   if (CLIB_DEBUG)
79     clib_memset (uc, 0xFA, sizeof (*uc));
80   pool_put (wrk->connections, uc);
81 }
82
83 static void
84 udp_connection_cleanup (udp_connection_t * uc)
85 {
86   /* Unregister port from udp_local only if refcount went to zero */
87   if (!transport_release_local_endpoint (TRANSPORT_PROTO_UDP, &uc->c_lcl_ip,
88                                          uc->c_lcl_port))
89     udp_connection_unregister_port (uc->c_lcl_port, uc->c_is_ip4);
90   udp_connection_free (uc);
91 }
92
93 void
94 udp_connection_delete (udp_connection_t * uc)
95 {
96   session_transport_delete_notify (&uc->connection);
97   udp_connection_cleanup (uc);
98 }
99
100 static void
101 udp_handle_cleanups (void *args)
102 {
103   u32 thread_index = (u32) pointer_to_uword (args);
104   udp_connection_t *uc;
105   udp_worker_t *wrk;
106   u32 *uc_index;
107
108   wrk = udp_worker_get (thread_index);
109   vec_foreach (uc_index, wrk->pending_cleanups)
110     {
111       uc = udp_connection_get (*uc_index, thread_index);
112       udp_connection_delete (uc);
113     }
114   vec_reset_length (wrk->pending_cleanups);
115 }
116
117 static void
118 udp_connection_program_cleanup (udp_connection_t *uc)
119 {
120   uword thread_index = uc->c_thread_index;
121   udp_worker_t *wrk;
122
123   wrk = udp_worker_get (uc->c_thread_index);
124   vec_add1 (wrk->pending_cleanups, uc->c_c_index);
125
126   if (vec_len (wrk->pending_cleanups) == 1)
127     session_send_rpc_evt_to_thread_force (
128       thread_index, udp_handle_cleanups,
129       uword_to_pointer (thread_index, void *));
130 }
131
132 static u8
133 udp_connection_port_used_extern (u16 lcl_port, u8 is_ip4)
134 {
135   udp_main_t *um = vnet_get_udp_main ();
136   udp_dst_port_info_t *pi;
137
138   pi = udp_get_dst_port_info (um, lcl_port, is_ip4);
139   return (pi && udp_is_valid_dst_port (lcl_port, is_ip4));
140 }
141
142 static u16
143 udp_default_mtu (udp_main_t * um, u8 is_ip4)
144 {
145   u16 ip_hlen = is_ip4 ? sizeof (ip4_header_t) : sizeof (ip6_header_t);
146   return (um->default_mtu - sizeof (udp_header_t) - ip_hlen);
147 }
148
149 static u32
150 udp_session_bind (u32 session_index, transport_endpoint_cfg_t *lcl)
151 {
152   udp_main_t *um = vnet_get_udp_main ();
153   transport_endpoint_cfg_t *lcl_ext;
154   udp_connection_t *listener;
155   void *iface_ip;
156
157   if (udp_connection_port_used_extern (clib_net_to_host_u16 (lcl->port),
158                                        lcl->is_ip4))
159     {
160       clib_warning ("port already used");
161       return SESSION_E_PORTINUSE;
162     }
163
164   pool_get (um->listener_pool, listener);
165   clib_memset (listener, 0, sizeof (udp_connection_t));
166
167   listener->c_lcl_port = lcl->port;
168   listener->c_c_index = listener - um->listener_pool;
169
170   /* If we are provided a sw_if_index, bind using one of its ips */
171   if (ip_is_zero (&lcl->ip, 1) && lcl->sw_if_index != ENDPOINT_INVALID_INDEX)
172     {
173       if ((iface_ip = ip_interface_get_first_ip (lcl->sw_if_index,
174                                                  lcl->is_ip4)))
175         ip_set (&lcl->ip, iface_ip, lcl->is_ip4);
176     }
177   ip_copy (&listener->c_lcl_ip, &lcl->ip, lcl->is_ip4);
178   listener->c_is_ip4 = lcl->is_ip4;
179   listener->c_proto = TRANSPORT_PROTO_UDP;
180   listener->c_s_index = session_index;
181   listener->c_fib_index = lcl->fib_index;
182   listener->mss =
183     lcl->mss ? lcl->mss : udp_default_mtu (um, listener->c_is_ip4);
184   listener->flags |= UDP_CONN_F_OWNS_PORT | UDP_CONN_F_LISTEN;
185   lcl_ext = (transport_endpoint_cfg_t *) lcl;
186   if (lcl_ext->transport_flags & TRANSPORT_CFG_F_CONNECTED)
187     listener->flags |= UDP_CONN_F_CONNECTED;
188   else
189     listener->c_flags |= TRANSPORT_CONNECTION_F_CLESS;
190   clib_spinlock_init (&listener->rx_lock);
191   if (!um->csum_offload)
192     listener->cfg_flags |= UDP_CFG_F_NO_CSUM_OFFLOAD;
193
194   udp_connection_register_port (listener->c_lcl_port, lcl->is_ip4);
195   return listener->c_c_index;
196 }
197
198 static u32
199 udp_session_unbind (u32 listener_index)
200 {
201   udp_main_t *um = &udp_main;
202   udp_connection_t *listener;
203
204   listener = udp_listener_get (listener_index);
205   udp_connection_unregister_port (listener->c_lcl_port, listener->c_is_ip4);
206   clib_spinlock_free (&listener->rx_lock);
207   pool_put (um->listener_pool, listener);
208   return 0;
209 }
210
211 static transport_connection_t *
212 udp_session_get_listener (u32 listener_index)
213 {
214   udp_connection_t *us;
215
216   us = udp_listener_get (listener_index);
217   return &us->connection;
218 }
219
220 always_inline u32
221 udp_push_one_header (vlib_main_t *vm, udp_connection_t *uc, vlib_buffer_t *b)
222 {
223   vlib_buffer_push_udp (b, uc->c_lcl_port, uc->c_rmt_port,
224                         udp_csum_offload (uc));
225   b->flags |= VNET_BUFFER_F_LOCALLY_ORIGINATED;
226   /* reuse tcp medatada for now */
227   vnet_buffer (b)->tcp.connection_index = uc->c_c_index;
228
229   return 0;
230 }
231
232 static u32
233 udp_push_header (transport_connection_t *tc, vlib_buffer_t **bs, u32 n_bufs)
234 {
235   vlib_main_t *vm = vlib_get_main ();
236   udp_connection_t *uc;
237
238   uc = udp_connection_from_transport (tc);
239
240   while (n_bufs >= 4)
241     {
242       vlib_prefetch_buffer_header (bs[2], STORE);
243       vlib_prefetch_buffer_header (bs[3], STORE);
244
245       udp_push_one_header (vm, uc, bs[0]);
246       udp_push_one_header (vm, uc, bs[1]);
247
248       n_bufs -= 2;
249       bs += 2;
250     }
251   while (n_bufs)
252     {
253       if (n_bufs > 1)
254         vlib_prefetch_buffer_header (bs[1], STORE);
255
256       udp_push_one_header (vm, uc, bs[0]);
257
258       n_bufs -= 1;
259       bs += 1;
260     }
261
262   if (PREDICT_FALSE (uc->flags & UDP_CONN_F_CLOSING))
263     {
264       if (!transport_max_tx_dequeue (&uc->connection))
265         udp_connection_program_cleanup (uc);
266     }
267
268   return 0;
269 }
270
271 static transport_connection_t *
272 udp_session_get (u32 connection_index, u32 thread_index)
273 {
274   udp_connection_t *uc;
275   uc = udp_connection_get (connection_index, thread_index);
276   if (uc)
277     return &uc->connection;
278   return 0;
279 }
280
281 static void
282 udp_session_close (u32 connection_index, u32 thread_index)
283 {
284   udp_connection_t *uc;
285
286   uc = udp_connection_get (connection_index, thread_index);
287   if (!uc || (uc->flags & UDP_CONN_F_MIGRATED))
288     return;
289
290   if (!transport_max_tx_dequeue (&uc->connection))
291     udp_connection_program_cleanup (uc);
292   else
293     uc->flags |= UDP_CONN_F_CLOSING;
294 }
295
296 static void
297 udp_session_cleanup (u32 connection_index, u32 thread_index)
298 {
299   udp_connection_t *uc;
300   uc = udp_connection_get (connection_index, thread_index);
301   if (!uc)
302     return;
303   if (uc->flags & UDP_CONN_F_MIGRATED)
304     udp_connection_free (uc);
305   else
306     udp_connection_cleanup (uc);
307 }
308
309 static int
310 udp_session_send_params (transport_connection_t * tconn,
311                          transport_send_params_t * sp)
312 {
313   udp_connection_t *uc;
314
315   uc = udp_connection_from_transport (tconn);
316
317   /* No constraint on TX window */
318   sp->snd_space = ~0;
319   /* TODO figure out MTU of output interface */
320   sp->snd_mss = uc->mss;
321   sp->tx_offset = 0;
322   sp->flags = 0;
323   return 0;
324 }
325
326 static int
327 udp_open_connection (transport_endpoint_cfg_t * rmt)
328 {
329   udp_main_t *um = &udp_main;
330   ip46_address_t lcl_addr;
331   udp_connection_t *uc;
332   u32 thread_index;
333   u16 lcl_port;
334   int rv;
335
336   rv = transport_alloc_local_endpoint (TRANSPORT_PROTO_UDP, rmt, &lcl_addr,
337                                        &lcl_port);
338   if (rv)
339     {
340       if (rv != SESSION_E_PORTINUSE)
341         return rv;
342
343       if (udp_connection_port_used_extern (lcl_port, rmt->is_ip4))
344         return SESSION_E_PORTINUSE;
345
346       /* If port in use, check if 5-tuple is also in use */
347       if (session_lookup_connection (rmt->fib_index, &lcl_addr, &rmt->ip,
348                                      lcl_port, rmt->port, TRANSPORT_PROTO_UDP,
349                                      rmt->is_ip4))
350         return SESSION_E_PORTINUSE;
351
352       /* 5-tuple is available so increase lcl endpoint refcount and proceed
353        * with connection allocation */
354       transport_share_local_endpoint (TRANSPORT_PROTO_UDP, &lcl_addr,
355                                       lcl_port);
356       goto conn_alloc;
357     }
358
359   if (udp_is_valid_dst_port (lcl_port, rmt->is_ip4))
360     {
361       /* If specific source port was requested abort */
362       if (rmt->peer.port)
363         return SESSION_E_PORTINUSE;
364
365       /* Try to find a port that's not used */
366       while (udp_is_valid_dst_port (lcl_port, rmt->is_ip4))
367         {
368           lcl_port = transport_alloc_local_port (TRANSPORT_PROTO_UDP,
369                                                  &lcl_addr);
370           if (lcl_port < 1)
371             return SESSION_E_PORTINUSE;
372         }
373     }
374
375 conn_alloc:
376
377   /* We don't poll main thread if we have workers */
378   thread_index = transport_cl_thread ();
379
380   uc = udp_connection_alloc (thread_index);
381   ip_copy (&uc->c_rmt_ip, &rmt->ip, rmt->is_ip4);
382   ip_copy (&uc->c_lcl_ip, &lcl_addr, rmt->is_ip4);
383   uc->c_rmt_port = rmt->port;
384   uc->c_lcl_port = clib_host_to_net_u16 (lcl_port);
385   uc->c_is_ip4 = rmt->is_ip4;
386   uc->c_proto = TRANSPORT_PROTO_UDP;
387   uc->c_fib_index = rmt->fib_index;
388   uc->c_dscp = rmt->dscp;
389   uc->mss = rmt->mss ? rmt->mss : udp_default_mtu (um, uc->c_is_ip4);
390   if (rmt->peer.sw_if_index != ENDPOINT_INVALID_INDEX)
391     uc->sw_if_index = rmt->peer.sw_if_index;
392   uc->flags |= UDP_CONN_F_OWNS_PORT;
393   if (rmt->transport_flags & TRANSPORT_CFG_F_CONNECTED)
394     {
395       uc->flags |= UDP_CONN_F_CONNECTED;
396     }
397   else
398     {
399       clib_spinlock_init (&uc->rx_lock);
400       uc->c_flags |= TRANSPORT_CONNECTION_F_CLESS;
401     }
402   if (!um->csum_offload)
403     uc->cfg_flags |= UDP_CFG_F_NO_CSUM_OFFLOAD;
404   uc->next_node_index = rmt->next_node_index;
405   uc->next_node_opaque = rmt->next_node_opaque;
406
407   udp_connection_register_port (uc->c_lcl_port, rmt->is_ip4);
408
409   return uc->c_c_index;
410 }
411
412 static transport_connection_t *
413 udp_session_get_half_open (u32 conn_index)
414 {
415   udp_connection_t *uc;
416   u32 thread_index;
417
418   /* We don't poll main thread if we have workers */
419   thread_index = transport_cl_thread ();
420   uc = udp_connection_get (conn_index, thread_index);
421   if (!uc)
422     return 0;
423   return &uc->connection;
424 }
425
426 static u8 *
427 format_udp_session (u8 * s, va_list * args)
428 {
429   u32 uci = va_arg (*args, u32);
430   u32 thread_index = va_arg (*args, u32);
431   u32 verbose = va_arg (*args, u32);
432   udp_connection_t *uc;
433
434   uc = udp_connection_get (uci, thread_index);
435   return format (s, "%U", format_udp_connection, uc, verbose);
436 }
437
438 static u8 *
439 format_udp_half_open_session (u8 * s, va_list * args)
440 {
441   u32 __clib_unused tci = va_arg (*args, u32);
442   u32 __clib_unused thread_index = va_arg (*args, u32);
443   clib_warning ("BUG");
444   return 0;
445 }
446
447 static u8 *
448 format_udp_listener_session (u8 * s, va_list * args)
449 {
450   u32 tci = va_arg (*args, u32);
451   u32 __clib_unused thread_index = va_arg (*args, u32);
452   u32 verbose = va_arg (*args, u32);
453   udp_connection_t *uc = udp_listener_get (tci);
454   return format (s, "%U", format_udp_connection, uc, verbose);
455 }
456
457 static void
458 udp_realloc_ports_sv (u16 **ports_nh_svp)
459 {
460   u16 port, port_no, *ports_nh_sv, *mc;
461   u32 *ports = 0, *nh = 0, msum, i;
462   sparse_vec_header_t *h;
463   uword sv_index, *mb;
464
465   ports_nh_sv = *ports_nh_svp;
466
467   for (port = 1; port < 65535; port++)
468     {
469       port_no = clib_host_to_net_u16 (port);
470
471       sv_index = sparse_vec_index (ports_nh_sv, port_no);
472       if (sv_index != SPARSE_VEC_INVALID_INDEX)
473         {
474           vec_add1 (ports, port_no);
475           vec_add1 (nh, ports_nh_sv[sv_index]);
476         }
477     }
478
479   sparse_vec_free (ports_nh_sv);
480
481   ports_nh_sv =
482     sparse_vec_new (/* elt bytes */ sizeof (ports_nh_sv[0]),
483                     /* bits in index */ BITS (((udp_header_t *) 0)->dst_port));
484
485   vec_resize (ports_nh_sv, 65535);
486
487   for (port = 1; port < 65535; port++)
488     ports_nh_sv[port] = UDP_NO_NODE_SET;
489
490   for (i = 0; i < vec_len (ports); i++)
491     ports_nh_sv[ports[i]] = nh[i];
492
493   h = sparse_vec_header (ports_nh_sv);
494   vec_foreach (mb, h->is_member_bitmap)
495     *mb = (uword) ~0;
496
497   msum = 0;
498   vec_foreach (mc, h->member_counts)
499     {
500       *mc = msum;
501       msum += msum == 0 ? 63 : 64;
502     }
503
504   vec_free (ports);
505   vec_free (nh);
506
507   *ports_nh_svp = ports_nh_sv;
508 }
509
510 static clib_error_t *
511 udp_enable_disable (vlib_main_t *vm, u8 is_en)
512 {
513   udp_main_t *um = &udp_main;
514
515   /* Not ideal. The sparse vector used to map ports to next nodes assumes
516    * only a few ports are ever used. When udp transport is enabled this does
517    * not hold and, to make matters worse, ports are consumed in a random
518    * order.
519    *
520    * This can lead to a lot of slow updates to internal data structures
521    * which in turn can slow udp connection allocations until all ports are
522    * eventually consumed.
523    *
524    * Consequently, reallocate sparse vector, preallocate all ports and have
525    * them point to UDP_NO_NODE_SET. We could consider switching the sparse
526    * vector to a preallocated vector but that would increase memory
527    * consumption for vpp deployments that do not rely on host stack.
528    */
529
530   udp_realloc_ports_sv (&um->next_by_dst_port4);
531   udp_realloc_ports_sv (&um->next_by_dst_port6);
532
533   return 0;
534 }
535
536 static const transport_proto_vft_t udp_proto = {
537   .enable = udp_enable_disable,
538   .start_listen = udp_session_bind,
539   .connect = udp_open_connection,
540   .stop_listen = udp_session_unbind,
541   .push_header = udp_push_header,
542   .get_connection = udp_session_get,
543   .get_listener = udp_session_get_listener,
544   .get_half_open = udp_session_get_half_open,
545   .close = udp_session_close,
546   .cleanup = udp_session_cleanup,
547   .send_params = udp_session_send_params,
548   .format_connection = format_udp_session,
549   .format_half_open = format_udp_half_open_session,
550   .format_listener = format_udp_listener_session,
551   .transport_options = {
552     .name = "udp",
553     .short_name = "U",
554     .tx_type = TRANSPORT_TX_DGRAM,
555     .service_type = TRANSPORT_SERVICE_CL,
556   },
557 };
558
559 static clib_error_t *
560 udp_init (vlib_main_t * vm)
561 {
562   udp_main_t *um = vnet_get_udp_main ();
563   ip_main_t *im = &ip_main;
564   vlib_thread_main_t *tm = vlib_get_thread_main ();
565   u32 num_threads;
566   ip_protocol_info_t *pi;
567
568   /*
569    * Registrations
570    */
571
572   /* IP registration */
573   pi = ip_get_protocol_info (im, IP_PROTOCOL_UDP);
574   if (pi == 0)
575     return clib_error_return (0, "UDP protocol info AWOL");
576   pi->format_header = format_udp_header;
577   pi->unformat_pg_edit = unformat_pg_udp_header;
578
579   /* Register as transport with session layer */
580   transport_register_protocol (TRANSPORT_PROTO_UDP, &udp_proto,
581                                FIB_PROTOCOL_IP4, udp4_output_node.index);
582   transport_register_protocol (TRANSPORT_PROTO_UDP, &udp_proto,
583                                FIB_PROTOCOL_IP6, udp6_output_node.index);
584
585   /*
586    * Initialize data structures
587    */
588
589   num_threads = 1 /* main thread */  + tm->n_threads;
590   vec_validate (um->wrk, num_threads - 1);
591
592   um->local_to_input_edge[UDP_IP4] =
593     vlib_node_add_next (vm, udp4_local_node.index, udp4_input_node.index);
594   um->local_to_input_edge[UDP_IP6] =
595     vlib_node_add_next (vm, udp6_local_node.index, udp6_input_node.index);
596
597   um->default_mtu = 1500;
598   um->csum_offload = 1;
599   return 0;
600 }
601
602 /* *INDENT-OFF* */
603 VLIB_INIT_FUNCTION (udp_init) =
604 {
605   .runs_after = VLIB_INITS("ip_main_init", "ip4_lookup_init",
606                            "ip6_lookup_init"),
607 };
608 /* *INDENT-ON* */
609
610 /*
611  * fd.io coding-style-patch-verification: ON
612  *
613  * Local Variables:
614  * eval: (c-set-style "gnu")
615  * End:
616  */