tcp: shorten wait in fin-wait-1 with fin rcvd
[vpp.git] / src / vnet / tcp / tcp.c
1 /*
2  * Copyright (c) 2016-2019 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 /**
17  * @file
18  * @brief TCP host stack utilities
19  */
20
21 #include <vnet/tcp/tcp.h>
22 #include <vnet/session/session.h>
23 #include <vnet/fib/fib.h>
24 #include <vnet/dpo/load_balance.h>
25 #include <vnet/dpo/receive_dpo.h>
26 #include <vnet/ip/ip6_neighbor.h>
27 #include <math.h>
28
29 tcp_main_t tcp_main;
30
31 typedef struct
32 {
33   fib_protocol_t nh_proto;
34   vnet_link_t link_type;
35   ip46_address_t ip;
36   u32 sw_if_index;
37   u8 is_add;
38 } tcp_add_del_adj_args_t;
39
40 static void
41 tcp_add_del_adj_cb (tcp_add_del_adj_args_t * args)
42 {
43   u32 ai;
44   if (args->is_add)
45     {
46       adj_nbr_add_or_lock (args->nh_proto, args->link_type, &args->ip,
47                            args->sw_if_index);
48     }
49   else
50     {
51       ai = adj_nbr_find (FIB_PROTOCOL_IP6, VNET_LINK_IP6, &args->ip,
52                          args->sw_if_index);
53       if (ai != ADJ_INDEX_INVALID)
54         adj_unlock (ai);
55     }
56 }
57
58 static void
59 tcp_add_del_adjacency (tcp_connection_t * tc, u8 is_add)
60 {
61   tcp_add_del_adj_args_t args = {
62     .nh_proto = FIB_PROTOCOL_IP6,
63     .link_type = VNET_LINK_IP6,
64     .ip = tc->c_rmt_ip,
65     .sw_if_index = tc->sw_if_index,
66     .is_add = is_add
67   };
68   vlib_rpc_call_main_thread (tcp_add_del_adj_cb, (u8 *) & args,
69                              sizeof (args));
70 }
71
72 static u32
73 tcp_connection_bind (u32 session_index, transport_endpoint_t * lcl)
74 {
75   tcp_main_t *tm = &tcp_main;
76   tcp_connection_t *listener;
77   void *iface_ip;
78
79   pool_get (tm->listener_pool, listener);
80   clib_memset (listener, 0, sizeof (*listener));
81
82   listener->c_c_index = listener - tm->listener_pool;
83   listener->c_lcl_port = lcl->port;
84
85   /* If we are provided a sw_if_index, bind using one of its ips */
86   if (ip_is_zero (&lcl->ip, 1) && lcl->sw_if_index != ENDPOINT_INVALID_INDEX)
87     {
88       if ((iface_ip = ip_interface_get_first_ip (lcl->sw_if_index,
89                                                  lcl->is_ip4)))
90         ip_set (&lcl->ip, iface_ip, lcl->is_ip4);
91     }
92   ip_copy (&listener->c_lcl_ip, &lcl->ip, lcl->is_ip4);
93   listener->c_is_ip4 = lcl->is_ip4;
94   listener->c_proto = TRANSPORT_PROTO_TCP;
95   listener->c_s_index = session_index;
96   listener->c_fib_index = lcl->fib_index;
97   listener->state = TCP_STATE_LISTEN;
98
99   tcp_connection_timers_init (listener);
100
101   TCP_EVT_DBG (TCP_EVT_BIND, listener);
102
103   return listener->c_c_index;
104 }
105
106 static u32
107 tcp_session_bind (u32 session_index, transport_endpoint_t * tep)
108 {
109   return tcp_connection_bind (session_index, tep);
110 }
111
112 static void
113 tcp_connection_unbind (u32 listener_index)
114 {
115   tcp_main_t *tm = vnet_get_tcp_main ();
116   tcp_connection_t *tc;
117
118   tc = pool_elt_at_index (tm->listener_pool, listener_index);
119
120   TCP_EVT_DBG (TCP_EVT_UNBIND, tc);
121
122   /* Poison the entry */
123   if (CLIB_DEBUG > 0)
124     clib_memset (tc, 0xFA, sizeof (*tc));
125
126   pool_put_index (tm->listener_pool, listener_index);
127 }
128
129 static u32
130 tcp_session_unbind (u32 listener_index)
131 {
132   tcp_connection_unbind (listener_index);
133   return 0;
134 }
135
136 static transport_connection_t *
137 tcp_session_get_listener (u32 listener_index)
138 {
139   tcp_main_t *tm = vnet_get_tcp_main ();
140   tcp_connection_t *tc;
141   tc = pool_elt_at_index (tm->listener_pool, listener_index);
142   return &tc->connection;
143 }
144
145 /**
146  * Cleanup half-open connection
147  *
148  */
149 static void
150 tcp_half_open_connection_del (tcp_connection_t * tc)
151 {
152   tcp_main_t *tm = vnet_get_tcp_main ();
153   clib_spinlock_lock_if_init (&tm->half_open_lock);
154   pool_put_index (tm->half_open_connections, tc->c_c_index);
155   if (CLIB_DEBUG)
156     clib_memset (tc, 0xFA, sizeof (*tc));
157   clib_spinlock_unlock_if_init (&tm->half_open_lock);
158 }
159
160 /**
161  * Try to cleanup half-open connection
162  *
163  * If called from a thread that doesn't own tc, the call won't have any
164  * effect.
165  *
166  * @param tc - connection to be cleaned up
167  * @return non-zero if cleanup failed.
168  */
169 int
170 tcp_half_open_connection_cleanup (tcp_connection_t * tc)
171 {
172   /* Make sure this is the owning thread */
173   if (tc->c_thread_index != vlib_get_thread_index ())
174     return 1;
175   tcp_timer_reset (tc, TCP_TIMER_ESTABLISH_AO);
176   tcp_timer_reset (tc, TCP_TIMER_RETRANSMIT_SYN);
177   tcp_half_open_connection_del (tc);
178   return 0;
179 }
180
181 static tcp_connection_t *
182 tcp_half_open_connection_new (void)
183 {
184   tcp_main_t *tm = vnet_get_tcp_main ();
185   tcp_connection_t *tc = 0;
186   ASSERT (vlib_get_thread_index () == 0);
187   pool_get (tm->half_open_connections, tc);
188   clib_memset (tc, 0, sizeof (*tc));
189   tc->c_c_index = tc - tm->half_open_connections;
190   return tc;
191 }
192
193 /**
194  * Cleans up connection state.
195  *
196  * No notifications.
197  */
198 void
199 tcp_connection_cleanup (tcp_connection_t * tc)
200 {
201   tcp_main_t *tm = &tcp_main;
202
203   TCP_EVT_DBG (TCP_EVT_DELETE, tc);
204
205   /* Cleanup local endpoint if this was an active connect */
206   transport_endpoint_cleanup (TRANSPORT_PROTO_TCP, &tc->c_lcl_ip,
207                               tc->c_lcl_port);
208
209   /* Check if connection is not yet fully established */
210   if (tc->state == TCP_STATE_SYN_SENT)
211     {
212       /* Try to remove the half-open connection. If this is not the owning
213        * thread, tc won't be removed. Retransmit or establish timers will
214        * eventually expire and call again cleanup on the right thread. */
215       if (tcp_half_open_connection_cleanup (tc))
216         tc->flags |= TCP_CONN_HALF_OPEN_DONE;
217     }
218   else
219     {
220       int thread_index = tc->c_thread_index;
221
222       /* Make sure all timers are cleared */
223       tcp_connection_timers_reset (tc);
224
225       if (!tc->c_is_ip4 && ip6_address_is_link_local_unicast (&tc->c_rmt_ip6))
226         tcp_add_del_adjacency (tc, 0);
227
228       vec_free (tc->snd_sacks);
229       vec_free (tc->snd_sacks_fl);
230
231       /* Poison the entry */
232       if (CLIB_DEBUG > 0)
233         clib_memset (tc, 0xFA, sizeof (*tc));
234       pool_put (tm->connections[thread_index], tc);
235     }
236 }
237
238 /**
239  * Connection removal.
240  *
241  * This should be called only once connection enters CLOSED state. Note
242  * that it notifies the session of the removal event, so if the goal is to
243  * just remove the connection, call tcp_connection_cleanup instead.
244  */
245 void
246 tcp_connection_del (tcp_connection_t * tc)
247 {
248   session_transport_delete_notify (&tc->connection);
249   tcp_connection_cleanup (tc);
250 }
251
252 tcp_connection_t *
253 tcp_connection_alloc (u8 thread_index)
254 {
255   tcp_main_t *tm = vnet_get_tcp_main ();
256   tcp_connection_t *tc;
257
258   pool_get (tm->connections[thread_index], tc);
259   clib_memset (tc, 0, sizeof (*tc));
260   tc->c_c_index = tc - tm->connections[thread_index];
261   tc->c_thread_index = thread_index;
262   return tc;
263 }
264
265 void
266 tcp_connection_free (tcp_connection_t * tc)
267 {
268   tcp_main_t *tm = &tcp_main;
269   pool_put (tm->connections[tc->c_thread_index], tc);
270   if (CLIB_DEBUG > 0)
271     clib_memset (tc, 0xFA, sizeof (*tc));
272 }
273
274 /** Notify session that connection has been reset.
275  *
276  * Switch state to closed and wait for session to call cleanup.
277  */
278 void
279 tcp_connection_reset (tcp_connection_t * tc)
280 {
281   TCP_EVT_DBG (TCP_EVT_RST_RCVD, tc);
282   switch (tc->state)
283     {
284     case TCP_STATE_SYN_RCVD:
285       /* Cleanup everything. App wasn't notified yet */
286       session_transport_delete_notify (&tc->connection);
287       tcp_connection_cleanup (tc);
288       break;
289     case TCP_STATE_SYN_SENT:
290       session_stream_connect_notify (&tc->connection, 1 /* fail */ );
291       tcp_connection_cleanup (tc);
292       break;
293     case TCP_STATE_ESTABLISHED:
294       tcp_connection_timers_reset (tc);
295       /* Set the cleanup timer, in case the session layer/app don't
296        * cleanly close the connection */
297       tcp_timer_set (tc, TCP_TIMER_WAITCLOSE, TCP_CLOSEWAIT_TIME);
298       session_transport_reset_notify (&tc->connection);
299       tcp_connection_set_state (tc, TCP_STATE_CLOSED);
300       break;
301     case TCP_STATE_CLOSE_WAIT:
302     case TCP_STATE_FIN_WAIT_1:
303     case TCP_STATE_FIN_WAIT_2:
304     case TCP_STATE_CLOSING:
305     case TCP_STATE_LAST_ACK:
306       tcp_connection_timers_reset (tc);
307       tcp_timer_set (tc, TCP_TIMER_WAITCLOSE, TCP_CLOSEWAIT_TIME);
308       /* Make sure we mark the session as closed. In some states we may
309        * be still trying to send data */
310       session_transport_closed_notify (&tc->connection);
311       tcp_connection_set_state (tc, TCP_STATE_CLOSED);
312       break;
313     case TCP_STATE_CLOSED:
314     case TCP_STATE_TIME_WAIT:
315       break;
316     default:
317       TCP_DBG ("reset state: %u", tc->state);
318     }
319 }
320
321 /**
322  * Begin connection closing procedure.
323  *
324  * If at the end the connection is not in CLOSED state, it is not removed.
325  * Instead, we rely on on TCP to advance through state machine to either
326  * 1) LAST_ACK (passive close) whereby when the last ACK is received
327  * tcp_connection_del is called. This notifies session of the delete and
328  * calls cleanup.
329  * 2) TIME_WAIT (active close) whereby after 2MSL the 2MSL timer triggers
330  * and cleanup is called.
331  *
332  * N.B. Half-close connections are not supported
333  */
334 void
335 tcp_connection_close (tcp_connection_t * tc)
336 {
337   TCP_EVT_DBG (TCP_EVT_CLOSE, tc);
338
339   /* Send/Program FIN if needed and switch state */
340   switch (tc->state)
341     {
342     case TCP_STATE_SYN_SENT:
343       /* Try to cleanup. If not on the right thread, mark as half-open done.
344        * Connection will be cleaned up when establish timer pops */
345       tcp_connection_cleanup (tc);
346       break;
347     case TCP_STATE_SYN_RCVD:
348       tcp_connection_timers_reset (tc);
349       tcp_send_fin (tc);
350       tcp_connection_set_state (tc, TCP_STATE_FIN_WAIT_1);
351       tcp_timer_update (tc, TCP_TIMER_WAITCLOSE, TCP_FINWAIT1_TIME);
352       break;
353     case TCP_STATE_ESTABLISHED:
354       /* If closing with unread data, reset the connection */
355       if (transport_max_rx_dequeue (&tc->connection))
356         {
357           tcp_send_reset (tc);
358           tcp_connection_timers_reset (tc);
359           tcp_connection_set_state (tc, TCP_STATE_CLOSED);
360           tcp_timer_set (tc, TCP_TIMER_WAITCLOSE, TCP_CLOSEWAIT_TIME);
361           break;
362         }
363       if (!transport_max_tx_dequeue (&tc->connection))
364         tcp_send_fin (tc);
365       else
366         tc->flags |= TCP_CONN_FINPNDG;
367       tcp_connection_set_state (tc, TCP_STATE_FIN_WAIT_1);
368       /* Set a timer in case the peer stops responding. Otherwise the
369        * connection will be stuck here forever. */
370       ASSERT (tc->timers[TCP_TIMER_WAITCLOSE] == TCP_TIMER_HANDLE_INVALID);
371       tcp_timer_set (tc, TCP_TIMER_WAITCLOSE, TCP_FINWAIT1_TIME);
372       break;
373     case TCP_STATE_CLOSE_WAIT:
374       if (!transport_max_tx_dequeue (&tc->connection))
375         {
376           tcp_send_fin (tc);
377           tcp_connection_timers_reset (tc);
378           tcp_connection_set_state (tc, TCP_STATE_LAST_ACK);
379           tcp_timer_update (tc, TCP_TIMER_WAITCLOSE, TCP_2MSL_TIME);
380         }
381       else
382         tc->flags |= TCP_CONN_FINPNDG;
383       break;
384     case TCP_STATE_FIN_WAIT_1:
385       tcp_timer_update (tc, TCP_TIMER_WAITCLOSE, TCP_2MSL_TIME);
386       break;
387     case TCP_STATE_CLOSED:
388       tcp_connection_timers_reset (tc);
389       /* Delete connection but instead of doing it now wait until next
390        * dispatch cycle to give the session layer a chance to clear
391        * unhandled events */
392       tcp_timer_update (tc, TCP_TIMER_WAITCLOSE, TCP_CLEANUP_TIME);
393       break;
394     default:
395       TCP_DBG ("state: %u", tc->state);
396     }
397 }
398
399 static void
400 tcp_session_close (u32 conn_index, u32 thread_index)
401 {
402   tcp_connection_t *tc;
403   tc = tcp_connection_get (conn_index, thread_index);
404   tcp_connection_close (tc);
405 }
406
407 static void
408 tcp_session_cleanup (u32 conn_index, u32 thread_index)
409 {
410   tcp_connection_t *tc;
411   tc = tcp_connection_get (conn_index, thread_index);
412   tcp_connection_set_state (tc, TCP_STATE_CLOSED);
413   tcp_connection_cleanup (tc);
414 }
415
416 /**
417  * Initialize all connection timers as invalid
418  */
419 void
420 tcp_connection_timers_init (tcp_connection_t * tc)
421 {
422   int i;
423
424   /* Set all to invalid */
425   for (i = 0; i < TCP_N_TIMERS; i++)
426     {
427       tc->timers[i] = TCP_TIMER_HANDLE_INVALID;
428     }
429
430   tc->rto = TCP_RTO_INIT;
431 }
432
433 /**
434  * Stop all connection timers
435  */
436 void
437 tcp_connection_timers_reset (tcp_connection_t * tc)
438 {
439   int i;
440   for (i = 0; i < TCP_N_TIMERS; i++)
441     {
442       tcp_timer_reset (tc, i);
443     }
444 }
445
446 #if 0
447 typedef struct ip4_tcp_hdr
448 {
449   ip4_header_t ip;
450   tcp_header_t tcp;
451 } ip4_tcp_hdr_t;
452
453 typedef struct ip6_tcp_hdr
454 {
455   ip6_header_t ip;
456   tcp_header_t tcp;
457 } ip6_tcp_hdr_t;
458
459 static void
460 tcp_connection_select_lb_bucket (tcp_connection_t * tc, const dpo_id_t * dpo,
461                                  dpo_id_t * result)
462 {
463   const dpo_id_t *choice;
464   load_balance_t *lb;
465   int hash;
466
467   lb = load_balance_get (dpo->dpoi_index);
468   if (tc->c_is_ip4)
469     {
470       ip4_tcp_hdr_t hdr;
471       clib_memset (&hdr, 0, sizeof (hdr));
472       hdr.ip.protocol = IP_PROTOCOL_TCP;
473       hdr.ip.address_pair.src.as_u32 = tc->c_lcl_ip.ip4.as_u32;
474       hdr.ip.address_pair.dst.as_u32 = tc->c_rmt_ip.ip4.as_u32;
475       hdr.tcp.src_port = tc->c_lcl_port;
476       hdr.tcp.dst_port = tc->c_rmt_port;
477       hash = ip4_compute_flow_hash (&hdr.ip, lb->lb_hash_config);
478     }
479   else
480     {
481       ip6_tcp_hdr_t hdr;
482       clib_memset (&hdr, 0, sizeof (hdr));
483       hdr.ip.protocol = IP_PROTOCOL_TCP;
484       clib_memcpy_fast (&hdr.ip.src_address, &tc->c_lcl_ip.ip6,
485                         sizeof (ip6_address_t));
486       clib_memcpy_fast (&hdr.ip.dst_address, &tc->c_rmt_ip.ip6,
487                         sizeof (ip6_address_t));
488       hdr.tcp.src_port = tc->c_lcl_port;
489       hdr.tcp.dst_port = tc->c_rmt_port;
490       hash = ip6_compute_flow_hash (&hdr.ip, lb->lb_hash_config);
491     }
492   choice = load_balance_get_bucket_i (lb, hash & lb->lb_n_buckets_minus_1);
493   dpo_copy (result, choice);
494 }
495
496 fib_node_index_t
497 tcp_lookup_rmt_in_fib (tcp_connection_t * tc)
498 {
499   fib_prefix_t prefix;
500   u32 fib_index;
501
502   clib_memcpy_fast (&prefix.fp_addr, &tc->c_rmt_ip, sizeof (prefix.fp_addr));
503   prefix.fp_proto = tc->c_is_ip4 ? FIB_PROTOCOL_IP4 : FIB_PROTOCOL_IP6;
504   prefix.fp_len = tc->c_is_ip4 ? 32 : 128;
505   fib_index = fib_table_find (prefix.fp_proto, tc->c_fib_index);
506   return fib_table_lookup (fib_index, &prefix);
507 }
508
509 static int
510 tcp_connection_stack_on_fib_entry (tcp_connection_t * tc)
511 {
512   dpo_id_t choice = DPO_INVALID;
513   u32 output_node_index;
514   fib_entry_t *fe;
515
516   fe = fib_entry_get (tc->c_rmt_fei);
517   if (fe->fe_lb.dpoi_type != DPO_LOAD_BALANCE)
518     return -1;
519
520   tcp_connection_select_lb_bucket (tc, &fe->fe_lb, &choice);
521
522   output_node_index =
523     tc->c_is_ip4 ? tcp4_output_node.index : tcp6_output_node.index;
524   dpo_stack_from_node (output_node_index, &tc->c_rmt_dpo, &choice);
525   return 0;
526 }
527
528 /** Stack tcp connection on peer's fib entry.
529  *
530  * This ultimately populates the dpo the connection will use to send packets.
531  */
532 static void
533 tcp_connection_fib_attach (tcp_connection_t * tc)
534 {
535   tc->c_rmt_fei = tcp_lookup_rmt_in_fib (tc);
536
537   ASSERT (tc->c_rmt_fei != FIB_NODE_INDEX_INVALID);
538
539   tcp_connection_stack_on_fib_entry (tc);
540 }
541 #endif /* 0 */
542
543 static void
544 tcp_cc_init (tcp_connection_t * tc)
545 {
546   tc->cc_algo = tcp_cc_algo_get (tcp_main.cc_algo);
547   tc->cc_algo->init (tc);
548 }
549
550 void
551 tcp_cc_algo_register (tcp_cc_algorithm_type_e type,
552                       const tcp_cc_algorithm_t * vft)
553 {
554   tcp_main_t *tm = vnet_get_tcp_main ();
555   vec_validate (tm->cc_algos, type);
556
557   tm->cc_algos[type] = *vft;
558   hash_set_mem (tm->cc_algo_by_name, vft->name, type);
559 }
560
561 tcp_cc_algorithm_t *
562 tcp_cc_algo_get (tcp_cc_algorithm_type_e type)
563 {
564   tcp_main_t *tm = vnet_get_tcp_main ();
565   return &tm->cc_algos[type];
566 }
567
568 /**
569  * Generate random iss as per rfc6528
570  */
571 static u32
572 tcp_generate_random_iss (tcp_connection_t * tc)
573 {
574   tcp_main_t *tm = &tcp_main;
575   u64 tmp;
576
577   if (tc->c_is_ip4)
578     tmp = (u64) tc->c_lcl_ip.ip4.as_u32 << 32 | (u64) tc->c_rmt_ip.ip4.as_u32;
579   else
580     tmp = tc->c_lcl_ip.ip6.as_u64[0] ^ tc->c_lcl_ip.ip6.as_u64[1]
581       ^ tc->c_rmt_ip.ip6.as_u64[0] ^ tc->c_rmt_ip.ip6.as_u64[1];
582
583   tmp ^= tm->iss_seed.first | ((u64) tc->c_lcl_port << 16 | tc->c_rmt_port);
584   tmp ^= tm->iss_seed.second;
585   tmp = clib_xxhash (tmp) + clib_cpu_time_now ();
586   return ((tmp >> 32) ^ (tmp & 0xffffffff));
587 }
588
589 /**
590  * Initialize connection send variables.
591  */
592 void
593 tcp_init_snd_vars (tcp_connection_t * tc)
594 {
595   /*
596    * We use the time to randomize iss and for setting up the initial
597    * timestamp. Make sure it's updated otherwise syn and ack in the
598    * handshake may make it look as if time has flown in the opposite
599    * direction for us.
600    */
601   tcp_set_time_now (tcp_get_worker (vlib_get_thread_index ()));
602
603   tc->iss = tcp_generate_random_iss (tc);
604   tc->snd_una = tc->iss;
605   tc->snd_nxt = tc->iss + 1;
606   tc->snd_una_max = tc->snd_nxt;
607   tc->srtt = 0;
608 }
609
610 void
611 tcp_enable_pacing (tcp_connection_t * tc)
612 {
613   u32 initial_bucket, byte_rate;
614   initial_bucket = 16 * tc->snd_mss;
615   byte_rate = 2 << 16;
616   transport_connection_tx_pacer_init (&tc->connection, byte_rate,
617                                       initial_bucket);
618   tc->mrtt_us = (u32) ~ 0;
619 }
620
621 /** Initialize tcp connection variables
622  *
623  * Should be called after having received a msg from the peer, i.e., a SYN or
624  * a SYNACK, such that connection options have already been exchanged. */
625 void
626 tcp_connection_init_vars (tcp_connection_t * tc)
627 {
628   tcp_connection_timers_init (tc);
629   tcp_init_mss (tc);
630   scoreboard_init (&tc->sack_sb);
631   tcp_cc_init (tc);
632   if (tc->state == TCP_STATE_SYN_RCVD)
633     tcp_init_snd_vars (tc);
634
635   if (!tc->c_is_ip4 && ip6_address_is_link_local_unicast (&tc->c_rmt_ip6))
636     tcp_add_del_adjacency (tc, 1);
637
638   /*  tcp_connection_fib_attach (tc); */
639
640   if (transport_connection_is_tx_paced (&tc->connection)
641       || tcp_main.tx_pacing)
642     tcp_enable_pacing (tc);
643 }
644
645 static int
646 tcp_alloc_custom_local_endpoint (tcp_main_t * tm, ip46_address_t * lcl_addr,
647                                  u16 * lcl_port, u8 is_ip4)
648 {
649   int index, port;
650   if (is_ip4)
651     {
652       index = tm->last_v4_address_rotor++;
653       if (tm->last_v4_address_rotor >= vec_len (tm->ip4_src_addresses))
654         tm->last_v4_address_rotor = 0;
655       lcl_addr->ip4.as_u32 = tm->ip4_src_addresses[index].as_u32;
656     }
657   else
658     {
659       index = tm->last_v6_address_rotor++;
660       if (tm->last_v6_address_rotor >= vec_len (tm->ip6_src_addresses))
661         tm->last_v6_address_rotor = 0;
662       clib_memcpy_fast (&lcl_addr->ip6, &tm->ip6_src_addresses[index],
663                         sizeof (ip6_address_t));
664     }
665   port = transport_alloc_local_port (TRANSPORT_PROTO_TCP, lcl_addr);
666   if (port < 1)
667     {
668       clib_warning ("Failed to allocate src port");
669       return -1;
670     }
671   *lcl_port = port;
672   return 0;
673 }
674
675 static int
676 tcp_session_open (transport_endpoint_cfg_t * rmt)
677 {
678   tcp_main_t *tm = vnet_get_tcp_main ();
679   tcp_connection_t *tc;
680   ip46_address_t lcl_addr;
681   u16 lcl_port;
682   int rv;
683
684   /*
685    * Allocate local endpoint
686    */
687   if ((rmt->is_ip4 && vec_len (tm->ip4_src_addresses))
688       || (!rmt->is_ip4 && vec_len (tm->ip6_src_addresses)))
689     rv = tcp_alloc_custom_local_endpoint (tm, &lcl_addr, &lcl_port,
690                                           rmt->is_ip4);
691   else
692     rv = transport_alloc_local_endpoint (TRANSPORT_PROTO_TCP,
693                                          rmt, &lcl_addr, &lcl_port);
694
695   if (rv)
696     return -1;
697
698   /*
699    * Create connection and send SYN
700    */
701   clib_spinlock_lock_if_init (&tm->half_open_lock);
702   tc = tcp_half_open_connection_new ();
703   ip_copy (&tc->c_rmt_ip, &rmt->ip, rmt->is_ip4);
704   ip_copy (&tc->c_lcl_ip, &lcl_addr, rmt->is_ip4);
705   tc->c_rmt_port = rmt->port;
706   tc->c_lcl_port = clib_host_to_net_u16 (lcl_port);
707   tc->c_is_ip4 = rmt->is_ip4;
708   tc->c_proto = TRANSPORT_PROTO_TCP;
709   tc->c_fib_index = rmt->fib_index;
710   /* The other connection vars will be initialized after SYN ACK */
711   tcp_connection_timers_init (tc);
712
713   TCP_EVT_DBG (TCP_EVT_OPEN, tc);
714   tc->state = TCP_STATE_SYN_SENT;
715   tcp_init_snd_vars (tc);
716   tcp_send_syn (tc);
717   clib_spinlock_unlock_if_init (&tm->half_open_lock);
718
719   return tc->c_c_index;
720 }
721
722 const char *tcp_dbg_evt_str[] = {
723 #define _(sym, str) str,
724   foreach_tcp_dbg_evt
725 #undef _
726 };
727
728 const char *tcp_fsm_states[] = {
729 #define _(sym, str) str,
730   foreach_tcp_fsm_state
731 #undef _
732 };
733
734 u8 *
735 format_tcp_state (u8 * s, va_list * args)
736 {
737   u32 state = va_arg (*args, u32);
738
739   if (state < TCP_N_STATES)
740     s = format (s, "%s", tcp_fsm_states[state]);
741   else
742     s = format (s, "UNKNOWN (%d (0x%x))", state, state);
743   return s;
744 }
745
746 const char *tcp_connection_flags_str[] = {
747 #define _(sym, str) str,
748   foreach_tcp_connection_flag
749 #undef _
750 };
751
752 static u8 *
753 format_tcp_connection_flags (u8 * s, va_list * args)
754 {
755   tcp_connection_t *tc = va_arg (*args, tcp_connection_t *);
756   int i, last = -1;
757
758   for (i = 0; i < TCP_CONN_N_FLAG_BITS; i++)
759     if (tc->flags & (1 << i))
760       last = i;
761   for (i = 0; i < last; i++)
762     {
763       if (tc->flags & (1 << i))
764         s = format (s, "%s, ", tcp_connection_flags_str[i]);
765     }
766   if (last >= 0)
767     s = format (s, "%s", tcp_connection_flags_str[last]);
768   return s;
769 }
770
771 const char *tcp_conn_timers[] = {
772 #define _(sym, str) str,
773   foreach_tcp_timer
774 #undef _
775 };
776
777 static u8 *
778 format_tcp_timers (u8 * s, va_list * args)
779 {
780   tcp_connection_t *tc = va_arg (*args, tcp_connection_t *);
781   int i, last = -1;
782
783   for (i = 0; i < TCP_N_TIMERS; i++)
784     if (tc->timers[i] != TCP_TIMER_HANDLE_INVALID)
785       last = i;
786
787   for (i = 0; i < last; i++)
788     {
789       if (tc->timers[i] != TCP_TIMER_HANDLE_INVALID)
790         s = format (s, "%s,", tcp_conn_timers[i]);
791     }
792
793   if (last >= 0)
794     s = format (s, "%s", tcp_conn_timers[i]);
795
796   return s;
797 }
798
799 static u8 *
800 format_tcp_congestion_status (u8 * s, va_list * args)
801 {
802   tcp_connection_t *tc = va_arg (*args, tcp_connection_t *);
803   if (tcp_in_recovery (tc))
804     s = format (s, "recovery");
805   else if (tcp_in_fastrecovery (tc))
806     s = format (s, "fastrecovery");
807   else
808     s = format (s, "none");
809   return s;
810 }
811
812 static i32
813 tcp_rcv_wnd_available (tcp_connection_t * tc)
814 {
815   return (i32) tc->rcv_wnd - (tc->rcv_nxt - tc->rcv_las);
816 }
817
818 static u8 *
819 format_tcp_congestion (u8 * s, va_list * args)
820 {
821   tcp_connection_t *tc = va_arg (*args, tcp_connection_t *);
822   u32 indent = format_get_indent (s);
823
824   s = format (s, "%U ", format_tcp_congestion_status, tc);
825   s = format (s, "algo %s cwnd %u ssthresh %u bytes_acked %u\n",
826               tc->cc_algo->name, tc->cwnd, tc->ssthresh, tc->bytes_acked);
827   s = format (s, "%Ucc space %u prev_cwnd %u prev_ssthresh %u rtx_bytes %u\n",
828               format_white_space, indent, tcp_available_cc_snd_space (tc),
829               tc->prev_cwnd, tc->prev_ssthresh, tc->snd_rxt_bytes);
830   s = format (s, "%Usnd_congestion %u dupack %u limited_transmit %u\n",
831               format_white_space, indent, tc->snd_congestion - tc->iss,
832               tc->rcv_dupacks, tc->limited_transmit - tc->iss);
833   return s;
834 }
835
836 static u8 *
837 format_tcp_vars (u8 * s, va_list * args)
838 {
839   tcp_connection_t *tc = va_arg (*args, tcp_connection_t *);
840   s = format (s, " index: %u flags: %U timers: %U\n", tc->c_c_index,
841               format_tcp_connection_flags, tc, format_tcp_timers, tc);
842   s = format (s, " snd_una %u snd_nxt %u snd_una_max %u",
843               tc->snd_una - tc->iss, tc->snd_nxt - tc->iss,
844               tc->snd_una_max - tc->iss);
845   s = format (s, " rcv_nxt %u rcv_las %u\n",
846               tc->rcv_nxt - tc->irs, tc->rcv_las - tc->irs);
847   s = format (s, " snd_wnd %u rcv_wnd %u rcv_wscale %u ",
848               tc->snd_wnd, tc->rcv_wnd, tc->rcv_wscale);
849   s = format (s, "snd_wl1 %u snd_wl2 %u\n", tc->snd_wl1 - tc->irs,
850               tc->snd_wl2 - tc->iss);
851   s = format (s, " flight size %u out space %u rcv_wnd_av %u",
852               tcp_flight_size (tc), tcp_available_output_snd_space (tc),
853               tcp_rcv_wnd_available (tc));
854   s = format (s, " tsval_recent %u\n", tc->tsval_recent);
855   s = format (s, " tsecr %u tsecr_last_ack %u tsval_recent_age %u",
856               tc->rcv_opts.tsecr, tc->tsecr_last_ack,
857               tcp_time_now () - tc->tsval_recent_age);
858   s = format (s, " snd_mss %u\n", tc->snd_mss);
859   s = format (s, " rto %u rto_boff %u srtt %u us %.3f rttvar %u rtt_ts %.4f",
860               tc->rto, tc->rto_boff, tc->srtt, tc->mrtt_us * 1000, tc->rttvar,
861               tc->rtt_ts);
862   s = format (s, " rtt_seq %u\n", tc->rtt_seq - tc->iss);
863   s = format (s, " cong:   %U", format_tcp_congestion, tc);
864
865   if (tc->state >= TCP_STATE_ESTABLISHED)
866     {
867       s = format (s, " sboard: %U\n", format_tcp_scoreboard, &tc->sack_sb,
868                   tc);
869     }
870   if (vec_len (tc->snd_sacks))
871     s = format (s, " sacks tx: %U\n", format_tcp_sacks, tc);
872
873   return s;
874 }
875
876 static u8 *
877 format_tcp_connection_id (u8 * s, va_list * args)
878 {
879   tcp_connection_t *tc = va_arg (*args, tcp_connection_t *);
880   if (!tc)
881     return s;
882   if (tc->c_is_ip4)
883     {
884       s = format (s, "[%d:%d][%s] %U:%d->%U:%d", tc->c_thread_index,
885                   tc->c_s_index, "T", format_ip4_address, &tc->c_lcl_ip4,
886                   clib_net_to_host_u16 (tc->c_lcl_port), format_ip4_address,
887                   &tc->c_rmt_ip4, clib_net_to_host_u16 (tc->c_rmt_port));
888     }
889   else
890     {
891       s = format (s, "[%d:%d][%s] %U:%d->%U:%d", tc->c_thread_index,
892                   tc->c_s_index, "T", format_ip6_address, &tc->c_lcl_ip6,
893                   clib_net_to_host_u16 (tc->c_lcl_port), format_ip6_address,
894                   &tc->c_rmt_ip6, clib_net_to_host_u16 (tc->c_rmt_port));
895     }
896
897   return s;
898 }
899
900 u8 *
901 format_tcp_connection (u8 * s, va_list * args)
902 {
903   tcp_connection_t *tc = va_arg (*args, tcp_connection_t *);
904   u32 verbose = va_arg (*args, u32);
905
906   if (!tc)
907     return s;
908   s = format (s, "%-50U", format_tcp_connection_id, tc);
909   if (verbose)
910     {
911       s = format (s, "%-15U", format_tcp_state, tc->state);
912       if (verbose > 1)
913         s = format (s, "\n%U", format_tcp_vars, tc);
914     }
915
916   return s;
917 }
918
919 static u8 *
920 format_tcp_session (u8 * s, va_list * args)
921 {
922   u32 tci = va_arg (*args, u32);
923   u32 thread_index = va_arg (*args, u32);
924   u32 verbose = va_arg (*args, u32);
925   tcp_connection_t *tc;
926
927   tc = tcp_connection_get (tci, thread_index);
928   if (tc)
929     s = format (s, "%U", format_tcp_connection, tc, verbose);
930   else
931     s = format (s, "empty\n");
932   return s;
933 }
934
935 static u8 *
936 format_tcp_listener_session (u8 * s, va_list * args)
937 {
938   u32 tci = va_arg (*args, u32);
939   u32 verbose = va_arg (*args, u32);
940   tcp_connection_t *tc = tcp_listener_get (tci);
941   s = format (s, "%-50U", format_tcp_connection_id, tc);
942   if (verbose)
943     s = format (s, "%-15U", format_tcp_state, tc->state);
944   return s;
945 }
946
947 static u8 *
948 format_tcp_half_open_session (u8 * s, va_list * args)
949 {
950   u32 tci = va_arg (*args, u32);
951   tcp_connection_t *tc = tcp_half_open_connection_get (tci);
952   return format (s, "%U", format_tcp_connection_id, tc);
953 }
954
955 u8 *
956 format_tcp_sacks (u8 * s, va_list * args)
957 {
958   tcp_connection_t *tc = va_arg (*args, tcp_connection_t *);
959   sack_block_t *sacks = tc->snd_sacks;
960   sack_block_t *block;
961   int i, len = 0;
962
963   len = vec_len (sacks);
964   for (i = 0; i < len - 1; i++)
965     {
966       block = &sacks[i];
967       s = format (s, " start %u end %u\n", block->start - tc->irs,
968                   block->end - tc->irs);
969     }
970   if (len)
971     {
972       block = &sacks[len - 1];
973       s = format (s, " start %u end %u", block->start - tc->irs,
974                   block->end - tc->irs);
975     }
976   return s;
977 }
978
979 u8 *
980 format_tcp_rcv_sacks (u8 * s, va_list * args)
981 {
982   tcp_connection_t *tc = va_arg (*args, tcp_connection_t *);
983   sack_block_t *sacks = tc->rcv_opts.sacks;
984   sack_block_t *block;
985   int i, len = 0;
986
987   len = vec_len (sacks);
988   for (i = 0; i < len - 1; i++)
989     {
990       block = &sacks[i];
991       s = format (s, " start %u end %u\n", block->start - tc->iss,
992                   block->end - tc->iss);
993     }
994   if (len)
995     {
996       block = &sacks[len - 1];
997       s = format (s, " start %u end %u", block->start - tc->iss,
998                   block->end - tc->iss);
999     }
1000   return s;
1001 }
1002
1003 static u8 *
1004 format_tcp_sack_hole (u8 * s, va_list * args)
1005 {
1006   sack_scoreboard_hole_t *hole = va_arg (*args, sack_scoreboard_hole_t *);
1007   tcp_connection_t *tc = va_arg (*args, tcp_connection_t *);
1008   if (tc)
1009     s = format (s, "  [%u, %u]", hole->start - tc->iss, hole->end - tc->iss);
1010   else
1011     s = format (s, "  [%u, %u]", hole->start, hole->end);
1012   return s;
1013 }
1014
1015 u8 *
1016 format_tcp_scoreboard (u8 * s, va_list * args)
1017 {
1018   sack_scoreboard_t *sb = va_arg (*args, sack_scoreboard_t *);
1019   tcp_connection_t *tc = va_arg (*args, tcp_connection_t *);
1020   sack_scoreboard_hole_t *hole;
1021   u32 indent = format_get_indent (s);
1022
1023   s = format (s, "sacked_bytes %u last_sacked_bytes %u lost_bytes %u\n",
1024               sb->sacked_bytes, sb->last_sacked_bytes, sb->lost_bytes);
1025   s = format (s, "%Ulast_bytes_delivered %u high_sacked %u snd_una_adv %u\n",
1026               format_white_space, indent, sb->last_bytes_delivered,
1027               sb->high_sacked - tc->iss, sb->snd_una_adv);
1028   s = format (s, "%Ucur_rxt_hole %u high_rxt %u rescue_rxt %u",
1029               format_white_space, indent, sb->cur_rxt_hole,
1030               sb->high_rxt - tc->iss, sb->rescue_rxt - tc->iss);
1031
1032   hole = scoreboard_first_hole (sb);
1033   if (hole)
1034     s = format (s, "\n%Uhead %u tail %u %u holes:\n%U", format_white_space,
1035                 indent, sb->head, sb->tail, pool_elts (sb->holes),
1036                 format_white_space, indent);
1037
1038   while (hole)
1039     {
1040       s = format (s, "%U", format_tcp_sack_hole, hole, tc);
1041       hole = scoreboard_next_hole (sb, hole);
1042     }
1043
1044   return s;
1045 }
1046
1047 static transport_connection_t *
1048 tcp_session_get_transport (u32 conn_index, u32 thread_index)
1049 {
1050   tcp_connection_t *tc = tcp_connection_get (conn_index, thread_index);
1051   return &tc->connection;
1052 }
1053
1054 static transport_connection_t *
1055 tcp_half_open_session_get_transport (u32 conn_index)
1056 {
1057   tcp_connection_t *tc = tcp_half_open_connection_get (conn_index);
1058   return &tc->connection;
1059 }
1060
1061 /**
1062  * Compute maximum segment size for session layer.
1063  *
1064  * Since the result needs to be the actual data length, it first computes
1065  * the tcp options to be used in the next burst and subtracts their
1066  * length from the connection's snd_mss.
1067  */
1068 static u16
1069 tcp_session_send_mss (transport_connection_t * trans_conn)
1070 {
1071   tcp_connection_t *tc = (tcp_connection_t *) trans_conn;
1072
1073   /* Ensure snd_mss does accurately reflect the amount of data we can push
1074    * in a segment. This also makes sure that options are updated according to
1075    * the current state of the connection. */
1076   tcp_update_burst_snd_vars (tc);
1077
1078   return tc->snd_mss;
1079 }
1080
1081 always_inline u32
1082 tcp_round_snd_space (tcp_connection_t * tc, u32 snd_space)
1083 {
1084   if (PREDICT_FALSE (tc->snd_wnd < tc->snd_mss))
1085     {
1086       return tc->snd_wnd <= snd_space ? tc->snd_wnd : 0;
1087     }
1088
1089   /* If not snd_wnd constrained and we can't write at least a segment,
1090    * don't try at all */
1091   if (PREDICT_FALSE (snd_space < tc->snd_mss))
1092     return snd_space < tc->cwnd ? 0 : snd_space;
1093
1094   /* round down to mss multiple */
1095   return snd_space - (snd_space % tc->snd_mss);
1096 }
1097
1098 /**
1099  * Compute tx window session is allowed to fill.
1100  *
1101  * Takes into account available send space, snd_mss and the congestion
1102  * state of the connection. If possible, the value returned is a multiple
1103  * of snd_mss.
1104  *
1105  * @param tc tcp connection
1106  * @return number of bytes session is allowed to write
1107  */
1108 static inline u32
1109 tcp_snd_space_inline (tcp_connection_t * tc)
1110 {
1111   int snd_space, snt_limited;
1112
1113   if (PREDICT_FALSE (tcp_in_fastrecovery (tc)
1114                      || tc->state == TCP_STATE_CLOSED))
1115     return 0;
1116
1117   snd_space = tcp_available_output_snd_space (tc);
1118
1119   /* If we haven't gotten dupacks or if we did and have gotten sacked
1120    * bytes then we can still send as per Limited Transmit (RFC3042) */
1121   if (PREDICT_FALSE (tc->rcv_dupacks != 0
1122                      && (tcp_opts_sack_permitted (tc)
1123                          && tc->sack_sb.last_sacked_bytes == 0)))
1124     {
1125       if (tc->rcv_dupacks == 1 && tc->limited_transmit != tc->snd_nxt)
1126         tc->limited_transmit = tc->snd_nxt;
1127       ASSERT (seq_leq (tc->limited_transmit, tc->snd_nxt));
1128
1129       snt_limited = tc->snd_nxt - tc->limited_transmit;
1130       snd_space = clib_max (2 * tc->snd_mss - snt_limited, 0);
1131     }
1132   return tcp_round_snd_space (tc, snd_space);
1133 }
1134
1135 u32
1136 tcp_snd_space (tcp_connection_t * tc)
1137 {
1138   return tcp_snd_space_inline (tc);
1139 }
1140
1141 static u32
1142 tcp_session_send_space (transport_connection_t * trans_conn)
1143 {
1144   tcp_connection_t *tc = (tcp_connection_t *) trans_conn;
1145   return clib_min (tcp_snd_space_inline (tc),
1146                    tc->snd_wnd - (tc->snd_nxt - tc->snd_una));
1147 }
1148
1149 static u32
1150 tcp_session_tx_fifo_offset (transport_connection_t * trans_conn)
1151 {
1152   tcp_connection_t *tc = (tcp_connection_t *) trans_conn;
1153
1154   ASSERT (seq_geq (tc->snd_nxt, tc->snd_una));
1155
1156   /* This still works if fast retransmit is on */
1157   return (tc->snd_nxt - tc->snd_una);
1158 }
1159
1160 static void
1161 tcp_update_time (f64 now, u8 thread_index)
1162 {
1163   tcp_worker_ctx_t *wrk = tcp_get_worker (thread_index);
1164
1165   tcp_set_time_now (wrk);
1166   tw_timer_expire_timers_16t_2w_512sl (&wrk->timer_wheel, now);
1167   tcp_do_fastretransmits (wrk);
1168   tcp_send_acks (wrk);
1169   tcp_flush_frames_to_output (wrk);
1170 }
1171
1172 static void
1173 tcp_session_flush_data (transport_connection_t * tconn)
1174 {
1175   tcp_connection_t *tc = (tcp_connection_t *) tconn;
1176   if (tc->flags & TCP_CONN_PSH_PENDING)
1177     return;
1178   tc->flags |= TCP_CONN_PSH_PENDING;
1179   tc->psh_seq = tc->snd_una + transport_max_tx_dequeue (tconn) - 1;
1180 }
1181
1182 /* *INDENT-OFF* */
1183 const static transport_proto_vft_t tcp_proto = {
1184   .enable = vnet_tcp_enable_disable,
1185   .start_listen = tcp_session_bind,
1186   .stop_listen = tcp_session_unbind,
1187   .push_header = tcp_session_push_header,
1188   .get_connection = tcp_session_get_transport,
1189   .get_listener = tcp_session_get_listener,
1190   .get_half_open = tcp_half_open_session_get_transport,
1191   .connect = tcp_session_open,
1192   .close = tcp_session_close,
1193   .cleanup = tcp_session_cleanup,
1194   .send_mss = tcp_session_send_mss,
1195   .send_space = tcp_session_send_space,
1196   .update_time = tcp_update_time,
1197   .tx_fifo_offset = tcp_session_tx_fifo_offset,
1198   .flush_data = tcp_session_flush_data,
1199   .format_connection = format_tcp_session,
1200   .format_listener = format_tcp_listener_session,
1201   .format_half_open = format_tcp_half_open_session,
1202   .tx_type = TRANSPORT_TX_PEEK,
1203   .service_type = TRANSPORT_SERVICE_VC,
1204 };
1205 /* *INDENT-ON* */
1206
1207 void
1208 tcp_connection_tx_pacer_update (tcp_connection_t * tc)
1209 {
1210   f64 srtt;
1211   u64 rate;
1212
1213   if (!transport_connection_is_tx_paced (&tc->connection))
1214     return;
1215
1216   srtt = clib_min ((f64) tc->srtt * TCP_TICK, tc->mrtt_us);
1217   /* TODO should constrain to interface's max throughput but
1218    * we don't have link speeds for sw ifs ..*/
1219   rate = tc->cwnd / srtt;
1220   transport_connection_tx_pacer_update (&tc->connection, rate);
1221 }
1222
1223 void
1224 tcp_connection_tx_pacer_reset (tcp_connection_t * tc, u32 window,
1225                                u32 start_bucket)
1226 {
1227   tcp_worker_ctx_t *wrk = tcp_get_worker (tc->c_thread_index);
1228   u32 byte_rate = window / ((f64) TCP_TICK * tc->srtt);
1229   u64 last_time = wrk->vm->clib_time.last_cpu_time;
1230   transport_connection_tx_pacer_reset (&tc->connection, byte_rate,
1231                                        start_bucket, last_time);
1232 }
1233
1234 static void
1235 tcp_timer_keep_handler (u32 conn_index)
1236 {
1237   u32 thread_index = vlib_get_thread_index ();
1238   tcp_connection_t *tc;
1239
1240   tc = tcp_connection_get (conn_index, thread_index);
1241   tc->timers[TCP_TIMER_KEEP] = TCP_TIMER_HANDLE_INVALID;
1242
1243   tcp_connection_close (tc);
1244 }
1245
1246 static void
1247 tcp_timer_establish_handler (u32 conn_index)
1248 {
1249   tcp_connection_t *tc;
1250
1251   tc = tcp_connection_get (conn_index, vlib_get_thread_index ());
1252   /* note: the connection may have already disappeared */
1253   if (PREDICT_FALSE (tc == 0))
1254     return;
1255   ASSERT (tc->state == TCP_STATE_SYN_RCVD);
1256   tc->timers[TCP_TIMER_ESTABLISH] = TCP_TIMER_HANDLE_INVALID;
1257   tcp_connection_set_state (tc, TCP_STATE_CLOSED);
1258   /* Start cleanup. App wasn't notified yet so use delete notify as
1259    * opposed to delete to cleanup session layer state. */
1260   tcp_connection_timers_reset (tc);
1261   session_transport_delete_notify (&tc->connection);
1262   tcp_timer_update (tc, TCP_TIMER_WAITCLOSE, TCP_CLEANUP_TIME);
1263 }
1264
1265 static void
1266 tcp_timer_establish_ao_handler (u32 conn_index)
1267 {
1268   tcp_connection_t *tc;
1269
1270   tc = tcp_half_open_connection_get (conn_index);
1271   if (!tc)
1272     return;
1273
1274   ASSERT (tc->state == TCP_STATE_SYN_SENT);
1275   /* Notify app if we haven't tried to clean this up already */
1276   if (!(tc->flags & TCP_CONN_HALF_OPEN_DONE))
1277     session_stream_connect_notify (&tc->connection, 1 /* fail */ );
1278
1279   tc->timers[TCP_TIMER_ESTABLISH_AO] = TCP_TIMER_HANDLE_INVALID;
1280   tcp_connection_cleanup (tc);
1281 }
1282
1283 static void
1284 tcp_timer_waitclose_handler (u32 conn_index)
1285 {
1286   u32 thread_index = vlib_get_thread_index (), rto;
1287   tcp_connection_t *tc;
1288
1289   tc = tcp_connection_get (conn_index, thread_index);
1290   if (!tc)
1291     return;
1292   tc->timers[TCP_TIMER_WAITCLOSE] = TCP_TIMER_HANDLE_INVALID;
1293
1294   switch (tc->state)
1295     {
1296     case TCP_STATE_CLOSE_WAIT:
1297       tcp_connection_timers_reset (tc);
1298       session_transport_closed_notify (&tc->connection);
1299
1300       if (!(tc->flags & TCP_CONN_FINPNDG))
1301         {
1302           tcp_connection_set_state (tc, TCP_STATE_CLOSED);
1303           tcp_timer_set (tc, TCP_TIMER_WAITCLOSE, TCP_CLEANUP_TIME);
1304           break;
1305         }
1306
1307       /* Session didn't come back with a close. Send FIN either way
1308        * and switch to LAST_ACK. */
1309       tcp_cong_recovery_off (tc);
1310       /* Make sure we don't try to send unsent data */
1311       tc->snd_nxt = tc->snd_una;
1312       tcp_send_fin (tc);
1313       tcp_connection_set_state (tc, TCP_STATE_LAST_ACK);
1314
1315       /* Make sure we don't wait in LAST ACK forever */
1316       tcp_timer_set (tc, TCP_TIMER_WAITCLOSE, TCP_2MSL_TIME);
1317
1318       /* Don't delete the connection yet */
1319       break;
1320     case TCP_STATE_FIN_WAIT_1:
1321       tcp_connection_timers_reset (tc);
1322       if (tc->flags & TCP_CONN_FINPNDG)
1323         {
1324           /* If FIN pending send it before closing and wait as long as
1325            * the rto timeout would wait. Notify session layer that transport
1326            * is closed. We haven't sent everything but we did try. */
1327           tcp_cong_recovery_off (tc);
1328           tcp_send_fin (tc);
1329           rto = clib_max ((tc->rto >> tc->rto_boff) * TCP_TO_TIMER_TICK, 1);
1330           tcp_timer_set (tc, TCP_TIMER_WAITCLOSE,
1331                          clib_min (rto, TCP_2MSL_TIME));
1332           session_transport_closed_notify (&tc->connection);
1333         }
1334       else
1335         {
1336           /* We've sent the fin but no progress. Close the connection and
1337            * to make sure everything is flushed, setup a cleanup timer */
1338           tcp_connection_set_state (tc, TCP_STATE_CLOSED);
1339           tcp_timer_set (tc, TCP_TIMER_WAITCLOSE, TCP_CLEANUP_TIME);
1340         }
1341       break;
1342     case TCP_STATE_LAST_ACK:
1343     case TCP_STATE_CLOSING:
1344       tcp_connection_timers_reset (tc);
1345       tcp_connection_set_state (tc, TCP_STATE_CLOSED);
1346       tcp_timer_set (tc, TCP_TIMER_WAITCLOSE, TCP_CLEANUP_TIME);
1347       session_transport_closed_notify (&tc->connection);
1348       break;
1349     default:
1350       tcp_connection_del (tc);
1351       break;
1352     }
1353 }
1354
1355 /* *INDENT-OFF* */
1356 static timer_expiration_handler *timer_expiration_handlers[TCP_N_TIMERS] =
1357 {
1358     tcp_timer_retransmit_handler,
1359     tcp_timer_delack_handler,
1360     tcp_timer_persist_handler,
1361     tcp_timer_keep_handler,
1362     tcp_timer_waitclose_handler,
1363     tcp_timer_retransmit_syn_handler,
1364     tcp_timer_establish_handler,
1365     tcp_timer_establish_ao_handler,
1366 };
1367 /* *INDENT-ON* */
1368
1369 static void
1370 tcp_expired_timers_dispatch (u32 * expired_timers)
1371 {
1372   int i;
1373   u32 connection_index, timer_id;
1374
1375   for (i = 0; i < vec_len (expired_timers); i++)
1376     {
1377       /* Get session index and timer id */
1378       connection_index = expired_timers[i] & 0x0FFFFFFF;
1379       timer_id = expired_timers[i] >> 28;
1380
1381       TCP_EVT_DBG (TCP_EVT_TIMER_POP, connection_index, timer_id);
1382
1383       /* Handle expiration */
1384       (*timer_expiration_handlers[timer_id]) (connection_index);
1385     }
1386 }
1387
1388 static void
1389 tcp_initialize_timer_wheels (tcp_main_t * tm)
1390 {
1391   tw_timer_wheel_16t_2w_512sl_t *tw;
1392   /* *INDENT-OFF* */
1393   foreach_vlib_main (({
1394     tw = &tm->wrk_ctx[ii].timer_wheel;
1395     tw_timer_wheel_init_16t_2w_512sl (tw, tcp_expired_timers_dispatch,
1396                                       100e-3 /* timer period 100ms */ , ~0);
1397     tw->last_run_time = vlib_time_now (this_vlib_main);
1398   }));
1399   /* *INDENT-ON* */
1400 }
1401
1402 static void
1403 tcp_initialize_iss_seed (tcp_main_t * tm)
1404 {
1405   u32 default_seed = random_default_seed ();
1406   u64 time_now = clib_cpu_time_now ();
1407
1408   tm->iss_seed.first = (u64) random_u32 (&default_seed) << 32;
1409   tm->iss_seed.second = random_u64 (&time_now);
1410 }
1411
1412 static clib_error_t *
1413 tcp_main_enable (vlib_main_t * vm)
1414 {
1415   vlib_thread_main_t *vtm = vlib_get_thread_main ();
1416   u32 num_threads, n_workers, prealloc_conn_per_wrk;
1417   tcp_connection_t *tc __attribute__ ((unused));
1418   tcp_main_t *tm = vnet_get_tcp_main ();
1419   clib_error_t *error = 0;
1420   int thread;
1421
1422   if ((error = vlib_call_init_function (vm, ip_main_init)))
1423     return error;
1424   if ((error = vlib_call_init_function (vm, ip4_lookup_init)))
1425     return error;
1426   if ((error = vlib_call_init_function (vm, ip6_lookup_init)))
1427     return error;
1428
1429   /*
1430    * Registrations
1431    */
1432
1433   ip4_register_protocol (IP_PROTOCOL_TCP, tcp4_input_node.index);
1434   ip6_register_protocol (IP_PROTOCOL_TCP, tcp6_input_node.index);
1435
1436   /*
1437    * Initialize data structures
1438    */
1439
1440   num_threads = 1 /* main thread */  + vtm->n_threads;
1441   vec_validate (tm->connections, num_threads - 1);
1442   vec_validate (tm->wrk_ctx, num_threads - 1);
1443   n_workers = num_threads == 1 ? 1 : vtm->n_threads;
1444   prealloc_conn_per_wrk = tm->preallocated_connections / n_workers;
1445
1446   for (thread = 0; thread < num_threads; thread++)
1447     {
1448       vec_validate (tm->wrk_ctx[thread].pending_fast_rxt, 255);
1449       vec_validate (tm->wrk_ctx[thread].ongoing_fast_rxt, 255);
1450       vec_validate (tm->wrk_ctx[thread].postponed_fast_rxt, 255);
1451       vec_validate (tm->wrk_ctx[thread].pending_deq_acked, 255);
1452       vec_validate (tm->wrk_ctx[thread].pending_acks, 255);
1453       vec_validate (tm->wrk_ctx[thread].pending_disconnects, 255);
1454       vec_reset_length (tm->wrk_ctx[thread].pending_fast_rxt);
1455       vec_reset_length (tm->wrk_ctx[thread].ongoing_fast_rxt);
1456       vec_reset_length (tm->wrk_ctx[thread].postponed_fast_rxt);
1457       vec_reset_length (tm->wrk_ctx[thread].pending_deq_acked);
1458       vec_reset_length (tm->wrk_ctx[thread].pending_acks);
1459       vec_reset_length (tm->wrk_ctx[thread].pending_disconnects);
1460       tm->wrk_ctx[thread].vm = vlib_mains[thread];
1461
1462       /*
1463        * Preallocate connections. Assume that thread 0 won't
1464        * use preallocated threads when running multi-core
1465        */
1466       if ((thread > 0 || num_threads == 1) && prealloc_conn_per_wrk)
1467         pool_init_fixed (tm->connections[thread], prealloc_conn_per_wrk);
1468     }
1469
1470   /*
1471    * Use a preallocated half-open connection pool?
1472    */
1473   if (tm->preallocated_half_open_connections)
1474     pool_init_fixed (tm->half_open_connections,
1475                      tm->preallocated_half_open_connections);
1476
1477   /* Initialize clocks per tick for TCP timestamp. Used to compute
1478    * monotonically increasing timestamps. */
1479   tm->tstamp_ticks_per_clock = vm->clib_time.seconds_per_clock
1480     / TCP_TSTAMP_RESOLUTION;
1481
1482   if (num_threads > 1)
1483     {
1484       clib_spinlock_init (&tm->half_open_lock);
1485     }
1486
1487   tcp_initialize_timer_wheels (tm);
1488   tcp_initialize_iss_seed (tm);
1489
1490   tm->bytes_per_buffer = vlib_buffer_get_default_data_size (vm);
1491
1492   return error;
1493 }
1494
1495 clib_error_t *
1496 vnet_tcp_enable_disable (vlib_main_t * vm, u8 is_en)
1497 {
1498   if (is_en)
1499     {
1500       if (tcp_main.is_enabled)
1501         return 0;
1502
1503       return tcp_main_enable (vm);
1504     }
1505   else
1506     {
1507       tcp_main.is_enabled = 0;
1508     }
1509
1510   return 0;
1511 }
1512
1513 void
1514 tcp_punt_unknown (vlib_main_t * vm, u8 is_ip4, u8 is_add)
1515 {
1516   tcp_main_t *tm = &tcp_main;
1517   if (is_ip4)
1518     tm->punt_unknown4 = is_add;
1519   else
1520     tm->punt_unknown6 = is_add;
1521 }
1522
1523 static clib_error_t *
1524 tcp_init (vlib_main_t * vm)
1525 {
1526   tcp_main_t *tm = vnet_get_tcp_main ();
1527   ip_main_t *im = &ip_main;
1528   ip_protocol_info_t *pi;
1529
1530   /* Session layer, and by implication tcp, are disabled by default */
1531   tm->is_enabled = 0;
1532
1533   /* Register with IP for header parsing */
1534   pi = ip_get_protocol_info (im, IP_PROTOCOL_TCP);
1535   if (pi == 0)
1536     return clib_error_return (0, "TCP protocol info AWOL");
1537   pi->format_header = format_tcp_header;
1538   pi->unformat_pg_edit = unformat_pg_tcp_header;
1539
1540   /* Register as transport with session layer */
1541   transport_register_protocol (TRANSPORT_PROTO_TCP, &tcp_proto,
1542                                FIB_PROTOCOL_IP4, tcp4_output_node.index);
1543   transport_register_protocol (TRANSPORT_PROTO_TCP, &tcp_proto,
1544                                FIB_PROTOCOL_IP6, tcp6_output_node.index);
1545
1546   tcp_api_reference ();
1547   tm->cc_algo_by_name = hash_create_string (0, sizeof (uword));
1548   tm->tx_pacing = 1;
1549   tm->cc_algo = TCP_CC_NEWRENO;
1550   tm->default_mtu = 1460;
1551   return 0;
1552 }
1553
1554 VLIB_INIT_FUNCTION (tcp_init);
1555
1556 uword
1557 unformat_tcp_cc_algo (unformat_input_t * input, va_list * va)
1558 {
1559   uword *result = va_arg (*va, uword *);
1560   tcp_main_t *tm = &tcp_main;
1561   char *cc_algo_name;
1562   u8 found = 0;
1563   uword *p;
1564
1565   if (unformat (input, "%s", &cc_algo_name)
1566       && ((p = hash_get_mem (tm->cc_algo_by_name, cc_algo_name))))
1567     {
1568       *result = *p;
1569       found = 1;
1570     }
1571
1572   vec_free (cc_algo_name);
1573   return found;
1574 }
1575
1576 uword
1577 unformat_tcp_cc_algo_cfg (unformat_input_t * input, va_list * va)
1578 {
1579   tcp_main_t *tm = vnet_get_tcp_main ();
1580   tcp_cc_algorithm_t *cc_alg;
1581   unformat_input_t sub_input;
1582   int found = 0;
1583
1584   vec_foreach (cc_alg, tm->cc_algos)
1585   {
1586     if (!unformat (input, cc_alg->name))
1587       continue;
1588
1589     if (cc_alg->unformat_cfg
1590         && unformat (input, "%U", unformat_vlib_cli_sub_input, &sub_input))
1591       {
1592         if (cc_alg->unformat_cfg (&sub_input))
1593           found = 1;
1594       }
1595   }
1596   return found;
1597 }
1598
1599 static clib_error_t *
1600 tcp_config_fn (vlib_main_t * vm, unformat_input_t * input)
1601 {
1602   tcp_main_t *tm = vnet_get_tcp_main ();
1603
1604   while (unformat_check_input (input) != UNFORMAT_END_OF_INPUT)
1605     {
1606       if (unformat (input, "preallocated-connections %d",
1607                     &tm->preallocated_connections))
1608         ;
1609       else if (unformat (input, "preallocated-half-open-connections %d",
1610                          &tm->preallocated_half_open_connections))
1611         ;
1612       else if (unformat (input, "buffer-fail-fraction %f",
1613                          &tm->buffer_fail_fraction))
1614         ;
1615       else if (unformat (input, "max-rx-fifo %U", unformat_memory_size,
1616                          &tm->max_rx_fifo))
1617         ;
1618       else if (unformat (input, "mtu %d", &tm->default_mtu))
1619         ;
1620       else if (unformat (input, "no-tx-pacing"))
1621         tm->tx_pacing = 0;
1622       else if (unformat (input, "cc-algo %U", unformat_tcp_cc_algo,
1623                          &tm->cc_algo))
1624         ;
1625       else if (unformat (input, "%U", unformat_tcp_cc_algo_cfg))
1626         ;
1627       else
1628         return clib_error_return (0, "unknown input `%U'",
1629                                   format_unformat_error, input);
1630     }
1631   return 0;
1632 }
1633
1634 VLIB_CONFIG_FUNCTION (tcp_config_fn, "tcp");
1635
1636
1637 /**
1638  * \brief Configure an ipv4 source address range
1639  * @param vm vlib_main_t pointer
1640  * @param start first ipv4 address in the source address range
1641  * @param end last ipv4 address in the source address range
1642  * @param table_id VRF / table ID, 0 for the default FIB
1643  * @return 0 if all OK, else an error indication from api_errno.h
1644  */
1645
1646 int
1647 tcp_configure_v4_source_address_range (vlib_main_t * vm,
1648                                        ip4_address_t * start,
1649                                        ip4_address_t * end, u32 table_id)
1650 {
1651   tcp_main_t *tm = vnet_get_tcp_main ();
1652   vnet_main_t *vnm = vnet_get_main ();
1653   u32 start_host_byte_order, end_host_byte_order;
1654   fib_prefix_t prefix;
1655   vnet_sw_interface_t *si;
1656   fib_node_index_t fei;
1657   u32 fib_index = 0;
1658   u32 sw_if_index;
1659   int rv;
1660   int vnet_proxy_arp_add_del (ip4_address_t * lo_addr,
1661                               ip4_address_t * hi_addr, u32 fib_index,
1662                               int is_del);
1663
1664   clib_memset (&prefix, 0, sizeof (prefix));
1665
1666   fib_index = fib_table_find (FIB_PROTOCOL_IP4, table_id);
1667
1668   if (fib_index == ~0)
1669     return VNET_API_ERROR_NO_SUCH_FIB;
1670
1671   start_host_byte_order = clib_net_to_host_u32 (start->as_u32);
1672   end_host_byte_order = clib_net_to_host_u32 (end->as_u32);
1673
1674   /* sanity check for reversed args or some such */
1675   if ((end_host_byte_order - start_host_byte_order) > (10 << 10))
1676     return VNET_API_ERROR_INVALID_ARGUMENT;
1677
1678   /* Lookup the last address, to identify the interface involved */
1679   prefix.fp_len = 32;
1680   prefix.fp_proto = FIB_PROTOCOL_IP4;
1681   memcpy (&prefix.fp_addr.ip4, end, sizeof (ip4_address_t));
1682
1683   fei = fib_table_lookup (fib_index, &prefix);
1684
1685   /* Couldn't find route to destination. Bail out. */
1686   if (fei == FIB_NODE_INDEX_INVALID)
1687     return VNET_API_ERROR_NEXT_HOP_NOT_IN_FIB;
1688
1689   sw_if_index = fib_entry_get_resolving_interface (fei);
1690
1691   /* Enable proxy arp on the interface */
1692   si = vnet_get_sw_interface (vnm, sw_if_index);
1693   si->flags |= VNET_SW_INTERFACE_FLAG_PROXY_ARP;
1694
1695   /* Configure proxy arp across the range */
1696   rv = vnet_proxy_arp_add_del (start, end, fib_index, 0 /* is_del */ );
1697
1698   if (rv)
1699     return rv;
1700
1701   do
1702     {
1703       dpo_id_t dpo = DPO_INVALID;
1704
1705       vec_add1 (tm->ip4_src_addresses, start[0]);
1706
1707       /* Add local adjacencies for the range */
1708
1709       receive_dpo_add_or_lock (DPO_PROTO_IP4, ~0 /* sw_if_index */ ,
1710                                NULL, &dpo);
1711       prefix.fp_len = 32;
1712       prefix.fp_proto = FIB_PROTOCOL_IP4;
1713       prefix.fp_addr.ip4.as_u32 = start->as_u32;
1714
1715       fib_table_entry_special_dpo_update (fib_index,
1716                                           &prefix,
1717                                           FIB_SOURCE_API,
1718                                           FIB_ENTRY_FLAG_EXCLUSIVE, &dpo);
1719       dpo_reset (&dpo);
1720
1721       start_host_byte_order++;
1722       start->as_u32 = clib_host_to_net_u32 (start_host_byte_order);
1723     }
1724   while (start_host_byte_order <= end_host_byte_order);
1725
1726   return 0;
1727 }
1728
1729 /**
1730  * \brief Configure an ipv6 source address range
1731  * @param vm vlib_main_t pointer
1732  * @param start first ipv6 address in the source address range
1733  * @param end last ipv6 address in the source address range
1734  * @param table_id VRF / table ID, 0 for the default FIB
1735  * @return 0 if all OK, else an error indication from api_errno.h
1736  */
1737
1738 int
1739 tcp_configure_v6_source_address_range (vlib_main_t * vm,
1740                                        ip6_address_t * start,
1741                                        ip6_address_t * end, u32 table_id)
1742 {
1743   tcp_main_t *tm = vnet_get_tcp_main ();
1744   fib_prefix_t prefix;
1745   u32 fib_index = 0;
1746   fib_node_index_t fei;
1747   u32 sw_if_index;
1748
1749   clib_memset (&prefix, 0, sizeof (prefix));
1750
1751   fib_index = fib_table_find (FIB_PROTOCOL_IP6, table_id);
1752
1753   if (fib_index == ~0)
1754     return VNET_API_ERROR_NO_SUCH_FIB;
1755
1756   while (1)
1757     {
1758       int i;
1759       ip6_address_t tmp;
1760       dpo_id_t dpo = DPO_INVALID;
1761
1762       /* Remember this address */
1763       vec_add1 (tm->ip6_src_addresses, start[0]);
1764
1765       /* Lookup the prefix, to identify the interface involved */
1766       prefix.fp_len = 128;
1767       prefix.fp_proto = FIB_PROTOCOL_IP6;
1768       memcpy (&prefix.fp_addr.ip6, start, sizeof (ip6_address_t));
1769
1770       fei = fib_table_lookup (fib_index, &prefix);
1771
1772       /* Couldn't find route to destination. Bail out. */
1773       if (fei == FIB_NODE_INDEX_INVALID)
1774         return VNET_API_ERROR_NEXT_HOP_NOT_IN_FIB;
1775
1776       sw_if_index = fib_entry_get_resolving_interface (fei);
1777
1778       if (sw_if_index == (u32) ~ 0)
1779         return VNET_API_ERROR_NO_MATCHING_INTERFACE;
1780
1781       /* Add a proxy neighbor discovery entry for this address */
1782       ip6_neighbor_proxy_add_del (sw_if_index, start, 0 /* is_del */ );
1783
1784       /* Add a receive adjacency for this address */
1785       receive_dpo_add_or_lock (DPO_PROTO_IP6, ~0 /* sw_if_index */ ,
1786                                NULL, &dpo);
1787
1788       fib_table_entry_special_dpo_update (fib_index,
1789                                           &prefix,
1790                                           FIB_SOURCE_API,
1791                                           FIB_ENTRY_FLAG_EXCLUSIVE, &dpo);
1792       dpo_reset (&dpo);
1793
1794       /* Done with the entire range? */
1795       if (!memcmp (start, end, sizeof (start[0])))
1796         break;
1797
1798       /* Increment the address. DGMS. */
1799       tmp = start[0];
1800       for (i = 15; i >= 0; i--)
1801         {
1802           tmp.as_u8[i] += 1;
1803           if (tmp.as_u8[i] != 0)
1804             break;
1805         }
1806       start[0] = tmp;
1807     }
1808   return 0;
1809 }
1810
1811 static clib_error_t *
1812 tcp_src_address (vlib_main_t * vm,
1813                  unformat_input_t * input, vlib_cli_command_t * cmd_arg)
1814 {
1815   ip4_address_t v4start, v4end;
1816   ip6_address_t v6start, v6end;
1817   u32 table_id = 0;
1818   int v4set = 0;
1819   int v6set = 0;
1820   int rv;
1821
1822   while (unformat_check_input (input) != UNFORMAT_END_OF_INPUT)
1823     {
1824       if (unformat (input, "%U - %U", unformat_ip4_address, &v4start,
1825                     unformat_ip4_address, &v4end))
1826         v4set = 1;
1827       else if (unformat (input, "%U", unformat_ip4_address, &v4start))
1828         {
1829           memcpy (&v4end, &v4start, sizeof (v4start));
1830           v4set = 1;
1831         }
1832       else if (unformat (input, "%U - %U", unformat_ip6_address, &v6start,
1833                          unformat_ip6_address, &v6end))
1834         v6set = 1;
1835       else if (unformat (input, "%U", unformat_ip6_address, &v6start))
1836         {
1837           memcpy (&v6end, &v6start, sizeof (v6start));
1838           v6set = 1;
1839         }
1840       else if (unformat (input, "fib-table %d", &table_id))
1841         ;
1842       else
1843         break;
1844     }
1845
1846   if (!v4set && !v6set)
1847     return clib_error_return (0, "at least one v4 or v6 address required");
1848
1849   if (v4set)
1850     {
1851       rv = tcp_configure_v4_source_address_range (vm, &v4start, &v4end,
1852                                                   table_id);
1853       switch (rv)
1854         {
1855         case 0:
1856           break;
1857
1858         case VNET_API_ERROR_NO_SUCH_FIB:
1859           return clib_error_return (0, "Invalid table-id %d", table_id);
1860
1861         case VNET_API_ERROR_INVALID_ARGUMENT:
1862           return clib_error_return (0, "Invalid address range %U - %U",
1863                                     format_ip4_address, &v4start,
1864                                     format_ip4_address, &v4end);
1865         default:
1866           return clib_error_return (0, "error %d", rv);
1867           break;
1868         }
1869     }
1870   if (v6set)
1871     {
1872       rv = tcp_configure_v6_source_address_range (vm, &v6start, &v6end,
1873                                                   table_id);
1874       switch (rv)
1875         {
1876         case 0:
1877           break;
1878
1879         case VNET_API_ERROR_NO_SUCH_FIB:
1880           return clib_error_return (0, "Invalid table-id %d", table_id);
1881
1882         default:
1883           return clib_error_return (0, "error %d", rv);
1884           break;
1885         }
1886     }
1887   return 0;
1888 }
1889
1890 /* *INDENT-OFF* */
1891 VLIB_CLI_COMMAND (tcp_src_address_command, static) =
1892 {
1893   .path = "tcp src-address",
1894   .short_help = "tcp src-address <ip-addr> [- <ip-addr>] add src address range",
1895   .function = tcp_src_address,
1896 };
1897 /* *INDENT-ON* */
1898
1899 static u8 *
1900 tcp_scoreboard_dump_trace (u8 * s, sack_scoreboard_t * sb)
1901 {
1902 #if TCP_SCOREBOARD_TRACE
1903
1904   scoreboard_trace_elt_t *block;
1905   int i = 0;
1906
1907   if (!sb->trace)
1908     return s;
1909
1910   s = format (s, "scoreboard trace:");
1911   vec_foreach (block, sb->trace)
1912   {
1913     s = format (s, "{%u, %u, %u, %u, %u}, ", block->start, block->end,
1914                 block->ack, block->snd_una_max, block->group);
1915     if ((++i % 3) == 0)
1916       s = format (s, "\n");
1917   }
1918   return s;
1919 #else
1920   return 0;
1921 #endif
1922 }
1923
1924 static clib_error_t *
1925 tcp_show_scoreboard_trace_fn (vlib_main_t * vm, unformat_input_t * input,
1926                               vlib_cli_command_t * cmd_arg)
1927 {
1928   transport_connection_t *tconn = 0;
1929   tcp_connection_t *tc;
1930   u8 *s = 0;
1931   while (unformat_check_input (input) != UNFORMAT_END_OF_INPUT)
1932     {
1933       if (unformat (input, "%U", unformat_transport_connection, &tconn,
1934                     TRANSPORT_PROTO_TCP))
1935         ;
1936       else
1937         return clib_error_return (0, "unknown input `%U'",
1938                                   format_unformat_error, input);
1939     }
1940
1941   if (!TCP_SCOREBOARD_TRACE)
1942     {
1943       vlib_cli_output (vm, "scoreboard tracing not enabled");
1944       return 0;
1945     }
1946
1947   tc = tcp_get_connection_from_transport (tconn);
1948   s = tcp_scoreboard_dump_trace (s, &tc->sack_sb);
1949   vlib_cli_output (vm, "%v", s);
1950   return 0;
1951 }
1952
1953 /* *INDENT-OFF* */
1954 VLIB_CLI_COMMAND (tcp_show_scoreboard_trace_command, static) =
1955 {
1956   .path = "show tcp scoreboard trace",
1957   .short_help = "show tcp scoreboard trace <connection>",
1958   .function = tcp_show_scoreboard_trace_fn,
1959 };
1960 /* *INDENT-ON* */
1961
1962 u8 *
1963 tcp_scoreboard_replay (u8 * s, tcp_connection_t * tc, u8 verbose)
1964 {
1965   int i, trace_len;
1966   scoreboard_trace_elt_t *trace;
1967   u32 next_ack, left, group, has_new_ack = 0;
1968   tcp_connection_t _dummy_tc, *dummy_tc = &_dummy_tc;
1969   sack_block_t *block;
1970
1971   if (!TCP_SCOREBOARD_TRACE)
1972     {
1973       s = format (s, "scoreboard tracing not enabled");
1974       return s;
1975     }
1976
1977   if (!tc)
1978     return s;
1979
1980   clib_memset (dummy_tc, 0, sizeof (*dummy_tc));
1981   tcp_connection_timers_init (dummy_tc);
1982   scoreboard_init (&dummy_tc->sack_sb);
1983   dummy_tc->rcv_opts.flags |= TCP_OPTS_FLAG_SACK;
1984
1985 #if TCP_SCOREBOARD_TRACE
1986   trace = tc->sack_sb.trace;
1987   trace_len = vec_len (tc->sack_sb.trace);
1988 #endif
1989
1990   for (i = 0; i < trace_len; i++)
1991     {
1992       if (trace[i].ack != 0)
1993         {
1994           dummy_tc->snd_una = trace[i].ack - 1448;
1995           dummy_tc->snd_una_max = trace[i].ack;
1996         }
1997     }
1998
1999   left = 0;
2000   while (left < trace_len)
2001     {
2002       group = trace[left].group;
2003       vec_reset_length (dummy_tc->rcv_opts.sacks);
2004       has_new_ack = 0;
2005       while (trace[left].group == group)
2006         {
2007           if (trace[left].ack != 0)
2008             {
2009               if (verbose)
2010                 s = format (s, "Adding ack %u, snd_una_max %u, segs: ",
2011                             trace[left].ack, trace[left].snd_una_max);
2012               dummy_tc->snd_una_max = trace[left].snd_una_max;
2013               next_ack = trace[left].ack;
2014               has_new_ack = 1;
2015             }
2016           else
2017             {
2018               if (verbose)
2019                 s = format (s, "[%u, %u], ", trace[left].start,
2020                             trace[left].end);
2021               vec_add2 (dummy_tc->rcv_opts.sacks, block, 1);
2022               block->start = trace[left].start;
2023               block->end = trace[left].end;
2024             }
2025           left++;
2026         }
2027
2028       /* Push segments */
2029       tcp_rcv_sacks (dummy_tc, next_ack);
2030       if (has_new_ack)
2031         dummy_tc->snd_una = next_ack + dummy_tc->sack_sb.snd_una_adv;
2032
2033       if (verbose)
2034         s = format (s, "result: %U", format_tcp_scoreboard,
2035                     &dummy_tc->sack_sb);
2036
2037     }
2038   s = format (s, "result: %U", format_tcp_scoreboard, &dummy_tc->sack_sb);
2039
2040   return s;
2041 }
2042
2043 static clib_error_t *
2044 tcp_scoreboard_trace_fn (vlib_main_t * vm, unformat_input_t * input,
2045                          vlib_cli_command_t * cmd_arg)
2046 {
2047   transport_connection_t *tconn = 0;
2048   tcp_connection_t *tc = 0;
2049   u8 *str = 0;
2050   while (unformat_check_input (input) != UNFORMAT_END_OF_INPUT)
2051     {
2052       if (unformat (input, "%U", unformat_transport_connection, &tconn,
2053                     TRANSPORT_PROTO_TCP))
2054         ;
2055       else
2056         return clib_error_return (0, "unknown input `%U'",
2057                                   format_unformat_error, input);
2058     }
2059
2060   if (!TCP_SCOREBOARD_TRACE)
2061     {
2062       vlib_cli_output (vm, "scoreboard tracing not enabled");
2063       return 0;
2064     }
2065
2066   tc = tcp_get_connection_from_transport (tconn);
2067   if (!tc)
2068     {
2069       vlib_cli_output (vm, "connection not found");
2070       return 0;
2071     }
2072   str = tcp_scoreboard_replay (str, tc, 1);
2073   vlib_cli_output (vm, "%v", str);
2074   return 0;
2075 }
2076
2077 /* *INDENT-OFF* */
2078 VLIB_CLI_COMMAND (tcp_replay_scoreboard_command, static) =
2079 {
2080   .path = "tcp replay scoreboard",
2081   .short_help = "tcp replay scoreboard <connection>",
2082   .function = tcp_scoreboard_trace_fn,
2083 };
2084 /* *INDENT-ON* */
2085
2086 static clib_error_t *
2087 show_tcp_punt_fn (vlib_main_t * vm, unformat_input_t * input,
2088                   vlib_cli_command_t * cmd_arg)
2089 {
2090   tcp_main_t *tm = vnet_get_tcp_main ();
2091   if (unformat_check_input (input) != UNFORMAT_END_OF_INPUT)
2092     return clib_error_return (0, "unknown input `%U'", format_unformat_error,
2093                               input);
2094   vlib_cli_output (vm, "IPv4 TCP punt: %s",
2095                    tm->punt_unknown4 ? "enabled" : "disabled");
2096   vlib_cli_output (vm, "IPv6 TCP punt: %s",
2097                    tm->punt_unknown6 ? "enabled" : "disabled");
2098   return 0;
2099 }
2100 /* *INDENT-OFF* */
2101 VLIB_CLI_COMMAND (show_tcp_punt_command, static) =
2102 {
2103   .path = "show tcp punt",
2104   .short_help = "show tcp punt",
2105   .function = show_tcp_punt_fn,
2106 };
2107 /* *INDENT-ON* */
2108
2109 /*
2110  * fd.io coding-style-patch-verification: ON
2111  *
2112  * Local Variables:
2113  * eval: (c-set-style "gnu")
2114  * End:
2115  */