a462d8dac3dc4617a33a2f793dfdcc87c7b6f370
[vpp.git] / src / vnet / tcp / tcp_output.c
1 /*
2  * Copyright (c) 2016 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 #include <vnet/tcp/tcp.h>
17 #include <vnet/lisp-cp/packets.h>
18
19 vlib_node_registration_t tcp4_output_node;
20 vlib_node_registration_t tcp6_output_node;
21
22 typedef enum _tcp_output_nect
23 {
24   TCP_OUTPUT_NEXT_DROP,
25   TCP_OUTPUT_NEXT_IP_LOOKUP,
26   TCP_OUTPUT_N_NEXT
27 } tcp_output_next_t;
28
29 #define foreach_tcp4_output_next                \
30   _ (DROP, "error-drop")                        \
31   _ (IP_LOOKUP, "ip4-lookup")
32
33 #define foreach_tcp6_output_next                \
34   _ (DROP, "error-drop")                        \
35   _ (IP_LOOKUP, "ip6-lookup")
36
37 static char *tcp_error_strings[] = {
38 #define tcp_error(n,s) s,
39 #include <vnet/tcp/tcp_error.def>
40 #undef tcp_error
41 };
42
43 typedef struct
44 {
45   tcp_header_t tcp_header;
46   tcp_connection_t tcp_connection;
47 } tcp_tx_trace_t;
48
49 u16 dummy_mtu = 1460;
50
51 u8 *
52 format_tcp_tx_trace (u8 * s, va_list * args)
53 {
54   CLIB_UNUSED (vlib_main_t * vm) = va_arg (*args, vlib_main_t *);
55   CLIB_UNUSED (vlib_node_t * node) = va_arg (*args, vlib_node_t *);
56   tcp_tx_trace_t *t = va_arg (*args, tcp_tx_trace_t *);
57   uword indent = format_get_indent (s);
58
59   s = format (s, "%U\n%U%U",
60               format_tcp_header, &t->tcp_header, 128,
61               format_white_space, indent,
62               format_tcp_connection_verbose, &t->tcp_connection);
63
64   return s;
65 }
66
67 static u8
68 tcp_window_compute_scale (u32 available_space)
69 {
70   u8 wnd_scale = 0;
71   while (wnd_scale < TCP_MAX_WND_SCALE
72          && (available_space >> wnd_scale) > TCP_WND_MAX)
73     wnd_scale++;
74   return wnd_scale;
75 }
76
77 /**
78  * TCP's IW as recommended by RFC6928
79  */
80 always_inline u32
81 tcp_initial_wnd_unscaled (tcp_connection_t * tc)
82 {
83   return TCP_IW_N_SEGMENTS * tc->mss;
84 }
85
86 /**
87  * Compute initial window and scale factor. As per RFC1323, window field in
88  * SYN and SYN-ACK segments is never scaled.
89  */
90 u32
91 tcp_initial_window_to_advertise (tcp_connection_t * tc)
92 {
93   u32 max_fifo;
94
95   /* Initial wnd for SYN. Fifos are not allocated yet.
96    * Use some predefined value. For SYN-ACK we still want the
97    * scale to be computed in the same way */
98   max_fifo = TCP_MAX_RX_FIFO_SIZE;
99
100   tc->rcv_wscale = tcp_window_compute_scale (max_fifo);
101   tc->rcv_wnd = tcp_initial_wnd_unscaled (tc);
102
103   return clib_min (tc->rcv_wnd, TCP_WND_MAX);
104 }
105
106 /**
107  * Compute and return window to advertise, scaled as per RFC1323
108  */
109 u32
110 tcp_window_to_advertise (tcp_connection_t * tc, tcp_state_t state)
111 {
112   if (state < TCP_STATE_ESTABLISHED)
113     return tcp_initial_window_to_advertise (tc);
114
115   tcp_update_rcv_wnd (tc);
116
117   if (tc->rcv_wnd == 0)
118     {
119       tc->flags |= TCP_CONN_SENT_RCV_WND0;
120     }
121   else
122     {
123       tc->flags &= ~TCP_CONN_SENT_RCV_WND0;
124     }
125
126   return tc->rcv_wnd >> tc->rcv_wscale;
127 }
128
129 void
130 tcp_update_rcv_wnd (tcp_connection_t * tc)
131 {
132   i32 observed_wnd;
133   u32 available_space, max_fifo, wnd;
134
135   /*
136    * Figure out how much space we have available
137    */
138   available_space = stream_session_max_rx_enqueue (&tc->connection);
139   max_fifo = stream_session_fifo_size (&tc->connection);
140
141   ASSERT (tc->opt.mss < max_fifo);
142   if (available_space < tc->opt.mss && available_space < max_fifo >> 3)
143     available_space = 0;
144
145   /*
146    * Use the above and what we know about what we've previously advertised
147    * to compute the new window
148    */
149   observed_wnd = (i32) tc->rcv_wnd - (tc->rcv_nxt - tc->rcv_las);
150   if (observed_wnd < 0)
151     observed_wnd = 0;
152
153   /* Bad. Thou shalt not shrink */
154   if (available_space < observed_wnd)
155     {
156       wnd = observed_wnd;
157       TCP_EVT_DBG (TCP_EVT_RCV_WND_SHRUNK, tc, observed_wnd, available_space);
158     }
159   else
160     {
161       wnd = available_space;
162     }
163
164   /* Make sure we have a multiple of rcv_wscale */
165   if (wnd && tc->rcv_wscale)
166     {
167       wnd &= ~(1 << tc->rcv_wscale);
168       if (wnd == 0)
169         wnd = 1 << tc->rcv_wscale;
170     }
171
172   tc->rcv_wnd = clib_min (wnd, TCP_WND_MAX << tc->rcv_wscale);
173 }
174
175 /**
176  * Write TCP options to segment.
177  */
178 u32
179 tcp_options_write (u8 * data, tcp_options_t * opts)
180 {
181   u32 opts_len = 0;
182   u32 buf, seq_len = 4;
183
184   if (tcp_opts_mss (opts))
185     {
186       *data++ = TCP_OPTION_MSS;
187       *data++ = TCP_OPTION_LEN_MSS;
188       buf = clib_host_to_net_u16 (opts->mss);
189       clib_memcpy (data, &buf, sizeof (opts->mss));
190       data += sizeof (opts->mss);
191       opts_len += TCP_OPTION_LEN_MSS;
192     }
193
194   if (tcp_opts_wscale (opts))
195     {
196       *data++ = TCP_OPTION_WINDOW_SCALE;
197       *data++ = TCP_OPTION_LEN_WINDOW_SCALE;
198       *data++ = opts->wscale;
199       opts_len += TCP_OPTION_LEN_WINDOW_SCALE;
200     }
201
202   if (tcp_opts_sack_permitted (opts))
203     {
204       *data++ = TCP_OPTION_SACK_PERMITTED;
205       *data++ = TCP_OPTION_LEN_SACK_PERMITTED;
206       opts_len += TCP_OPTION_LEN_SACK_PERMITTED;
207     }
208
209   if (tcp_opts_tstamp (opts))
210     {
211       *data++ = TCP_OPTION_TIMESTAMP;
212       *data++ = TCP_OPTION_LEN_TIMESTAMP;
213       buf = clib_host_to_net_u32 (opts->tsval);
214       clib_memcpy (data, &buf, sizeof (opts->tsval));
215       data += sizeof (opts->tsval);
216       buf = clib_host_to_net_u32 (opts->tsecr);
217       clib_memcpy (data, &buf, sizeof (opts->tsecr));
218       data += sizeof (opts->tsecr);
219       opts_len += TCP_OPTION_LEN_TIMESTAMP;
220     }
221
222   if (tcp_opts_sack (opts))
223     {
224       int i;
225       u32 n_sack_blocks = clib_min (vec_len (opts->sacks),
226                                     TCP_OPTS_MAX_SACK_BLOCKS);
227
228       if (n_sack_blocks != 0)
229         {
230           *data++ = TCP_OPTION_SACK_BLOCK;
231           *data++ = 2 + n_sack_blocks * TCP_OPTION_LEN_SACK_BLOCK;
232           for (i = 0; i < n_sack_blocks; i++)
233             {
234               buf = clib_host_to_net_u32 (opts->sacks[i].start);
235               clib_memcpy (data, &buf, seq_len);
236               data += seq_len;
237               buf = clib_host_to_net_u32 (opts->sacks[i].end);
238               clib_memcpy (data, &buf, seq_len);
239               data += seq_len;
240             }
241           opts_len += 2 + n_sack_blocks * TCP_OPTION_LEN_SACK_BLOCK;
242         }
243     }
244
245   /* Terminate TCP options */
246   if (opts_len % 4)
247     {
248       *data++ = TCP_OPTION_EOL;
249       opts_len += TCP_OPTION_LEN_EOL;
250     }
251
252   /* Pad with zeroes to a u32 boundary */
253   while (opts_len % 4)
254     {
255       *data++ = TCP_OPTION_NOOP;
256       opts_len += TCP_OPTION_LEN_NOOP;
257     }
258   return opts_len;
259 }
260
261 always_inline int
262 tcp_make_syn_options (tcp_options_t * opts, u8 wnd_scale)
263 {
264   u8 len = 0;
265
266   opts->flags |= TCP_OPTS_FLAG_MSS;
267   opts->mss = dummy_mtu;        /*XXX discover that */
268   len += TCP_OPTION_LEN_MSS;
269
270   opts->flags |= TCP_OPTS_FLAG_WSCALE;
271   opts->wscale = wnd_scale;
272   len += TCP_OPTION_LEN_WINDOW_SCALE;
273
274   opts->flags |= TCP_OPTS_FLAG_TSTAMP;
275   opts->tsval = tcp_time_now ();
276   opts->tsecr = 0;
277   len += TCP_OPTION_LEN_TIMESTAMP;
278
279   opts->flags |= TCP_OPTS_FLAG_SACK_PERMITTED;
280   len += TCP_OPTION_LEN_SACK_PERMITTED;
281
282   /* Align to needed boundary */
283   len += (TCP_OPTS_ALIGN - len % TCP_OPTS_ALIGN) % TCP_OPTS_ALIGN;
284   return len;
285 }
286
287 always_inline int
288 tcp_make_synack_options (tcp_connection_t * tc, tcp_options_t * opts)
289 {
290   u8 len = 0;
291
292   opts->flags |= TCP_OPTS_FLAG_MSS;
293   opts->mss = tc->mss;
294   len += TCP_OPTION_LEN_MSS;
295
296   if (tcp_opts_wscale (&tc->opt))
297     {
298       opts->flags |= TCP_OPTS_FLAG_WSCALE;
299       opts->wscale = tc->rcv_wscale;
300       len += TCP_OPTION_LEN_WINDOW_SCALE;
301     }
302
303   if (tcp_opts_tstamp (&tc->opt))
304     {
305       opts->flags |= TCP_OPTS_FLAG_TSTAMP;
306       opts->tsval = tcp_time_now ();
307       opts->tsecr = tc->tsval_recent;
308       len += TCP_OPTION_LEN_TIMESTAMP;
309     }
310
311   if (tcp_opts_sack_permitted (&tc->opt))
312     {
313       opts->flags |= TCP_OPTS_FLAG_SACK_PERMITTED;
314       len += TCP_OPTION_LEN_SACK_PERMITTED;
315     }
316
317   /* Align to needed boundary */
318   len += (TCP_OPTS_ALIGN - len % TCP_OPTS_ALIGN) % TCP_OPTS_ALIGN;
319   return len;
320 }
321
322 always_inline int
323 tcp_make_established_options (tcp_connection_t * tc, tcp_options_t * opts)
324 {
325   u8 len = 0;
326
327   opts->flags = 0;
328
329   if (tcp_opts_tstamp (&tc->opt))
330     {
331       opts->flags |= TCP_OPTS_FLAG_TSTAMP;
332       opts->tsval = tcp_time_now ();
333       opts->tsecr = tc->tsval_recent;
334       len += TCP_OPTION_LEN_TIMESTAMP;
335     }
336   if (tcp_opts_sack_permitted (&tc->opt))
337     {
338       if (vec_len (tc->snd_sacks))
339         {
340           opts->flags |= TCP_OPTS_FLAG_SACK;
341           opts->sacks = tc->snd_sacks;
342           opts->n_sack_blocks = clib_min (vec_len (tc->snd_sacks),
343                                           TCP_OPTS_MAX_SACK_BLOCKS);
344           len += 2 + TCP_OPTION_LEN_SACK_BLOCK * opts->n_sack_blocks;
345         }
346     }
347
348   /* Align to needed boundary */
349   len += (TCP_OPTS_ALIGN - len % TCP_OPTS_ALIGN) % TCP_OPTS_ALIGN;
350   return len;
351 }
352
353 always_inline int
354 tcp_make_options (tcp_connection_t * tc, tcp_options_t * opts,
355                   tcp_state_t state)
356 {
357   switch (state)
358     {
359     case TCP_STATE_ESTABLISHED:
360     case TCP_STATE_FIN_WAIT_1:
361       return tcp_make_established_options (tc, opts);
362     case TCP_STATE_SYN_RCVD:
363       return tcp_make_synack_options (tc, opts);
364     case TCP_STATE_SYN_SENT:
365       return tcp_make_syn_options (opts, tc->rcv_wscale);
366     default:
367       clib_warning ("Not handled!");
368       return 0;
369     }
370 }
371
372 /**
373  * Update max segment size we're able to process.
374  *
375  * The value is constrained by our interface's MTU and IP options. It is
376  * also what we advertise to our peer.
377  */
378 void
379 tcp_update_rcv_mss (tcp_connection_t * tc)
380 {
381   /* TODO find our iface MTU */
382   tc->mss = dummy_mtu;
383 }
384
385 /**
386  * Update snd_mss to reflect the effective segment size that we can send
387  * by taking into account all TCP options, including SACKs
388  */
389 void
390 tcp_update_snd_mss (tcp_connection_t * tc)
391 {
392   /* Compute options to be used for connection. These may be reused when
393    * sending data or to compute the effective mss (snd_mss) */
394   tc->snd_opts_len =
395     tcp_make_options (tc, &tc->snd_opts, TCP_STATE_ESTABLISHED);
396
397   /* XXX check if MTU has been updated */
398   tc->snd_mss = clib_min (tc->mss, tc->opt.mss) - tc->snd_opts_len;
399   ASSERT (tc->snd_mss > 0);
400 }
401
402 void
403 tcp_init_mss (tcp_connection_t * tc)
404 {
405   u16 default_min_mss = 536;
406   tcp_update_rcv_mss (tc);
407
408   /* TODO cache mss and consider PMTU discovery */
409   tc->snd_mss = clib_min (tc->opt.mss, tc->mss);
410
411   if (tc->snd_mss < 45)
412     {
413       clib_warning ("snd mss is 0");
414       /* Assume that at least the min default mss works */
415       tc->snd_mss = default_min_mss;
416       tc->opt.mss = default_min_mss;
417     }
418
419   /* We should have enough space for 40 bytes of options */
420   ASSERT (tc->snd_mss > 45);
421
422   /* If we use timestamp option, account for it */
423   if (tcp_opts_tstamp (&tc->opt))
424     tc->snd_mss -= TCP_OPTION_LEN_TIMESTAMP;
425 }
426
427 #define tcp_get_free_buffer_index(tm, bidx)                             \
428 do {                                                                    \
429   u32 *my_tx_buffers, n_free_buffers;                                   \
430   u32 thread_index = vlib_get_thread_index();                                   \
431   my_tx_buffers = tm->tx_buffers[thread_index];                            \
432   if (PREDICT_FALSE(vec_len (my_tx_buffers) == 0))                      \
433     {                                                                   \
434       n_free_buffers = 32;      /* TODO config or macro */              \
435       vec_validate (my_tx_buffers, n_free_buffers - 1);                 \
436       _vec_len(my_tx_buffers) = vlib_buffer_alloc_from_free_list (      \
437           tm->vlib_main, my_tx_buffers, n_free_buffers,                 \
438           VLIB_BUFFER_DEFAULT_FREE_LIST_INDEX);                         \
439       tm->tx_buffers[thread_index] = my_tx_buffers;                        \
440     }                                                                   \
441   /* buffer shortage */                                                 \
442   if (PREDICT_FALSE (vec_len (my_tx_buffers) == 0))                     \
443     return;                                                             \
444   *bidx = my_tx_buffers[_vec_len (my_tx_buffers)-1];                    \
445   _vec_len (my_tx_buffers) -= 1;                                        \
446 } while (0)
447
448 #define tcp_return_buffer(tm)                                           \
449 do {                                                                    \
450   u32 *my_tx_buffers;                                                   \
451   u32 thread_index = vlib_get_thread_index();                                   \
452   my_tx_buffers = tm->tx_buffers[thread_index];                                 \
453   _vec_len (my_tx_buffers) +=1;                                         \
454 } while (0)
455
456 always_inline void
457 tcp_reuse_buffer (vlib_main_t * vm, vlib_buffer_t * b)
458 {
459   vlib_buffer_t *it = b;
460   do
461     {
462       it->current_data = 0;
463       it->current_length = 0;
464       it->total_length_not_including_first_buffer = 0;
465     }
466   while ((it->flags & VLIB_BUFFER_NEXT_PRESENT)
467          && (it = vlib_get_buffer (vm, it->next_buffer)));
468
469   /* Leave enough space for headers */
470   vlib_buffer_make_headroom (b, MAX_HDRS_LEN);
471   vnet_buffer (b)->tcp.flags = 0;
472 }
473
474 /**
475  * Prepare ACK
476  */
477 void
478 tcp_make_ack_i (tcp_connection_t * tc, vlib_buffer_t * b, tcp_state_t state,
479                 u8 flags)
480 {
481   tcp_options_t _snd_opts, *snd_opts = &_snd_opts;
482   u8 tcp_opts_len, tcp_hdr_opts_len;
483   tcp_header_t *th;
484   u16 wnd;
485
486   wnd = tcp_window_to_advertise (tc, state);
487
488   /* Make and write options */
489   tcp_opts_len = tcp_make_established_options (tc, snd_opts);
490   tcp_hdr_opts_len = tcp_opts_len + sizeof (tcp_header_t);
491
492   th = vlib_buffer_push_tcp (b, tc->c_lcl_port, tc->c_rmt_port, tc->snd_nxt,
493                              tc->rcv_nxt, tcp_hdr_opts_len, flags, wnd);
494
495   tcp_options_write ((u8 *) (th + 1), snd_opts);
496   vnet_buffer (b)->tcp.connection_index = tc->c_c_index;
497 }
498
499 /**
500  * Convert buffer to ACK
501  */
502 void
503 tcp_make_ack (tcp_connection_t * tc, vlib_buffer_t * b)
504 {
505   vlib_main_t *vm = vlib_get_main ();
506
507   tcp_reuse_buffer (vm, b);
508   tcp_make_ack_i (tc, b, TCP_STATE_ESTABLISHED, TCP_FLAG_ACK);
509   TCP_EVT_DBG (TCP_EVT_ACK_SENT, tc);
510   vnet_buffer (b)->tcp.flags = TCP_BUF_FLAG_ACK;
511   tc->rcv_las = tc->rcv_nxt;
512 }
513
514 /**
515  * Convert buffer to FIN-ACK
516  */
517 void
518 tcp_make_fin (tcp_connection_t * tc, vlib_buffer_t * b)
519 {
520   vlib_main_t *vm = vlib_get_main ();
521   u8 flags = 0;
522
523   tcp_reuse_buffer (vm, b);
524
525   flags = TCP_FLAG_FIN | TCP_FLAG_ACK;
526   tcp_make_ack_i (tc, b, TCP_STATE_ESTABLISHED, flags);
527
528   /* Reset flags, make sure ack is sent */
529   vnet_buffer (b)->tcp.flags &= ~TCP_BUF_FLAG_DUPACK;
530
531   tc->snd_nxt += 1;
532 }
533
534 /**
535  * Convert buffer to SYN-ACK
536  */
537 void
538 tcp_make_synack (tcp_connection_t * tc, vlib_buffer_t * b)
539 {
540   vlib_main_t *vm = vlib_get_main ();
541   tcp_options_t _snd_opts, *snd_opts = &_snd_opts;
542   u8 tcp_opts_len, tcp_hdr_opts_len;
543   tcp_header_t *th;
544   u16 initial_wnd;
545   u32 time_now;
546
547   memset (snd_opts, 0, sizeof (*snd_opts));
548
549   tcp_reuse_buffer (vm, b);
550
551   /* Set random initial sequence */
552   time_now = tcp_time_now ();
553
554   tc->iss = random_u32 (&time_now);
555   tc->snd_una = tc->iss;
556   tc->snd_nxt = tc->iss + 1;
557   tc->snd_una_max = tc->snd_nxt;
558
559   initial_wnd = tcp_initial_window_to_advertise (tc);
560
561   /* Make and write options */
562   tcp_opts_len = tcp_make_synack_options (tc, snd_opts);
563   tcp_hdr_opts_len = tcp_opts_len + sizeof (tcp_header_t);
564
565   th = vlib_buffer_push_tcp (b, tc->c_lcl_port, tc->c_rmt_port, tc->iss,
566                              tc->rcv_nxt, tcp_hdr_opts_len,
567                              TCP_FLAG_SYN | TCP_FLAG_ACK, initial_wnd);
568
569   tcp_options_write ((u8 *) (th + 1), snd_opts);
570
571   vnet_buffer (b)->tcp.connection_index = tc->c_c_index;
572   vnet_buffer (b)->tcp.flags = TCP_BUF_FLAG_ACK;
573
574   /* Init retransmit timer */
575   tcp_retransmit_timer_set (tc);
576 }
577
578 always_inline void
579 tcp_enqueue_to_ip_lookup (vlib_main_t * vm, vlib_buffer_t * b, u32 bi,
580                           u8 is_ip4)
581 {
582   u32 *to_next, next_index;
583   vlib_frame_t *f;
584
585   b->flags |= VNET_BUFFER_LOCALLY_ORIGINATED;
586   b->error = 0;
587
588   /* Default FIB for now */
589   vnet_buffer (b)->sw_if_index[VLIB_TX] = 0;
590
591   /* Send to IP lookup */
592   next_index = is_ip4 ? ip4_lookup_node.index : ip6_lookup_node.index;
593   f = vlib_get_frame_to_node (vm, next_index);
594
595   /* Enqueue the packet */
596   to_next = vlib_frame_vector_args (f);
597   to_next[0] = bi;
598   f->n_vectors = 1;
599   vlib_put_frame_to_node (vm, next_index, f);
600 }
601
602 int
603 tcp_make_reset_in_place (vlib_main_t * vm, vlib_buffer_t * b0,
604                          tcp_state_t state, u8 thread_index, u8 is_ip4)
605 {
606   ip4_header_t *ih4;
607   ip6_header_t *ih6;
608   tcp_header_t *th0;
609   ip4_address_t src_ip40, dst_ip40;
610   ip6_address_t src_ip60, dst_ip60;
611   u16 src_port, dst_port;
612   u32 tmp;
613   u32 seq, ack;
614   u8 flags;
615
616   /* Find IP and TCP headers */
617   th0 = tcp_buffer_hdr (b0);
618
619   /* Save src and dst ip */
620   if (is_ip4)
621     {
622       ih4 = vlib_buffer_get_current (b0);
623       ASSERT ((ih4->ip_version_and_header_length & 0xF0) == 0x40);
624       src_ip40.as_u32 = ih4->src_address.as_u32;
625       dst_ip40.as_u32 = ih4->dst_address.as_u32;
626     }
627   else
628     {
629       ih6 = vlib_buffer_get_current (b0);
630       ASSERT ((ih6->ip_version_traffic_class_and_flow_label & 0xF0) == 0x60);
631       clib_memcpy (&src_ip60, &ih6->src_address, sizeof (ip6_address_t));
632       clib_memcpy (&dst_ip60, &ih6->dst_address, sizeof (ip6_address_t));
633     }
634
635   src_port = th0->src_port;
636   dst_port = th0->dst_port;
637
638   /* Try to determine what/why we're actually resetting */
639   if (state == TCP_STATE_CLOSED)
640     {
641       if (!tcp_syn (th0))
642         return -1;
643
644       tmp = clib_net_to_host_u32 (th0->seq_number);
645
646       /* Got a SYN for no listener. */
647       flags = TCP_FLAG_RST | TCP_FLAG_ACK;
648       ack = clib_host_to_net_u32 (tmp + 1);
649       seq = 0;
650     }
651   else
652     {
653       flags = TCP_FLAG_RST;
654       seq = th0->ack_number;
655       ack = 0;
656     }
657
658   tcp_reuse_buffer (vm, b0);
659   th0 = vlib_buffer_push_tcp_net_order (b0, dst_port, src_port, seq, ack,
660                                         sizeof (tcp_header_t), flags, 0);
661
662   if (is_ip4)
663     {
664       ih4 = vlib_buffer_push_ip4 (vm, b0, &dst_ip40, &src_ip40,
665                                   IP_PROTOCOL_TCP);
666       th0->checksum = ip4_tcp_udp_compute_checksum (vm, b0, ih4);
667     }
668   else
669     {
670       int bogus = ~0;
671       ih6 = vlib_buffer_push_ip6 (vm, b0, &dst_ip60, &src_ip60,
672                                   IP_PROTOCOL_TCP);
673       th0->checksum = ip6_tcp_udp_icmp_compute_checksum (vm, b0, ih6, &bogus);
674       ASSERT (!bogus);
675     }
676
677   return 0;
678 }
679
680 /**
681  *  Send reset without reusing existing buffer
682  */
683 void
684 tcp_send_reset (vlib_buffer_t * pkt, u8 is_ip4)
685 {
686   vlib_buffer_t *b;
687   u32 bi;
688   tcp_main_t *tm = vnet_get_tcp_main ();
689   vlib_main_t *vm = vlib_get_main ();
690   u8 tcp_hdr_len, flags = 0;
691   tcp_header_t *th, *pkt_th;
692   u32 seq, ack;
693   ip4_header_t *ih4, *pkt_ih4;
694   ip6_header_t *ih6, *pkt_ih6;
695
696   tcp_get_free_buffer_index (tm, &bi);
697   b = vlib_get_buffer (vm, bi);
698
699   /* Leave enough space for headers */
700   vlib_buffer_make_headroom (b, MAX_HDRS_LEN);
701
702   /* Make and write options */
703   tcp_hdr_len = sizeof (tcp_header_t);
704
705   if (is_ip4)
706     {
707       pkt_ih4 = vlib_buffer_get_current (pkt);
708       pkt_th = ip4_next_header (pkt_ih4);
709     }
710   else
711     {
712       pkt_ih6 = vlib_buffer_get_current (pkt);
713       pkt_th = ip6_next_header (pkt_ih6);
714     }
715
716   if (tcp_ack (pkt_th))
717     {
718       flags = TCP_FLAG_RST;
719       seq = pkt_th->ack_number;
720       ack = 0;
721     }
722   else
723     {
724       flags = TCP_FLAG_RST | TCP_FLAG_ACK;
725       seq = 0;
726       ack = clib_host_to_net_u32 (vnet_buffer (pkt)->tcp.seq_end);
727     }
728
729   th = vlib_buffer_push_tcp_net_order (b, pkt_th->dst_port, pkt_th->src_port,
730                                        seq, ack, tcp_hdr_len, flags, 0);
731
732   /* Swap src and dst ip */
733   if (is_ip4)
734     {
735       ASSERT ((pkt_ih4->ip_version_and_header_length & 0xF0) == 0x40);
736       ih4 = vlib_buffer_push_ip4 (vm, b, &pkt_ih4->dst_address,
737                                   &pkt_ih4->src_address, IP_PROTOCOL_TCP);
738       th->checksum = ip4_tcp_udp_compute_checksum (vm, b, ih4);
739     }
740   else
741     {
742       int bogus = ~0;
743       pkt_ih6 = (ip6_header_t *) (pkt_th - 1);
744       ASSERT ((pkt_ih6->ip_version_traffic_class_and_flow_label & 0xF0) ==
745               0x60);
746       ih6 =
747         vlib_buffer_push_ip6 (vm, b, &pkt_ih6->dst_address,
748                               &pkt_ih6->src_address, IP_PROTOCOL_TCP);
749       th->checksum = ip6_tcp_udp_icmp_compute_checksum (vm, b, ih6, &bogus);
750       ASSERT (!bogus);
751     }
752
753   tcp_enqueue_to_ip_lookup (vm, b, bi, is_ip4);
754 }
755
756 void
757 tcp_push_ip_hdr (tcp_main_t * tm, tcp_connection_t * tc, vlib_buffer_t * b)
758 {
759   tcp_header_t *th = vlib_buffer_get_current (b);
760
761   if (tc->c_is_ip4)
762     {
763       ip4_header_t *ih;
764       ih = vlib_buffer_push_ip4 (tm->vlib_main, b, &tc->c_lcl_ip4,
765                                  &tc->c_rmt_ip4, IP_PROTOCOL_TCP);
766       th->checksum = ip4_tcp_udp_compute_checksum (tm->vlib_main, b, ih);
767     }
768   else
769     {
770       ip6_header_t *ih;
771       int bogus = ~0;
772
773       ih = vlib_buffer_push_ip6 (tm->vlib_main, b, &tc->c_lcl_ip6,
774                                  &tc->c_rmt_ip6, IP_PROTOCOL_TCP);
775       th->checksum = ip6_tcp_udp_icmp_compute_checksum (tm->vlib_main, b, ih,
776                                                         &bogus);
777       ASSERT (!bogus);
778     }
779 }
780
781 /**
782  *  Send SYN
783  *
784  *  Builds a SYN packet for a half-open connection and sends it to ipx_lookup.
785  *  The packet is not forwarded through tcpx_output to avoid doing lookups
786  *  in the half_open pool.
787  */
788 void
789 tcp_send_syn (tcp_connection_t * tc)
790 {
791   vlib_buffer_t *b;
792   u32 bi;
793   tcp_main_t *tm = vnet_get_tcp_main ();
794   vlib_main_t *vm = vlib_get_main ();
795   u8 tcp_hdr_opts_len, tcp_opts_len;
796   tcp_header_t *th;
797   u32 time_now;
798   u16 initial_wnd;
799   tcp_options_t snd_opts;
800
801   tcp_get_free_buffer_index (tm, &bi);
802   b = vlib_get_buffer (vm, bi);
803
804   /* Leave enough space for headers */
805   vlib_buffer_make_headroom (b, MAX_HDRS_LEN);
806
807   /* Set random initial sequence */
808   time_now = tcp_time_now ();
809
810   tc->iss = random_u32 (&time_now);
811   tc->snd_una = tc->iss;
812   tc->snd_una_max = tc->snd_nxt = tc->iss + 1;
813
814   initial_wnd = tcp_initial_window_to_advertise (tc);
815
816   /* Make and write options */
817   memset (&snd_opts, 0, sizeof (snd_opts));
818   tcp_opts_len = tcp_make_syn_options (&snd_opts, tc->rcv_wscale);
819   tcp_hdr_opts_len = tcp_opts_len + sizeof (tcp_header_t);
820
821   th = vlib_buffer_push_tcp (b, tc->c_lcl_port, tc->c_rmt_port, tc->iss,
822                              tc->rcv_nxt, tcp_hdr_opts_len, TCP_FLAG_SYN,
823                              initial_wnd);
824
825   tcp_options_write ((u8 *) (th + 1), &snd_opts);
826
827   /* Measure RTT with this */
828   tc->rtt_ts = tcp_time_now ();
829   tc->rtt_seq = tc->snd_nxt;
830
831   /* Start retransmit trimer  */
832   tcp_timer_set (tc, TCP_TIMER_RETRANSMIT_SYN, tc->rto * TCP_TO_TIMER_TICK);
833   tc->rto_boff = 0;
834
835   /* Set the connection establishment timer */
836   tcp_timer_set (tc, TCP_TIMER_ESTABLISH, TCP_ESTABLISH_TIME);
837
838   tcp_push_ip_hdr (tm, tc, b);
839   tcp_enqueue_to_ip_lookup (vm, b, bi, tc->c_is_ip4);
840 }
841
842 always_inline void
843 tcp_enqueue_to_output (vlib_main_t * vm, vlib_buffer_t * b, u32 bi, u8 is_ip4)
844 {
845   u32 *to_next, next_index;
846   vlib_frame_t *f;
847
848   b->flags |= VNET_BUFFER_LOCALLY_ORIGINATED;
849   b->error = 0;
850
851   /* Decide where to send the packet */
852   next_index = is_ip4 ? tcp4_output_node.index : tcp6_output_node.index;
853
854   /* Enqueue the packet */
855   f = vlib_get_frame_to_node (vm, next_index);
856   to_next = vlib_frame_vector_args (f);
857   to_next[0] = bi;
858   f->n_vectors = 1;
859   vlib_put_frame_to_node (vm, next_index, f);
860 }
861
862 /**
863  *  Send FIN
864  */
865 void
866 tcp_send_fin (tcp_connection_t * tc)
867 {
868   vlib_buffer_t *b;
869   u32 bi;
870   tcp_main_t *tm = vnet_get_tcp_main ();
871   vlib_main_t *vm = vlib_get_main ();
872
873   tcp_get_free_buffer_index (tm, &bi);
874   b = vlib_get_buffer (vm, bi);
875
876   /* Leave enough space for headers */
877   vlib_buffer_make_headroom (b, MAX_HDRS_LEN);
878
879   tcp_make_fin (tc, b);
880   tcp_enqueue_to_output (vm, b, bi, tc->c_is_ip4);
881   tc->flags |= TCP_CONN_FINSNT;
882   TCP_EVT_DBG (TCP_EVT_FIN_SENT, tc);
883 }
884
885 always_inline u8
886 tcp_make_state_flags (tcp_state_t next_state)
887 {
888   switch (next_state)
889     {
890     case TCP_STATE_ESTABLISHED:
891       return TCP_FLAG_ACK;
892     case TCP_STATE_SYN_RCVD:
893       return TCP_FLAG_SYN | TCP_FLAG_ACK;
894     case TCP_STATE_SYN_SENT:
895       return TCP_FLAG_SYN;
896     case TCP_STATE_LAST_ACK:
897     case TCP_STATE_FIN_WAIT_1:
898       return TCP_FLAG_FIN;
899     default:
900       clib_warning ("Shouldn't be here!");
901     }
902   return 0;
903 }
904
905 /**
906  * Push TCP header and update connection variables
907  */
908 static void
909 tcp_push_hdr_i (tcp_connection_t * tc, vlib_buffer_t * b,
910                 tcp_state_t next_state, u8 compute_opts)
911 {
912   u32 advertise_wnd, data_len;
913   u8 tcp_hdr_opts_len, opts_write_len, flags;
914   tcp_header_t *th;
915
916   data_len = b->current_length + b->total_length_not_including_first_buffer;
917   vnet_buffer (b)->tcp.flags = 0;
918
919   if (compute_opts)
920     tc->snd_opts_len = tcp_make_options (tc, &tc->snd_opts, tc->state);
921
922   /* Write pre-computed options */
923   tcp_hdr_opts_len = tc->snd_opts_len + sizeof (tcp_header_t);
924
925   /* Get rcv window to advertise */
926   advertise_wnd = tcp_window_to_advertise (tc, next_state);
927   flags = tcp_make_state_flags (next_state);
928
929   /* Push header and options */
930   th = vlib_buffer_push_tcp (b, tc->c_lcl_port, tc->c_rmt_port, tc->snd_nxt,
931                              tc->rcv_nxt, tcp_hdr_opts_len, flags,
932                              advertise_wnd);
933
934   opts_write_len = tcp_options_write ((u8 *) (th + 1), &tc->snd_opts);
935
936   ASSERT (opts_write_len == tc->snd_opts_len);
937
938   /* Tag the buffer with the connection index  */
939   vnet_buffer (b)->tcp.connection_index = tc->c_c_index;
940
941   tc->snd_nxt += data_len;
942   tc->rcv_las = tc->rcv_nxt;
943
944   /* TODO this is updated in output as well ... */
945   if (tc->snd_nxt > tc->snd_una_max)
946     tc->snd_una_max = tc->snd_nxt;
947
948   if (tc->rtt_ts == 0)
949     {
950       tc->rtt_ts = tcp_time_now ();
951       tc->rtt_seq = tc->snd_nxt;
952     }
953   TCP_EVT_DBG (TCP_EVT_PKTIZE, tc);
954 }
955
956 void
957 tcp_send_ack (tcp_connection_t * tc)
958 {
959   tcp_main_t *tm = vnet_get_tcp_main ();
960   vlib_main_t *vm = vlib_get_main ();
961
962   vlib_buffer_t *b;
963   u32 bi;
964
965   /* Get buffer */
966   tcp_get_free_buffer_index (tm, &bi);
967   b = vlib_get_buffer (vm, bi);
968
969   /* Fill in the ACK */
970   tcp_make_ack (tc, b);
971   tcp_enqueue_to_output (vm, b, bi, tc->c_is_ip4);
972 }
973
974 /* Send delayed ACK when timer expires */
975 void
976 tcp_timer_delack_handler (u32 index)
977 {
978   u32 thread_index = vlib_get_thread_index ();
979   tcp_connection_t *tc;
980
981   tc = tcp_connection_get (index, thread_index);
982   tc->timers[TCP_TIMER_DELACK] = TCP_TIMER_HANDLE_INVALID;
983   tcp_send_ack (tc);
984 }
985
986 /** Build a retransmit segment
987  *
988  * @return the number of bytes in the segment or 0 if there's nothing to
989  *         retransmit
990  * */
991 u32
992 tcp_prepare_retransmit_segment (tcp_connection_t * tc, vlib_buffer_t * b,
993                                 u32 offset, u32 max_bytes)
994 {
995   vlib_main_t *vm = vlib_get_main ();
996   u32 n_bytes = 0;
997
998   tcp_reuse_buffer (vm, b);
999
1000   ASSERT (tc->state >= TCP_STATE_ESTABLISHED);
1001   ASSERT (max_bytes != 0);
1002
1003   max_bytes = clib_min (tc->snd_mss, max_bytes);
1004
1005   /* Start is beyond snd_congestion */
1006   if (seq_geq (tc->snd_una + offset, tc->snd_congestion))
1007     goto done;
1008
1009   /* Don't overshoot snd_congestion */
1010   if (seq_gt (tc->snd_nxt + max_bytes, tc->snd_congestion))
1011     {
1012       max_bytes = tc->snd_congestion - tc->snd_nxt;
1013       if (max_bytes == 0)
1014         goto done;
1015     }
1016
1017   tc->snd_opts_len = tcp_make_options (tc, &tc->snd_opts, tc->state);
1018
1019   ASSERT (max_bytes <= tc->snd_mss);
1020
1021   n_bytes = stream_session_peek_bytes (&tc->connection,
1022                                        vlib_buffer_get_current (b), offset,
1023                                        max_bytes);
1024   ASSERT (n_bytes != 0);
1025   b->current_length = n_bytes;
1026   tcp_push_hdr_i (tc, b, tc->state, 0);
1027   tc->rtx_bytes += n_bytes;
1028
1029 done:
1030   TCP_EVT_DBG (TCP_EVT_CC_RTX, tc, offset, n_bytes);
1031   return n_bytes;
1032 }
1033
1034 /**
1035  * Reset congestion control, switch cwnd to loss window and try again.
1036  */
1037 static void
1038 tcp_rtx_timeout_cc (tcp_connection_t * tc)
1039 {
1040   /* Cleanly recover cc (also clears up fast retransmit) */
1041   if (tcp_in_fastrecovery (tc))
1042     {
1043       tcp_cc_recover (tc);
1044     }
1045   else
1046     {
1047       tc->ssthresh = clib_max (tcp_flight_size (tc) / 2, 2 * tc->snd_mss);
1048     }
1049
1050   /* Start again from the beginning */
1051
1052   tc->cwnd = tcp_loss_wnd (tc);
1053   tc->snd_congestion = tc->snd_una_max;
1054   tcp_recovery_on (tc);
1055 }
1056
1057 static void
1058 tcp_timer_retransmit_handler_i (u32 index, u8 is_syn)
1059 {
1060   tcp_main_t *tm = vnet_get_tcp_main ();
1061   vlib_main_t *vm = vlib_get_main ();
1062   u32 thread_index = vlib_get_thread_index ();
1063   tcp_connection_t *tc;
1064   vlib_buffer_t *b;
1065   u32 bi, n_bytes;
1066
1067   if (is_syn)
1068     {
1069       tc = tcp_half_open_connection_get (index);
1070     }
1071   else
1072     {
1073       tc = tcp_connection_get (index, thread_index);
1074     }
1075
1076   /* Make sure timer handle is set to invalid */
1077   tc->timers[TCP_TIMER_RETRANSMIT] = TCP_TIMER_HANDLE_INVALID;
1078
1079   /* Increment RTO backoff (also equal to number of retries) */
1080   tc->rto_boff += 1;
1081
1082   /* Go back to first un-acked byte */
1083   tc->snd_nxt = tc->snd_una;
1084
1085   /* Get buffer */
1086   tcp_get_free_buffer_index (tm, &bi);
1087   b = vlib_get_buffer (vm, bi);
1088
1089   if (tc->state >= TCP_STATE_ESTABLISHED)
1090     {
1091       /* First retransmit timeout */
1092       if (tc->rto_boff == 1)
1093         tcp_rtx_timeout_cc (tc);
1094
1095       /* Exponential backoff */
1096       tc->rto = clib_min (tc->rto << 1, TCP_RTO_MAX);
1097
1098       TCP_EVT_DBG (TCP_EVT_CC_EVT, tc, 1);
1099
1100       /* Send one segment. No fancy recovery for now! */
1101       n_bytes = tcp_prepare_retransmit_segment (tc, b, 0, tc->snd_mss);
1102       scoreboard_clear (&tc->sack_sb);
1103
1104       if (n_bytes == 0)
1105         {
1106           clib_warning ("could not retransmit");
1107           return;
1108         }
1109     }
1110   else
1111     {
1112       /* Retransmit for SYN/SYNACK */
1113       ASSERT (tc->state == TCP_STATE_SYN_RCVD
1114               || tc->state == TCP_STATE_SYN_SENT);
1115
1116       /* Try without increasing RTO a number of times. If this fails,
1117        * start growing RTO exponentially */
1118       if (tc->rto_boff > TCP_RTO_SYN_RETRIES)
1119         tc->rto = clib_min (tc->rto << 1, TCP_RTO_MAX);
1120
1121       vlib_buffer_make_headroom (b, MAX_HDRS_LEN);
1122
1123       tcp_push_hdr_i (tc, b, tc->state, 1);
1124
1125       /* Account for the SYN */
1126       tc->snd_nxt += 1;
1127     }
1128
1129   if (!is_syn)
1130     {
1131       tcp_enqueue_to_output (vm, b, bi, tc->c_is_ip4);
1132
1133       /* Re-enable retransmit timer */
1134       tcp_retransmit_timer_set (tc);
1135     }
1136   else
1137     {
1138       ASSERT (tc->state == TCP_STATE_SYN_SENT);
1139
1140       TCP_EVT_DBG (TCP_EVT_SYN_RTX, tc);
1141
1142       /* This goes straight to ipx_lookup */
1143       tcp_push_ip_hdr (tm, tc, b);
1144       tcp_enqueue_to_ip_lookup (vm, b, bi, tc->c_is_ip4);
1145
1146       /* Re-enable retransmit timer */
1147       tcp_timer_set (tc, TCP_TIMER_RETRANSMIT_SYN,
1148                      tc->rto * TCP_TO_TIMER_TICK);
1149     }
1150 }
1151
1152 void
1153 tcp_timer_retransmit_handler (u32 index)
1154 {
1155   tcp_timer_retransmit_handler_i (index, 0);
1156 }
1157
1158 void
1159 tcp_timer_retransmit_syn_handler (u32 index)
1160 {
1161   tcp_timer_retransmit_handler_i (index, 1);
1162 }
1163
1164 /**
1165  * Got 0 snd_wnd from peer, try to do something about it.
1166  *
1167  */
1168 void
1169 tcp_timer_persist_handler (u32 index)
1170 {
1171   tcp_main_t *tm = vnet_get_tcp_main ();
1172   vlib_main_t *vm = vlib_get_main ();
1173   u32 thread_index = vlib_get_thread_index ();
1174   tcp_connection_t *tc;
1175   vlib_buffer_t *b;
1176   u32 bi, n_bytes;
1177
1178   tc = tcp_connection_get_if_valid (index, thread_index);
1179
1180   if (!tc)
1181     return;
1182
1183   /* Make sure timer handle is set to invalid */
1184   tc->timers[TCP_TIMER_PERSIST] = TCP_TIMER_HANDLE_INVALID;
1185
1186   /* Problem already solved or worse */
1187   if (tc->state == TCP_STATE_CLOSED
1188       || tc->snd_wnd > tc->snd_mss || tcp_in_recovery (tc))
1189     return;
1190
1191   /* Increment RTO backoff */
1192   tc->rto_boff += 1;
1193   tc->rto = clib_min (tc->rto << 1, TCP_RTO_MAX);
1194
1195   /* Try to force the first unsent segment  */
1196   tcp_get_free_buffer_index (tm, &bi);
1197   b = vlib_get_buffer (vm, bi);
1198   tc->snd_opts_len = tcp_make_options (tc, &tc->snd_opts, tc->state);
1199   n_bytes = stream_session_peek_bytes (&tc->connection,
1200                                        vlib_buffer_get_current (b),
1201                                        tc->snd_una_max - tc->snd_una,
1202                                        tc->snd_mss);
1203   /* Nothing to send */
1204   if (n_bytes == 0)
1205     {
1206       tcp_return_buffer (tm);
1207       return;
1208     }
1209
1210   b->current_length = n_bytes;
1211   tcp_push_hdr_i (tc, b, tc->state, 0);
1212   tcp_enqueue_to_output (vm, b, bi, tc->c_is_ip4);
1213
1214   /* Re-enable persist timer */
1215   tcp_persist_timer_set (tc);
1216 }
1217
1218 /**
1219  * Retransmit first unacked segment
1220  */
1221 void
1222 tcp_retransmit_first_unacked (tcp_connection_t * tc)
1223 {
1224   tcp_main_t *tm = vnet_get_tcp_main ();
1225   vlib_main_t *vm = vlib_get_main ();
1226   vlib_buffer_t *b;
1227   u32 bi, n_bytes;
1228
1229   tc->snd_nxt = tc->snd_una;
1230
1231   /* Get buffer */
1232   tcp_get_free_buffer_index (tm, &bi);
1233   b = vlib_get_buffer (vm, bi);
1234
1235   TCP_EVT_DBG (TCP_EVT_CC_EVT, tc, 2);
1236
1237   n_bytes = tcp_prepare_retransmit_segment (tc, b, 0, tc->snd_mss);
1238   if (n_bytes == 0)
1239     goto done;
1240
1241   tcp_enqueue_to_output (vm, b, bi, tc->c_is_ip4);
1242
1243 done:
1244   tc->snd_nxt = tc->snd_una_max;
1245 }
1246
1247 sack_scoreboard_hole_t *
1248 scoreboard_first_rtx_hole (sack_scoreboard_t * sb)
1249 {
1250   sack_scoreboard_hole_t *hole = 0;
1251
1252 //  hole = scoreboard_first_hole (&tc->sack_sb);
1253 //  if (hole)
1254 //    {
1255 //
1256 //      offset = hole->start - tc->snd_una;
1257 //      hole_size = hole->end - hole->start;
1258 //
1259 //      ASSERT(hole_size);
1260 //
1261 //      if (hole_size < max_bytes)
1262 //      max_bytes = hole_size;
1263 //    }
1264   return hole;
1265 }
1266
1267 /**
1268  * Do fast retransmit.
1269  */
1270 void
1271 tcp_fast_retransmit (tcp_connection_t * tc)
1272 {
1273   tcp_main_t *tm = vnet_get_tcp_main ();
1274   vlib_main_t *vm = vlib_get_main ();
1275   u32 bi;
1276   int snd_space;
1277   u32 n_written = 0, offset = 0;
1278   vlib_buffer_t *b;
1279   u8 use_sacks = 0;
1280
1281   ASSERT (tcp_in_fastrecovery (tc));
1282
1283   /* Start resending from first un-acked segment */
1284   tc->snd_nxt = tc->snd_una;
1285
1286   snd_space = tcp_available_snd_space (tc);
1287   TCP_EVT_DBG (TCP_EVT_CC_EVT, tc, 0);
1288
1289   /* If we have SACKs use them */
1290   if (tcp_opts_sack_permitted (&tc->opt)
1291       && scoreboard_first_hole (&tc->sack_sb))
1292     use_sacks = 0;
1293
1294   while (snd_space > 0)
1295     {
1296       tcp_get_free_buffer_index (tm, &bi);
1297       b = vlib_get_buffer (vm, bi);
1298
1299       if (use_sacks)
1300         {
1301           scoreboard_first_rtx_hole (&tc->sack_sb);
1302         }
1303       else
1304         {
1305           offset += n_written;
1306         }
1307
1308       n_written = tcp_prepare_retransmit_segment (tc, b, offset, snd_space);
1309
1310       /* Nothing left to retransmit */
1311       if (n_written == 0)
1312         {
1313           tcp_return_buffer (tm);
1314           break;
1315         }
1316
1317       tcp_enqueue_to_output (vm, b, bi, tc->c_is_ip4);
1318       snd_space -= n_written;
1319     }
1320
1321   /* If window allows, send 1 SMSS of new data */
1322   if (seq_lt (tc->snd_nxt, tc->snd_congestion))
1323     tc->snd_nxt = tc->snd_congestion;
1324 }
1325
1326 always_inline u32
1327 tcp_session_has_ooo_data (tcp_connection_t * tc)
1328 {
1329   stream_session_t *s =
1330     stream_session_get (tc->c_s_index, tc->c_thread_index);
1331   return svm_fifo_has_ooo_data (s->server_rx_fifo);
1332 }
1333
1334 always_inline uword
1335 tcp46_output_inline (vlib_main_t * vm,
1336                      vlib_node_runtime_t * node,
1337                      vlib_frame_t * from_frame, int is_ip4)
1338 {
1339   u32 n_left_from, next_index, *from, *to_next;
1340   u32 my_thread_index = vm->thread_index;
1341
1342   from = vlib_frame_vector_args (from_frame);
1343   n_left_from = from_frame->n_vectors;
1344
1345   next_index = node->cached_next_index;
1346
1347   while (n_left_from > 0)
1348     {
1349       u32 n_left_to_next;
1350
1351       vlib_get_next_frame (vm, node, next_index, to_next, n_left_to_next);
1352
1353       while (n_left_from > 0 && n_left_to_next > 0)
1354         {
1355           u32 bi0;
1356           vlib_buffer_t *b0;
1357           tcp_connection_t *tc0;
1358           tcp_tx_trace_t *t0;
1359           tcp_header_t *th0 = 0;
1360           u32 error0 = TCP_ERROR_PKTS_SENT, next0 = TCP_OUTPUT_NEXT_IP_LOOKUP;
1361
1362           bi0 = from[0];
1363           to_next[0] = bi0;
1364           from += 1;
1365           to_next += 1;
1366           n_left_from -= 1;
1367           n_left_to_next -= 1;
1368
1369           b0 = vlib_get_buffer (vm, bi0);
1370           tc0 = tcp_connection_get (vnet_buffer (b0)->tcp.connection_index,
1371                                     my_thread_index);
1372           if (PREDICT_FALSE (tc0 == 0 || tc0->state == TCP_STATE_CLOSED))
1373             {
1374               error0 = TCP_ERROR_INVALID_CONNECTION;
1375               next0 = TCP_OUTPUT_NEXT_DROP;
1376               goto done;
1377             }
1378
1379           th0 = vlib_buffer_get_current (b0);
1380           TCP_EVT_DBG (TCP_EVT_OUTPUT, tc0, th0->flags, b0->current_length);
1381
1382           if (is_ip4)
1383             {
1384               ip4_header_t *ih0;
1385               ih0 = vlib_buffer_push_ip4 (vm, b0, &tc0->c_lcl_ip4,
1386                                           &tc0->c_rmt_ip4, IP_PROTOCOL_TCP);
1387               th0->checksum = ip4_tcp_udp_compute_checksum (vm, b0, ih0);
1388             }
1389           else
1390             {
1391               ip6_header_t *ih0;
1392               int bogus = ~0;
1393
1394               ih0 = vlib_buffer_push_ip6 (vm, b0, &tc0->c_lcl_ip6,
1395                                           &tc0->c_rmt_ip6, IP_PROTOCOL_TCP);
1396               th0->checksum = ip6_tcp_udp_icmp_compute_checksum (vm, b0, ih0,
1397                                                                  &bogus);
1398               ASSERT (!bogus);
1399             }
1400
1401           /* Filter out DUPACKs if there are no OOO segments left */
1402           if (PREDICT_FALSE
1403               (vnet_buffer (b0)->tcp.flags & TCP_BUF_FLAG_DUPACK))
1404             {
1405               if (!tcp_session_has_ooo_data (tc0))
1406                 {
1407                   error0 = TCP_ERROR_FILTERED_DUPACKS;
1408                   next0 = TCP_OUTPUT_NEXT_DROP;
1409                   goto done;
1410                 }
1411             }
1412
1413           /* Stop DELACK timer and fix flags */
1414           tc0->flags &= ~(TCP_CONN_SNDACK);
1415           if (tcp_timer_is_active (tc0, TCP_TIMER_DELACK))
1416             {
1417               tcp_timer_reset (tc0, TCP_TIMER_DELACK);
1418             }
1419
1420           /* If not retransmitting
1421            * 1) update snd_una_max (SYN, SYNACK, FIN)
1422            * 2) If we're not tracking an ACK, start tracking */
1423           if (seq_lt (tc0->snd_una_max, tc0->snd_nxt))
1424             {
1425               tc0->snd_una_max = tc0->snd_nxt;
1426               if (tc0->rtt_ts == 0)
1427                 {
1428                   tc0->rtt_ts = tcp_time_now ();
1429                   tc0->rtt_seq = tc0->snd_nxt;
1430                 }
1431             }
1432
1433           /* Set the retransmit timer if not set already and not
1434            * doing a pure ACK */
1435           if (!tcp_timer_is_active (tc0, TCP_TIMER_RETRANSMIT)
1436               && tc0->snd_nxt != tc0->snd_una)
1437             {
1438               tcp_retransmit_timer_set (tc0);
1439               tc0->rto_boff = 0;
1440             }
1441
1442           /* set fib index to default and lookup node */
1443           /* XXX network virtualization (vrf/vni) */
1444           vnet_buffer (b0)->sw_if_index[VLIB_RX] = 0;
1445           vnet_buffer (b0)->sw_if_index[VLIB_TX] = (u32) ~ 0;
1446
1447           b0->flags |= VNET_BUFFER_LOCALLY_ORIGINATED;
1448         done:
1449           b0->error = node->errors[error0];
1450           if (PREDICT_FALSE (b0->flags & VLIB_BUFFER_IS_TRACED))
1451             {
1452               t0 = vlib_add_trace (vm, node, b0, sizeof (*t0));
1453               if (th0)
1454                 {
1455                   clib_memcpy (&t0->tcp_header, th0, sizeof (t0->tcp_header));
1456                 }
1457               else
1458                 {
1459                   memset (&t0->tcp_header, 0, sizeof (t0->tcp_header));
1460                 }
1461               clib_memcpy (&t0->tcp_connection, tc0,
1462                            sizeof (t0->tcp_connection));
1463             }
1464
1465           vlib_validate_buffer_enqueue_x1 (vm, node, next_index, to_next,
1466                                            n_left_to_next, bi0, next0);
1467         }
1468
1469       vlib_put_next_frame (vm, node, next_index, n_left_to_next);
1470     }
1471
1472   return from_frame->n_vectors;
1473 }
1474
1475 static uword
1476 tcp4_output (vlib_main_t * vm, vlib_node_runtime_t * node,
1477              vlib_frame_t * from_frame)
1478 {
1479   return tcp46_output_inline (vm, node, from_frame, 1 /* is_ip4 */ );
1480 }
1481
1482 static uword
1483 tcp6_output (vlib_main_t * vm, vlib_node_runtime_t * node,
1484              vlib_frame_t * from_frame)
1485 {
1486   return tcp46_output_inline (vm, node, from_frame, 0 /* is_ip4 */ );
1487 }
1488
1489 /* *INDENT-OFF* */
1490 VLIB_REGISTER_NODE (tcp4_output_node) =
1491 {
1492   .function = tcp4_output,.name = "tcp4-output",
1493     /* Takes a vector of packets. */
1494     .vector_size = sizeof (u32),
1495     .n_errors = TCP_N_ERROR,
1496     .error_strings = tcp_error_strings,
1497     .n_next_nodes = TCP_OUTPUT_N_NEXT,
1498     .next_nodes = {
1499 #define _(s,n) [TCP_OUTPUT_NEXT_##s] = n,
1500     foreach_tcp4_output_next
1501 #undef _
1502     },
1503     .format_buffer = format_tcp_header,
1504     .format_trace = format_tcp_tx_trace,
1505 };
1506 /* *INDENT-ON* */
1507
1508 VLIB_NODE_FUNCTION_MULTIARCH (tcp4_output_node, tcp4_output);
1509
1510 /* *INDENT-OFF* */
1511 VLIB_REGISTER_NODE (tcp6_output_node) =
1512 {
1513   .function = tcp6_output,
1514   .name = "tcp6-output",
1515     /* Takes a vector of packets. */
1516   .vector_size = sizeof (u32),
1517   .n_errors = TCP_N_ERROR,
1518   .error_strings = tcp_error_strings,
1519   .n_next_nodes = TCP_OUTPUT_N_NEXT,
1520   .next_nodes = {
1521 #define _(s,n) [TCP_OUTPUT_NEXT_##s] = n,
1522     foreach_tcp6_output_next
1523 #undef _
1524   },
1525   .format_buffer = format_tcp_header,
1526   .format_trace = format_tcp_tx_trace,
1527 };
1528 /* *INDENT-ON* */
1529
1530 VLIB_NODE_FUNCTION_MULTIARCH (tcp6_output_node, tcp6_output);
1531
1532 u32
1533 tcp_push_header (transport_connection_t * tconn, vlib_buffer_t * b)
1534 {
1535   tcp_connection_t *tc;
1536
1537   tc = (tcp_connection_t *) tconn;
1538   tcp_push_hdr_i (tc, b, TCP_STATE_ESTABLISHED, 0);
1539   return 0;
1540 }
1541
1542 typedef enum _tcp_reset_next
1543 {
1544   TCP_RESET_NEXT_DROP,
1545   TCP_RESET_NEXT_IP_LOOKUP,
1546   TCP_RESET_N_NEXT
1547 } tcp_reset_next_t;
1548
1549 #define foreach_tcp4_reset_next         \
1550   _(DROP, "error-drop")                 \
1551   _(IP_LOOKUP, "ip4-lookup")
1552
1553 #define foreach_tcp6_reset_next         \
1554   _(DROP, "error-drop")                 \
1555   _(IP_LOOKUP, "ip6-lookup")
1556
1557 static uword
1558 tcp46_send_reset_inline (vlib_main_t * vm, vlib_node_runtime_t * node,
1559                          vlib_frame_t * from_frame, u8 is_ip4)
1560 {
1561   u32 n_left_from, next_index, *from, *to_next;
1562   u32 my_thread_index = vm->thread_index;
1563
1564   from = vlib_frame_vector_args (from_frame);
1565   n_left_from = from_frame->n_vectors;
1566
1567   next_index = node->cached_next_index;
1568
1569   while (n_left_from > 0)
1570     {
1571       u32 n_left_to_next;
1572
1573       vlib_get_next_frame (vm, node, next_index, to_next, n_left_to_next);
1574
1575       while (n_left_from > 0 && n_left_to_next > 0)
1576         {
1577           u32 bi0;
1578           vlib_buffer_t *b0;
1579           tcp_tx_trace_t *t0;
1580           tcp_header_t *th0;
1581           u32 error0 = TCP_ERROR_RST_SENT, next0 = TCP_RESET_NEXT_IP_LOOKUP;
1582
1583           bi0 = from[0];
1584           to_next[0] = bi0;
1585           from += 1;
1586           to_next += 1;
1587           n_left_from -= 1;
1588           n_left_to_next -= 1;
1589
1590           b0 = vlib_get_buffer (vm, bi0);
1591
1592           if (tcp_make_reset_in_place (vm, b0, vnet_buffer (b0)->tcp.flags,
1593                                        my_thread_index, is_ip4))
1594             {
1595               error0 = TCP_ERROR_LOOKUP_DROPS;
1596               next0 = TCP_RESET_NEXT_DROP;
1597               goto done;
1598             }
1599
1600           /* Prepare to send to IP lookup */
1601           vnet_buffer (b0)->sw_if_index[VLIB_TX] = 0;
1602           next0 = TCP_RESET_NEXT_IP_LOOKUP;
1603
1604         done:
1605           b0->error = node->errors[error0];
1606           b0->flags |= VNET_BUFFER_LOCALLY_ORIGINATED;
1607           if (PREDICT_FALSE (b0->flags & VLIB_BUFFER_IS_TRACED))
1608             {
1609               th0 = vlib_buffer_get_current (b0);
1610               if (is_ip4)
1611                 th0 = ip4_next_header ((ip4_header_t *) th0);
1612               else
1613                 th0 = ip6_next_header ((ip6_header_t *) th0);
1614               t0 = vlib_add_trace (vm, node, b0, sizeof (*t0));
1615               clib_memcpy (&t0->tcp_header, th0, sizeof (t0->tcp_header));
1616             }
1617
1618           vlib_validate_buffer_enqueue_x1 (vm, node, next_index, to_next,
1619                                            n_left_to_next, bi0, next0);
1620         }
1621       vlib_put_next_frame (vm, node, next_index, n_left_to_next);
1622     }
1623   return from_frame->n_vectors;
1624 }
1625
1626 static uword
1627 tcp4_send_reset (vlib_main_t * vm, vlib_node_runtime_t * node,
1628                  vlib_frame_t * from_frame)
1629 {
1630   return tcp46_send_reset_inline (vm, node, from_frame, 1);
1631 }
1632
1633 static uword
1634 tcp6_send_reset (vlib_main_t * vm, vlib_node_runtime_t * node,
1635                  vlib_frame_t * from_frame)
1636 {
1637   return tcp46_send_reset_inline (vm, node, from_frame, 0);
1638 }
1639
1640 /* *INDENT-OFF* */
1641 VLIB_REGISTER_NODE (tcp4_reset_node) = {
1642   .function = tcp4_send_reset,
1643   .name = "tcp4-reset",
1644   .vector_size = sizeof (u32),
1645   .n_errors = TCP_N_ERROR,
1646   .error_strings = tcp_error_strings,
1647   .n_next_nodes = TCP_RESET_N_NEXT,
1648   .next_nodes = {
1649 #define _(s,n) [TCP_RESET_NEXT_##s] = n,
1650     foreach_tcp4_reset_next
1651 #undef _
1652   },
1653   .format_trace = format_tcp_tx_trace,
1654 };
1655 /* *INDENT-ON* */
1656
1657 VLIB_NODE_FUNCTION_MULTIARCH (tcp4_reset_node, tcp4_send_reset);
1658
1659 /* *INDENT-OFF* */
1660 VLIB_REGISTER_NODE (tcp6_reset_node) = {
1661   .function = tcp6_send_reset,
1662   .name = "tcp6-reset",
1663   .vector_size = sizeof (u32),
1664   .n_errors = TCP_N_ERROR,
1665   .error_strings = tcp_error_strings,
1666   .n_next_nodes = TCP_RESET_N_NEXT,
1667   .next_nodes = {
1668 #define _(s,n) [TCP_RESET_NEXT_##s] = n,
1669     foreach_tcp6_reset_next
1670 #undef _
1671   },
1672   .format_trace = format_tcp_tx_trace,
1673 };
1674 /* *INDENT-ON* */
1675
1676 VLIB_NODE_FUNCTION_MULTIARCH (tcp6_reset_node, tcp6_send_reset);
1677
1678 /*
1679  * fd.io coding-style-patch-verification: ON
1680  *
1681  * Local Variables:
1682  * eval: (c-set-style "gnu")
1683  * End:
1684  */