49fd6beffa3f4dc0ac470a2fae86b6b0080f99b9
[vpp.git] / src / vnet / tcp / tcp_output.c
1 /*
2  * Copyright (c) 2016 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 #include <vnet/tcp/tcp.h>
17 #include <vnet/lisp-cp/packets.h>
18
19 vlib_node_registration_t tcp4_output_node;
20 vlib_node_registration_t tcp6_output_node;
21
22 typedef enum _tcp_output_nect
23 {
24   TCP_OUTPUT_NEXT_DROP,
25   TCP_OUTPUT_NEXT_IP_LOOKUP,
26   TCP_OUTPUT_N_NEXT
27 } tcp_output_next_t;
28
29 #define foreach_tcp4_output_next                \
30   _ (DROP, "error-drop")                        \
31   _ (IP_LOOKUP, "ip4-lookup")
32
33 #define foreach_tcp6_output_next                \
34   _ (DROP, "error-drop")                        \
35   _ (IP_LOOKUP, "ip6-lookup")
36
37 static char *tcp_error_strings[] = {
38 #define tcp_error(n,s) s,
39 #include <vnet/tcp/tcp_error.def>
40 #undef tcp_error
41 };
42
43 typedef struct
44 {
45   tcp_header_t tcp_header;
46   tcp_connection_t tcp_connection;
47 } tcp_tx_trace_t;
48
49 u16 dummy_mtu = 1460;
50
51 u8 *
52 format_tcp_tx_trace (u8 * s, va_list * args)
53 {
54   CLIB_UNUSED (vlib_main_t * vm) = va_arg (*args, vlib_main_t *);
55   CLIB_UNUSED (vlib_node_t * node) = va_arg (*args, vlib_node_t *);
56   tcp_tx_trace_t *t = va_arg (*args, tcp_tx_trace_t *);
57   uword indent = format_get_indent (s);
58
59   s = format (s, "%U\n%U%U",
60               format_tcp_header, &t->tcp_header, 128,
61               format_white_space, indent,
62               format_tcp_connection, &t->tcp_connection, 1);
63
64   return s;
65 }
66
67 static u8
68 tcp_window_compute_scale (u32 available_space)
69 {
70   u8 wnd_scale = 0;
71   while (wnd_scale < TCP_MAX_WND_SCALE
72          && (available_space >> wnd_scale) > TCP_WND_MAX)
73     wnd_scale++;
74   return wnd_scale;
75 }
76
77 /**
78  * TCP's IW as recommended by RFC6928
79  */
80 always_inline u32
81 tcp_initial_wnd_unscaled (tcp_connection_t * tc)
82 {
83   return TCP_IW_N_SEGMENTS * tc->mss;
84 }
85
86 /**
87  * Compute initial window and scale factor. As per RFC1323, window field in
88  * SYN and SYN-ACK segments is never scaled.
89  */
90 u32
91 tcp_initial_window_to_advertise (tcp_connection_t * tc)
92 {
93   u32 max_fifo;
94
95   /* Initial wnd for SYN. Fifos are not allocated yet.
96    * Use some predefined value. For SYN-ACK we still want the
97    * scale to be computed in the same way */
98   max_fifo = TCP_MAX_RX_FIFO_SIZE;
99
100   tc->rcv_wscale = tcp_window_compute_scale (max_fifo);
101   tc->rcv_wnd = tcp_initial_wnd_unscaled (tc);
102
103   return clib_min (tc->rcv_wnd, TCP_WND_MAX);
104 }
105
106 /**
107  * Compute and return window to advertise, scaled as per RFC1323
108  */
109 u32
110 tcp_window_to_advertise (tcp_connection_t * tc, tcp_state_t state)
111 {
112   if (state < TCP_STATE_ESTABLISHED)
113     return tcp_initial_window_to_advertise (tc);
114
115   tcp_update_rcv_wnd (tc);
116
117   if (tc->rcv_wnd == 0)
118     {
119       tc->flags |= TCP_CONN_SENT_RCV_WND0;
120     }
121   else
122     {
123       tc->flags &= ~TCP_CONN_SENT_RCV_WND0;
124     }
125
126   return tc->rcv_wnd >> tc->rcv_wscale;
127 }
128
129 void
130 tcp_update_rcv_wnd (tcp_connection_t * tc)
131 {
132   i32 observed_wnd;
133   u32 available_space, max_fifo, wnd;
134
135   /*
136    * Figure out how much space we have available
137    */
138   available_space = stream_session_max_rx_enqueue (&tc->connection);
139   max_fifo = stream_session_fifo_size (&tc->connection);
140
141   ASSERT (tc->opt.mss < max_fifo);
142   if (available_space < tc->opt.mss && available_space < max_fifo >> 3)
143     available_space = 0;
144
145   /*
146    * Use the above and what we know about what we've previously advertised
147    * to compute the new window
148    */
149   observed_wnd = (i32) tc->rcv_wnd - (tc->rcv_nxt - tc->rcv_las);
150   if (observed_wnd < 0)
151     observed_wnd = 0;
152
153   /* Bad. Thou shalt not shrink */
154   if (available_space < observed_wnd)
155     {
156       wnd = observed_wnd;
157       TCP_EVT_DBG (TCP_EVT_RCV_WND_SHRUNK, tc, observed_wnd, available_space);
158     }
159   else
160     {
161       wnd = available_space;
162     }
163
164   /* Make sure we have a multiple of rcv_wscale */
165   if (wnd && tc->rcv_wscale)
166     {
167       wnd &= ~(1 << tc->rcv_wscale);
168       if (wnd == 0)
169         wnd = 1 << tc->rcv_wscale;
170     }
171
172   tc->rcv_wnd = clib_min (wnd, TCP_WND_MAX << tc->rcv_wscale);
173 }
174
175 /**
176  * Write TCP options to segment.
177  */
178 u32
179 tcp_options_write (u8 * data, tcp_options_t * opts)
180 {
181   u32 opts_len = 0;
182   u32 buf, seq_len = 4;
183
184   if (tcp_opts_mss (opts))
185     {
186       *data++ = TCP_OPTION_MSS;
187       *data++ = TCP_OPTION_LEN_MSS;
188       buf = clib_host_to_net_u16 (opts->mss);
189       clib_memcpy (data, &buf, sizeof (opts->mss));
190       data += sizeof (opts->mss);
191       opts_len += TCP_OPTION_LEN_MSS;
192     }
193
194   if (tcp_opts_wscale (opts))
195     {
196       *data++ = TCP_OPTION_WINDOW_SCALE;
197       *data++ = TCP_OPTION_LEN_WINDOW_SCALE;
198       *data++ = opts->wscale;
199       opts_len += TCP_OPTION_LEN_WINDOW_SCALE;
200     }
201
202   if (tcp_opts_sack_permitted (opts))
203     {
204       *data++ = TCP_OPTION_SACK_PERMITTED;
205       *data++ = TCP_OPTION_LEN_SACK_PERMITTED;
206       opts_len += TCP_OPTION_LEN_SACK_PERMITTED;
207     }
208
209   if (tcp_opts_tstamp (opts))
210     {
211       *data++ = TCP_OPTION_TIMESTAMP;
212       *data++ = TCP_OPTION_LEN_TIMESTAMP;
213       buf = clib_host_to_net_u32 (opts->tsval);
214       clib_memcpy (data, &buf, sizeof (opts->tsval));
215       data += sizeof (opts->tsval);
216       buf = clib_host_to_net_u32 (opts->tsecr);
217       clib_memcpy (data, &buf, sizeof (opts->tsecr));
218       data += sizeof (opts->tsecr);
219       opts_len += TCP_OPTION_LEN_TIMESTAMP;
220     }
221
222   if (tcp_opts_sack (opts))
223     {
224       int i;
225       u32 n_sack_blocks = clib_min (vec_len (opts->sacks),
226                                     TCP_OPTS_MAX_SACK_BLOCKS);
227
228       if (n_sack_blocks != 0)
229         {
230           *data++ = TCP_OPTION_SACK_BLOCK;
231           *data++ = 2 + n_sack_blocks * TCP_OPTION_LEN_SACK_BLOCK;
232           for (i = 0; i < n_sack_blocks; i++)
233             {
234               buf = clib_host_to_net_u32 (opts->sacks[i].start);
235               clib_memcpy (data, &buf, seq_len);
236               data += seq_len;
237               buf = clib_host_to_net_u32 (opts->sacks[i].end);
238               clib_memcpy (data, &buf, seq_len);
239               data += seq_len;
240             }
241           opts_len += 2 + n_sack_blocks * TCP_OPTION_LEN_SACK_BLOCK;
242         }
243     }
244
245   /* Terminate TCP options */
246   if (opts_len % 4)
247     {
248       *data++ = TCP_OPTION_EOL;
249       opts_len += TCP_OPTION_LEN_EOL;
250     }
251
252   /* Pad with zeroes to a u32 boundary */
253   while (opts_len % 4)
254     {
255       *data++ = TCP_OPTION_NOOP;
256       opts_len += TCP_OPTION_LEN_NOOP;
257     }
258   return opts_len;
259 }
260
261 always_inline int
262 tcp_make_syn_options (tcp_options_t * opts, u8 wnd_scale)
263 {
264   u8 len = 0;
265
266   opts->flags |= TCP_OPTS_FLAG_MSS;
267   opts->mss = dummy_mtu;        /*XXX discover that */
268   len += TCP_OPTION_LEN_MSS;
269
270   opts->flags |= TCP_OPTS_FLAG_WSCALE;
271   opts->wscale = wnd_scale;
272   len += TCP_OPTION_LEN_WINDOW_SCALE;
273
274   opts->flags |= TCP_OPTS_FLAG_TSTAMP;
275   opts->tsval = tcp_time_now ();
276   opts->tsecr = 0;
277   len += TCP_OPTION_LEN_TIMESTAMP;
278
279   opts->flags |= TCP_OPTS_FLAG_SACK_PERMITTED;
280   len += TCP_OPTION_LEN_SACK_PERMITTED;
281
282   /* Align to needed boundary */
283   len += (TCP_OPTS_ALIGN - len % TCP_OPTS_ALIGN) % TCP_OPTS_ALIGN;
284   return len;
285 }
286
287 always_inline int
288 tcp_make_synack_options (tcp_connection_t * tc, tcp_options_t * opts)
289 {
290   u8 len = 0;
291
292   opts->flags |= TCP_OPTS_FLAG_MSS;
293   opts->mss = tc->mss;
294   len += TCP_OPTION_LEN_MSS;
295
296   if (tcp_opts_wscale (&tc->opt))
297     {
298       opts->flags |= TCP_OPTS_FLAG_WSCALE;
299       opts->wscale = tc->rcv_wscale;
300       len += TCP_OPTION_LEN_WINDOW_SCALE;
301     }
302
303   if (tcp_opts_tstamp (&tc->opt))
304     {
305       opts->flags |= TCP_OPTS_FLAG_TSTAMP;
306       opts->tsval = tcp_time_now ();
307       opts->tsecr = tc->tsval_recent;
308       len += TCP_OPTION_LEN_TIMESTAMP;
309     }
310
311   if (tcp_opts_sack_permitted (&tc->opt))
312     {
313       opts->flags |= TCP_OPTS_FLAG_SACK_PERMITTED;
314       len += TCP_OPTION_LEN_SACK_PERMITTED;
315     }
316
317   /* Align to needed boundary */
318   len += (TCP_OPTS_ALIGN - len % TCP_OPTS_ALIGN) % TCP_OPTS_ALIGN;
319   return len;
320 }
321
322 always_inline int
323 tcp_make_established_options (tcp_connection_t * tc, tcp_options_t * opts)
324 {
325   u8 len = 0;
326
327   opts->flags = 0;
328
329   if (tcp_opts_tstamp (&tc->opt))
330     {
331       opts->flags |= TCP_OPTS_FLAG_TSTAMP;
332       opts->tsval = tcp_time_now ();
333       opts->tsecr = tc->tsval_recent;
334       len += TCP_OPTION_LEN_TIMESTAMP;
335     }
336   if (tcp_opts_sack_permitted (&tc->opt))
337     {
338       if (vec_len (tc->snd_sacks))
339         {
340           opts->flags |= TCP_OPTS_FLAG_SACK;
341           opts->sacks = tc->snd_sacks;
342           opts->n_sack_blocks = clib_min (vec_len (tc->snd_sacks),
343                                           TCP_OPTS_MAX_SACK_BLOCKS);
344           len += 2 + TCP_OPTION_LEN_SACK_BLOCK * opts->n_sack_blocks;
345         }
346     }
347
348   /* Align to needed boundary */
349   len += (TCP_OPTS_ALIGN - len % TCP_OPTS_ALIGN) % TCP_OPTS_ALIGN;
350   return len;
351 }
352
353 always_inline int
354 tcp_make_options (tcp_connection_t * tc, tcp_options_t * opts,
355                   tcp_state_t state)
356 {
357   switch (state)
358     {
359     case TCP_STATE_ESTABLISHED:
360     case TCP_STATE_FIN_WAIT_1:
361       return tcp_make_established_options (tc, opts);
362     case TCP_STATE_SYN_RCVD:
363       return tcp_make_synack_options (tc, opts);
364     case TCP_STATE_SYN_SENT:
365       return tcp_make_syn_options (opts, tc->rcv_wscale);
366     default:
367       clib_warning ("Not handled!");
368       return 0;
369     }
370 }
371
372 /**
373  * Update max segment size we're able to process.
374  *
375  * The value is constrained by our interface's MTU and IP options. It is
376  * also what we advertise to our peer.
377  */
378 void
379 tcp_update_rcv_mss (tcp_connection_t * tc)
380 {
381   /* TODO find our iface MTU */
382   tc->mss = dummy_mtu;
383 }
384
385 /**
386  * Update snd_mss to reflect the effective segment size that we can send
387  * by taking into account all TCP options, including SACKs
388  */
389 void
390 tcp_update_snd_mss (tcp_connection_t * tc)
391 {
392   /* Compute options to be used for connection. These may be reused when
393    * sending data or to compute the effective mss (snd_mss) */
394   tc->snd_opts_len =
395     tcp_make_options (tc, &tc->snd_opts, TCP_STATE_ESTABLISHED);
396
397   /* XXX check if MTU has been updated */
398   tc->snd_mss = clib_min (tc->mss, tc->opt.mss) - tc->snd_opts_len;
399   ASSERT (tc->snd_mss > 0);
400 }
401
402 void
403 tcp_init_mss (tcp_connection_t * tc)
404 {
405   u16 default_min_mss = 536;
406   tcp_update_rcv_mss (tc);
407
408   /* TODO cache mss and consider PMTU discovery */
409   tc->snd_mss = clib_min (tc->opt.mss, tc->mss);
410
411   if (tc->snd_mss < 45)
412     {
413       clib_warning ("snd mss is 0");
414       /* Assume that at least the min default mss works */
415       tc->snd_mss = default_min_mss;
416       tc->opt.mss = default_min_mss;
417     }
418
419   /* We should have enough space for 40 bytes of options */
420   ASSERT (tc->snd_mss > 45);
421
422   /* If we use timestamp option, account for it */
423   if (tcp_opts_tstamp (&tc->opt))
424     tc->snd_mss -= TCP_OPTION_LEN_TIMESTAMP;
425 }
426
427 #define tcp_get_free_buffer_index(tm, bidx)                             \
428 do {                                                                    \
429   u32 *my_tx_buffers, n_free_buffers;                                   \
430   u32 thread_index = vlib_get_thread_index();                                   \
431   my_tx_buffers = tm->tx_buffers[thread_index];                            \
432   if (PREDICT_FALSE(vec_len (my_tx_buffers) == 0))                      \
433     {                                                                   \
434       n_free_buffers = 32;      /* TODO config or macro */              \
435       vec_validate (my_tx_buffers, n_free_buffers - 1);                 \
436       _vec_len(my_tx_buffers) = vlib_buffer_alloc_from_free_list (      \
437           tm->vlib_main, my_tx_buffers, n_free_buffers,                 \
438           VLIB_BUFFER_DEFAULT_FREE_LIST_INDEX);                         \
439       tm->tx_buffers[thread_index] = my_tx_buffers;                        \
440     }                                                                   \
441   /* buffer shortage */                                                 \
442   if (PREDICT_FALSE (vec_len (my_tx_buffers) == 0))                     \
443     return;                                                             \
444   *bidx = my_tx_buffers[_vec_len (my_tx_buffers)-1];                    \
445   _vec_len (my_tx_buffers) -= 1;                                        \
446 } while (0)
447
448 #define tcp_return_buffer(tm)                                           \
449 do {                                                                    \
450   u32 *my_tx_buffers;                                                   \
451   u32 thread_index = vlib_get_thread_index();                                   \
452   my_tx_buffers = tm->tx_buffers[thread_index];                                 \
453   _vec_len (my_tx_buffers) +=1;                                         \
454 } while (0)
455
456 always_inline void
457 tcp_reuse_buffer (vlib_main_t * vm, vlib_buffer_t * b)
458 {
459   vlib_buffer_t *it = b;
460   do
461     {
462       it->current_data = 0;
463       it->current_length = 0;
464       it->total_length_not_including_first_buffer = 0;
465     }
466   while ((it->flags & VLIB_BUFFER_NEXT_PRESENT)
467          && (it = vlib_get_buffer (vm, it->next_buffer)));
468
469   /* Leave enough space for headers */
470   vlib_buffer_make_headroom (b, MAX_HDRS_LEN);
471   vnet_buffer (b)->tcp.flags = 0;
472 }
473
474 /**
475  * Prepare ACK
476  */
477 void
478 tcp_make_ack_i (tcp_connection_t * tc, vlib_buffer_t * b, tcp_state_t state,
479                 u8 flags)
480 {
481   tcp_options_t _snd_opts, *snd_opts = &_snd_opts;
482   u8 tcp_opts_len, tcp_hdr_opts_len;
483   tcp_header_t *th;
484   u16 wnd;
485
486   wnd = tcp_window_to_advertise (tc, state);
487
488   /* Make and write options */
489   tcp_opts_len = tcp_make_established_options (tc, snd_opts);
490   tcp_hdr_opts_len = tcp_opts_len + sizeof (tcp_header_t);
491
492   th = vlib_buffer_push_tcp (b, tc->c_lcl_port, tc->c_rmt_port, tc->snd_nxt,
493                              tc->rcv_nxt, tcp_hdr_opts_len, flags, wnd);
494
495   tcp_options_write ((u8 *) (th + 1), snd_opts);
496   vnet_buffer (b)->tcp.connection_index = tc->c_c_index;
497 }
498
499 /**
500  * Convert buffer to ACK
501  */
502 void
503 tcp_make_ack (tcp_connection_t * tc, vlib_buffer_t * b)
504 {
505   vlib_main_t *vm = vlib_get_main ();
506
507   tcp_reuse_buffer (vm, b);
508   tcp_make_ack_i (tc, b, TCP_STATE_ESTABLISHED, TCP_FLAG_ACK);
509   TCP_EVT_DBG (TCP_EVT_ACK_SENT, tc);
510   vnet_buffer (b)->tcp.flags = TCP_BUF_FLAG_ACK;
511   tc->rcv_las = tc->rcv_nxt;
512 }
513
514 /**
515  * Convert buffer to FIN-ACK
516  */
517 void
518 tcp_make_fin (tcp_connection_t * tc, vlib_buffer_t * b)
519 {
520   vlib_main_t *vm = vlib_get_main ();
521   u8 flags = 0;
522
523   tcp_reuse_buffer (vm, b);
524
525   flags = TCP_FLAG_FIN | TCP_FLAG_ACK;
526   tcp_make_ack_i (tc, b, TCP_STATE_ESTABLISHED, flags);
527
528   /* Reset flags, make sure ack is sent */
529   vnet_buffer (b)->tcp.flags &= ~TCP_BUF_FLAG_DUPACK;
530
531   tc->snd_nxt += 1;
532 }
533
534 /**
535  * Convert buffer to SYN-ACK
536  */
537 void
538 tcp_make_synack (tcp_connection_t * tc, vlib_buffer_t * b)
539 {
540   vlib_main_t *vm = vlib_get_main ();
541   tcp_options_t _snd_opts, *snd_opts = &_snd_opts;
542   u8 tcp_opts_len, tcp_hdr_opts_len;
543   tcp_header_t *th;
544   u16 initial_wnd;
545   u32 time_now;
546
547   memset (snd_opts, 0, sizeof (*snd_opts));
548
549   tcp_reuse_buffer (vm, b);
550
551   /* Set random initial sequence */
552   time_now = tcp_time_now ();
553
554   tc->iss = random_u32 (&time_now);
555   tc->snd_una = tc->iss;
556   tc->snd_nxt = tc->iss + 1;
557   tc->snd_una_max = tc->snd_nxt;
558
559   initial_wnd = tcp_initial_window_to_advertise (tc);
560
561   /* Make and write options */
562   tcp_opts_len = tcp_make_synack_options (tc, snd_opts);
563   tcp_hdr_opts_len = tcp_opts_len + sizeof (tcp_header_t);
564
565   th = vlib_buffer_push_tcp (b, tc->c_lcl_port, tc->c_rmt_port, tc->iss,
566                              tc->rcv_nxt, tcp_hdr_opts_len,
567                              TCP_FLAG_SYN | TCP_FLAG_ACK, initial_wnd);
568
569   tcp_options_write ((u8 *) (th + 1), snd_opts);
570
571   vnet_buffer (b)->tcp.connection_index = tc->c_c_index;
572   vnet_buffer (b)->tcp.flags = TCP_BUF_FLAG_ACK;
573
574   /* Init retransmit timer */
575   tcp_retransmit_timer_set (tc);
576 }
577
578 always_inline void
579 tcp_enqueue_to_ip_lookup (vlib_main_t * vm, vlib_buffer_t * b, u32 bi,
580                           u8 is_ip4)
581 {
582   u32 *to_next, next_index;
583   vlib_frame_t *f;
584
585   b->flags |= VNET_BUFFER_LOCALLY_ORIGINATED;
586   b->error = 0;
587
588   /* Default FIB for now */
589   vnet_buffer (b)->sw_if_index[VLIB_TX] = 0;
590
591   /* Send to IP lookup */
592   next_index = is_ip4 ? ip4_lookup_node.index : ip6_lookup_node.index;
593   f = vlib_get_frame_to_node (vm, next_index);
594
595   /* Enqueue the packet */
596   to_next = vlib_frame_vector_args (f);
597   to_next[0] = bi;
598   f->n_vectors = 1;
599   vlib_put_frame_to_node (vm, next_index, f);
600 }
601
602 int
603 tcp_make_reset_in_place (vlib_main_t * vm, vlib_buffer_t * b0,
604                          tcp_state_t state, u8 thread_index, u8 is_ip4)
605 {
606   ip4_header_t *ih4;
607   ip6_header_t *ih6;
608   tcp_header_t *th0;
609   ip4_address_t src_ip40, dst_ip40;
610   ip6_address_t src_ip60, dst_ip60;
611   u16 src_port, dst_port;
612   u32 tmp;
613   u32 seq, ack;
614   u8 flags;
615
616   /* Find IP and TCP headers */
617   th0 = tcp_buffer_hdr (b0);
618
619   /* Save src and dst ip */
620   if (is_ip4)
621     {
622       ih4 = vlib_buffer_get_current (b0);
623       ASSERT ((ih4->ip_version_and_header_length & 0xF0) == 0x40);
624       src_ip40.as_u32 = ih4->src_address.as_u32;
625       dst_ip40.as_u32 = ih4->dst_address.as_u32;
626     }
627   else
628     {
629       ih6 = vlib_buffer_get_current (b0);
630       ASSERT ((ih6->ip_version_traffic_class_and_flow_label & 0xF0) == 0x60);
631       clib_memcpy (&src_ip60, &ih6->src_address, sizeof (ip6_address_t));
632       clib_memcpy (&dst_ip60, &ih6->dst_address, sizeof (ip6_address_t));
633     }
634
635   src_port = th0->src_port;
636   dst_port = th0->dst_port;
637
638   /* Try to determine what/why we're actually resetting */
639   if (state == TCP_STATE_CLOSED)
640     {
641       if (!tcp_syn (th0))
642         return -1;
643
644       tmp = clib_net_to_host_u32 (th0->seq_number);
645
646       /* Got a SYN for no listener. */
647       flags = TCP_FLAG_RST | TCP_FLAG_ACK;
648       ack = clib_host_to_net_u32 (tmp + 1);
649       seq = 0;
650     }
651   else
652     {
653       flags = TCP_FLAG_RST;
654       seq = th0->ack_number;
655       ack = 0;
656     }
657
658   tcp_reuse_buffer (vm, b0);
659   th0 = vlib_buffer_push_tcp_net_order (b0, dst_port, src_port, seq, ack,
660                                         sizeof (tcp_header_t), flags, 0);
661
662   if (is_ip4)
663     {
664       ih4 = vlib_buffer_push_ip4 (vm, b0, &dst_ip40, &src_ip40,
665                                   IP_PROTOCOL_TCP);
666       th0->checksum = ip4_tcp_udp_compute_checksum (vm, b0, ih4);
667     }
668   else
669     {
670       int bogus = ~0;
671       ih6 = vlib_buffer_push_ip6 (vm, b0, &dst_ip60, &src_ip60,
672                                   IP_PROTOCOL_TCP);
673       th0->checksum = ip6_tcp_udp_icmp_compute_checksum (vm, b0, ih6, &bogus);
674       ASSERT (!bogus);
675     }
676
677   return 0;
678 }
679
680 /**
681  *  Send reset without reusing existing buffer
682  */
683 void
684 tcp_send_reset (vlib_buffer_t * pkt, u8 is_ip4)
685 {
686   vlib_buffer_t *b;
687   u32 bi;
688   tcp_main_t *tm = vnet_get_tcp_main ();
689   vlib_main_t *vm = vlib_get_main ();
690   u8 tcp_hdr_len, flags = 0;
691   tcp_header_t *th, *pkt_th;
692   u32 seq, ack;
693   ip4_header_t *ih4, *pkt_ih4;
694   ip6_header_t *ih6, *pkt_ih6;
695
696   tcp_get_free_buffer_index (tm, &bi);
697   b = vlib_get_buffer (vm, bi);
698
699   /* Leave enough space for headers */
700   vlib_buffer_make_headroom (b, MAX_HDRS_LEN);
701
702   /* Make and write options */
703   tcp_hdr_len = sizeof (tcp_header_t);
704
705   if (is_ip4)
706     {
707       pkt_ih4 = vlib_buffer_get_current (pkt);
708       pkt_th = ip4_next_header (pkt_ih4);
709     }
710   else
711     {
712       pkt_ih6 = vlib_buffer_get_current (pkt);
713       pkt_th = ip6_next_header (pkt_ih6);
714     }
715
716   if (tcp_ack (pkt_th))
717     {
718       flags = TCP_FLAG_RST;
719       seq = pkt_th->ack_number;
720       ack = 0;
721     }
722   else
723     {
724       flags = TCP_FLAG_RST | TCP_FLAG_ACK;
725       seq = 0;
726       ack = clib_host_to_net_u32 (vnet_buffer (pkt)->tcp.seq_end);
727     }
728
729   th = vlib_buffer_push_tcp_net_order (b, pkt_th->dst_port, pkt_th->src_port,
730                                        seq, ack, tcp_hdr_len, flags, 0);
731
732   /* Swap src and dst ip */
733   if (is_ip4)
734     {
735       ASSERT ((pkt_ih4->ip_version_and_header_length & 0xF0) == 0x40);
736       ih4 = vlib_buffer_push_ip4 (vm, b, &pkt_ih4->dst_address,
737                                   &pkt_ih4->src_address, IP_PROTOCOL_TCP);
738       th->checksum = ip4_tcp_udp_compute_checksum (vm, b, ih4);
739     }
740   else
741     {
742       int bogus = ~0;
743       pkt_ih6 = (ip6_header_t *) (pkt_th - 1);
744       ASSERT ((pkt_ih6->ip_version_traffic_class_and_flow_label & 0xF0) ==
745               0x60);
746       ih6 =
747         vlib_buffer_push_ip6 (vm, b, &pkt_ih6->dst_address,
748                               &pkt_ih6->src_address, IP_PROTOCOL_TCP);
749       th->checksum = ip6_tcp_udp_icmp_compute_checksum (vm, b, ih6, &bogus);
750       ASSERT (!bogus);
751     }
752
753   tcp_enqueue_to_ip_lookup (vm, b, bi, is_ip4);
754 }
755
756 void
757 tcp_push_ip_hdr (tcp_main_t * tm, tcp_connection_t * tc, vlib_buffer_t * b)
758 {
759   tcp_header_t *th = vlib_buffer_get_current (b);
760
761   if (tc->c_is_ip4)
762     {
763       ip4_header_t *ih;
764       ih = vlib_buffer_push_ip4 (tm->vlib_main, b, &tc->c_lcl_ip4,
765                                  &tc->c_rmt_ip4, IP_PROTOCOL_TCP);
766       th->checksum = ip4_tcp_udp_compute_checksum (tm->vlib_main, b, ih);
767     }
768   else
769     {
770       ip6_header_t *ih;
771       int bogus = ~0;
772
773       ih = vlib_buffer_push_ip6 (tm->vlib_main, b, &tc->c_lcl_ip6,
774                                  &tc->c_rmt_ip6, IP_PROTOCOL_TCP);
775       th->checksum = ip6_tcp_udp_icmp_compute_checksum (tm->vlib_main, b, ih,
776                                                         &bogus);
777       ASSERT (!bogus);
778     }
779 }
780
781 /**
782  *  Send SYN
783  *
784  *  Builds a SYN packet for a half-open connection and sends it to ipx_lookup.
785  *  The packet is not forwarded through tcpx_output to avoid doing lookups
786  *  in the half_open pool.
787  */
788 void
789 tcp_send_syn (tcp_connection_t * tc)
790 {
791   vlib_buffer_t *b;
792   u32 bi;
793   tcp_main_t *tm = vnet_get_tcp_main ();
794   vlib_main_t *vm = vlib_get_main ();
795   u8 tcp_hdr_opts_len, tcp_opts_len;
796   tcp_header_t *th;
797   u32 time_now;
798   u16 initial_wnd;
799   tcp_options_t snd_opts;
800
801   tcp_get_free_buffer_index (tm, &bi);
802   b = vlib_get_buffer (vm, bi);
803
804   /* Leave enough space for headers */
805   vlib_buffer_make_headroom (b, MAX_HDRS_LEN);
806
807   /* Set random initial sequence */
808   time_now = tcp_time_now ();
809
810   tc->iss = random_u32 (&time_now);
811   tc->snd_una = tc->iss;
812   tc->snd_una_max = tc->snd_nxt = tc->iss + 1;
813
814   initial_wnd = tcp_initial_window_to_advertise (tc);
815
816   /* Make and write options */
817   memset (&snd_opts, 0, sizeof (snd_opts));
818   tcp_opts_len = tcp_make_syn_options (&snd_opts, tc->rcv_wscale);
819   tcp_hdr_opts_len = tcp_opts_len + sizeof (tcp_header_t);
820
821   th = vlib_buffer_push_tcp (b, tc->c_lcl_port, tc->c_rmt_port, tc->iss,
822                              tc->rcv_nxt, tcp_hdr_opts_len, TCP_FLAG_SYN,
823                              initial_wnd);
824
825   tcp_options_write ((u8 *) (th + 1), &snd_opts);
826
827   /* Measure RTT with this */
828   tc->rtt_ts = tcp_time_now ();
829   tc->rtt_seq = tc->snd_nxt;
830
831   /* Start retransmit trimer  */
832   tcp_timer_set (tc, TCP_TIMER_RETRANSMIT_SYN, tc->rto * TCP_TO_TIMER_TICK);
833   tc->rto_boff = 0;
834
835   /* Set the connection establishment timer */
836   tcp_timer_set (tc, TCP_TIMER_ESTABLISH, TCP_ESTABLISH_TIME);
837
838   tcp_push_ip_hdr (tm, tc, b);
839   tcp_enqueue_to_ip_lookup (vm, b, bi, tc->c_is_ip4);
840 }
841
842 always_inline void
843 tcp_enqueue_to_output (vlib_main_t * vm, vlib_buffer_t * b, u32 bi, u8 is_ip4)
844 {
845   u32 *to_next, next_index;
846   vlib_frame_t *f;
847
848   b->flags |= VNET_BUFFER_LOCALLY_ORIGINATED;
849   b->error = 0;
850
851   /* Decide where to send the packet */
852   next_index = is_ip4 ? tcp4_output_node.index : tcp6_output_node.index;
853
854   /* Enqueue the packet */
855   f = vlib_get_frame_to_node (vm, next_index);
856   to_next = vlib_frame_vector_args (f);
857   to_next[0] = bi;
858   f->n_vectors = 1;
859   vlib_put_frame_to_node (vm, next_index, f);
860 }
861
862 /**
863  *  Send FIN
864  */
865 void
866 tcp_send_fin (tcp_connection_t * tc)
867 {
868   vlib_buffer_t *b;
869   u32 bi;
870   tcp_main_t *tm = vnet_get_tcp_main ();
871   vlib_main_t *vm = vlib_get_main ();
872
873   tcp_get_free_buffer_index (tm, &bi);
874   b = vlib_get_buffer (vm, bi);
875
876   /* Leave enough space for headers */
877   vlib_buffer_make_headroom (b, MAX_HDRS_LEN);
878
879   tcp_make_fin (tc, b);
880   tcp_enqueue_to_output (vm, b, bi, tc->c_is_ip4);
881   tc->flags |= TCP_CONN_FINSNT;
882   TCP_EVT_DBG (TCP_EVT_FIN_SENT, tc);
883 }
884
885 always_inline u8
886 tcp_make_state_flags (tcp_state_t next_state)
887 {
888   switch (next_state)
889     {
890     case TCP_STATE_ESTABLISHED:
891       return TCP_FLAG_ACK;
892     case TCP_STATE_SYN_RCVD:
893       return TCP_FLAG_SYN | TCP_FLAG_ACK;
894     case TCP_STATE_SYN_SENT:
895       return TCP_FLAG_SYN;
896     case TCP_STATE_LAST_ACK:
897     case TCP_STATE_FIN_WAIT_1:
898       return TCP_FLAG_FIN;
899     default:
900       clib_warning ("Shouldn't be here!");
901     }
902   return 0;
903 }
904
905 /**
906  * Push TCP header and update connection variables
907  */
908 static void
909 tcp_push_hdr_i (tcp_connection_t * tc, vlib_buffer_t * b,
910                 tcp_state_t next_state, u8 compute_opts)
911 {
912   u32 advertise_wnd, data_len;
913   u8 tcp_hdr_opts_len, opts_write_len, flags;
914   tcp_header_t *th;
915
916   data_len = b->current_length + b->total_length_not_including_first_buffer;
917   vnet_buffer (b)->tcp.flags = 0;
918
919   if (compute_opts)
920     tc->snd_opts_len = tcp_make_options (tc, &tc->snd_opts, tc->state);
921
922   /* Write pre-computed options */
923   tcp_hdr_opts_len = tc->snd_opts_len + sizeof (tcp_header_t);
924
925   /* Get rcv window to advertise */
926   advertise_wnd = tcp_window_to_advertise (tc, next_state);
927   flags = tcp_make_state_flags (next_state);
928
929   /* Push header and options */
930   th = vlib_buffer_push_tcp (b, tc->c_lcl_port, tc->c_rmt_port, tc->snd_nxt,
931                              tc->rcv_nxt, tcp_hdr_opts_len, flags,
932                              advertise_wnd);
933
934   opts_write_len = tcp_options_write ((u8 *) (th + 1), &tc->snd_opts);
935
936   ASSERT (opts_write_len == tc->snd_opts_len);
937
938   /* Tag the buffer with the connection index  */
939   vnet_buffer (b)->tcp.connection_index = tc->c_c_index;
940
941   tc->snd_nxt += data_len;
942   tc->rcv_las = tc->rcv_nxt;
943
944   /* TODO this is updated in output as well ... */
945   if (tc->snd_nxt > tc->snd_una_max)
946     tc->snd_una_max = tc->snd_nxt;
947
948   if (tc->rtt_ts == 0)
949     {
950       tc->rtt_ts = tcp_time_now ();
951       tc->rtt_seq = tc->snd_nxt;
952     }
953   TCP_EVT_DBG (TCP_EVT_PKTIZE, tc);
954 }
955
956 void
957 tcp_send_ack (tcp_connection_t * tc)
958 {
959   tcp_main_t *tm = vnet_get_tcp_main ();
960   vlib_main_t *vm = vlib_get_main ();
961
962   vlib_buffer_t *b;
963   u32 bi;
964
965   /* Get buffer */
966   tcp_get_free_buffer_index (tm, &bi);
967   b = vlib_get_buffer (vm, bi);
968
969   /* Fill in the ACK */
970   tcp_make_ack (tc, b);
971   tcp_enqueue_to_output (vm, b, bi, tc->c_is_ip4);
972 }
973
974 /* Send delayed ACK when timer expires */
975 void
976 tcp_timer_delack_handler (u32 index)
977 {
978   u32 thread_index = vlib_get_thread_index ();
979   tcp_connection_t *tc;
980
981   tc = tcp_connection_get (index, thread_index);
982   tc->timers[TCP_TIMER_DELACK] = TCP_TIMER_HANDLE_INVALID;
983   tcp_send_ack (tc);
984 }
985
986 /** Build a retransmit segment
987  *
988  * @return the number of bytes in the segment or 0 if there's nothing to
989  *         retransmit
990  * */
991 u32
992 tcp_prepare_retransmit_segment (tcp_connection_t * tc, vlib_buffer_t * b,
993                                 u32 offset, u32 max_bytes)
994 {
995   vlib_main_t *vm = vlib_get_main ();
996   u32 n_bytes = 0;
997
998   tcp_reuse_buffer (vm, b);
999
1000   ASSERT (tc->state >= TCP_STATE_ESTABLISHED);
1001   ASSERT (max_bytes != 0);
1002
1003   max_bytes = clib_min (tc->snd_mss, max_bytes);
1004
1005   /* Start is beyond snd_congestion */
1006   if (seq_geq (tc->snd_una + offset, tc->snd_congestion))
1007     goto done;
1008
1009   /* Don't overshoot snd_congestion */
1010   if (seq_gt (tc->snd_nxt + max_bytes, tc->snd_congestion))
1011     {
1012       max_bytes = tc->snd_congestion - tc->snd_nxt;
1013       if (max_bytes == 0)
1014         goto done;
1015     }
1016
1017   tc->snd_opts_len = tcp_make_options (tc, &tc->snd_opts, tc->state);
1018
1019   ASSERT (max_bytes <= tc->snd_mss);
1020
1021   n_bytes = stream_session_peek_bytes (&tc->connection,
1022                                        vlib_buffer_get_current (b), offset,
1023                                        max_bytes);
1024   ASSERT (n_bytes != 0);
1025   b->current_length = n_bytes;
1026   tcp_push_hdr_i (tc, b, tc->state, 0);
1027
1028   /* Don't count multiple retransmits of the same segment */
1029   if (tc->rto_boff > 1)
1030     goto done;
1031
1032   tc->rtx_bytes += n_bytes;
1033
1034 done:
1035   TCP_EVT_DBG (TCP_EVT_CC_RTX, tc, offset, n_bytes);
1036   return n_bytes;
1037 }
1038
1039 /**
1040  * Reset congestion control, switch cwnd to loss window and try again.
1041  */
1042 static void
1043 tcp_rtx_timeout_cc (tcp_connection_t * tc)
1044 {
1045   /* Cleanly recover cc (also clears up fast retransmit) */
1046   if (tcp_in_fastrecovery (tc))
1047     {
1048       tcp_cc_recover (tc);
1049     }
1050   else
1051     {
1052       tc->ssthresh = clib_max (tcp_flight_size (tc) / 2, 2 * tc->snd_mss);
1053     }
1054
1055   /* Start again from the beginning */
1056
1057   tc->cwnd = tcp_loss_wnd (tc);
1058   tc->snd_congestion = tc->snd_una_max;
1059   tcp_recovery_on (tc);
1060 }
1061
1062 static void
1063 tcp_timer_retransmit_handler_i (u32 index, u8 is_syn)
1064 {
1065   tcp_main_t *tm = vnet_get_tcp_main ();
1066   vlib_main_t *vm = vlib_get_main ();
1067   u32 thread_index = vlib_get_thread_index ();
1068   tcp_connection_t *tc;
1069   vlib_buffer_t *b;
1070   u32 bi, n_bytes;
1071
1072   if (is_syn)
1073     {
1074       tc = tcp_half_open_connection_get (index);
1075     }
1076   else
1077     {
1078       tc = tcp_connection_get (index, thread_index);
1079     }
1080
1081   /* Make sure timer handle is set to invalid */
1082   tc->timers[TCP_TIMER_RETRANSMIT] = TCP_TIMER_HANDLE_INVALID;
1083
1084   /* Increment RTO backoff (also equal to number of retries) */
1085   tc->rto_boff += 1;
1086
1087   /* Go back to first un-acked byte */
1088   tc->snd_nxt = tc->snd_una;
1089
1090   /* Get buffer */
1091   tcp_get_free_buffer_index (tm, &bi);
1092   b = vlib_get_buffer (vm, bi);
1093
1094   if (tc->state >= TCP_STATE_ESTABLISHED)
1095     {
1096       /* First retransmit timeout */
1097       if (tc->rto_boff == 1)
1098         tcp_rtx_timeout_cc (tc);
1099
1100       /* Exponential backoff */
1101       tc->rto = clib_min (tc->rto << 1, TCP_RTO_MAX);
1102
1103       TCP_EVT_DBG (TCP_EVT_CC_EVT, tc, 1);
1104
1105       /* Send one segment. No fancy recovery for now! */
1106       n_bytes = tcp_prepare_retransmit_segment (tc, b, 0, tc->snd_mss);
1107       scoreboard_clear (&tc->sack_sb);
1108
1109       if (n_bytes == 0)
1110         {
1111           clib_warning ("could not retransmit anything");
1112           /* Try again eventually */
1113           tcp_retransmit_timer_set (tc);
1114           return;
1115         }
1116     }
1117   else
1118     {
1119       /* Retransmit for SYN/SYNACK */
1120       ASSERT (tc->state == TCP_STATE_SYN_RCVD
1121               || tc->state == TCP_STATE_SYN_SENT);
1122
1123       /* Try without increasing RTO a number of times. If this fails,
1124        * start growing RTO exponentially */
1125       if (tc->rto_boff > TCP_RTO_SYN_RETRIES)
1126         tc->rto = clib_min (tc->rto << 1, TCP_RTO_MAX);
1127
1128       vlib_buffer_make_headroom (b, MAX_HDRS_LEN);
1129
1130       tcp_push_hdr_i (tc, b, tc->state, 1);
1131
1132       /* Account for the SYN */
1133       tc->snd_nxt += 1;
1134     }
1135
1136   if (!is_syn)
1137     {
1138       tcp_enqueue_to_output (vm, b, bi, tc->c_is_ip4);
1139
1140       /* Re-enable retransmit timer */
1141       tcp_retransmit_timer_set (tc);
1142     }
1143   else
1144     {
1145       ASSERT (tc->state == TCP_STATE_SYN_SENT);
1146
1147       TCP_EVT_DBG (TCP_EVT_SYN_RTX, tc);
1148
1149       /* This goes straight to ipx_lookup */
1150       tcp_push_ip_hdr (tm, tc, b);
1151       tcp_enqueue_to_ip_lookup (vm, b, bi, tc->c_is_ip4);
1152
1153       /* Re-enable retransmit timer */
1154       tcp_timer_set (tc, TCP_TIMER_RETRANSMIT_SYN,
1155                      tc->rto * TCP_TO_TIMER_TICK);
1156     }
1157 }
1158
1159 void
1160 tcp_timer_retransmit_handler (u32 index)
1161 {
1162   tcp_timer_retransmit_handler_i (index, 0);
1163 }
1164
1165 void
1166 tcp_timer_retransmit_syn_handler (u32 index)
1167 {
1168   tcp_timer_retransmit_handler_i (index, 1);
1169 }
1170
1171 /**
1172  * Got 0 snd_wnd from peer, try to do something about it.
1173  *
1174  */
1175 void
1176 tcp_timer_persist_handler (u32 index)
1177 {
1178   tcp_main_t *tm = vnet_get_tcp_main ();
1179   vlib_main_t *vm = vlib_get_main ();
1180   u32 thread_index = vlib_get_thread_index ();
1181   tcp_connection_t *tc;
1182   vlib_buffer_t *b;
1183   u32 bi, n_bytes;
1184
1185   tc = tcp_connection_get_if_valid (index, thread_index);
1186
1187   if (!tc)
1188     return;
1189
1190   /* Make sure timer handle is set to invalid */
1191   tc->timers[TCP_TIMER_PERSIST] = TCP_TIMER_HANDLE_INVALID;
1192
1193   /* Problem already solved or worse */
1194   if (tc->state == TCP_STATE_CLOSED
1195       || tc->snd_wnd > tc->snd_mss || tcp_in_recovery (tc))
1196     return;
1197
1198   /* Increment RTO backoff */
1199   tc->rto_boff += 1;
1200   tc->rto = clib_min (tc->rto << 1, TCP_RTO_MAX);
1201
1202   /* Try to force the first unsent segment  */
1203   tcp_get_free_buffer_index (tm, &bi);
1204   b = vlib_get_buffer (vm, bi);
1205   tc->snd_opts_len = tcp_make_options (tc, &tc->snd_opts, tc->state);
1206   n_bytes = stream_session_peek_bytes (&tc->connection,
1207                                        vlib_buffer_get_current (b),
1208                                        tc->snd_una_max - tc->snd_una,
1209                                        tc->snd_mss);
1210   /* Nothing to send */
1211   if (n_bytes == 0)
1212     {
1213       clib_warning ("persist found nothing to send");
1214       tcp_return_buffer (tm);
1215       return;
1216     }
1217
1218   b->current_length = n_bytes;
1219   tcp_push_hdr_i (tc, b, tc->state, 0);
1220   tcp_enqueue_to_output (vm, b, bi, tc->c_is_ip4);
1221
1222   /* Re-enable persist timer */
1223   tcp_persist_timer_set (tc);
1224 }
1225
1226 /**
1227  * Retransmit first unacked segment
1228  */
1229 void
1230 tcp_retransmit_first_unacked (tcp_connection_t * tc)
1231 {
1232   tcp_main_t *tm = vnet_get_tcp_main ();
1233   vlib_main_t *vm = vlib_get_main ();
1234   vlib_buffer_t *b;
1235   u32 bi, n_bytes;
1236
1237   tc->snd_nxt = tc->snd_una;
1238
1239   /* Get buffer */
1240   tcp_get_free_buffer_index (tm, &bi);
1241   b = vlib_get_buffer (vm, bi);
1242
1243   TCP_EVT_DBG (TCP_EVT_CC_EVT, tc, 2);
1244
1245   n_bytes = tcp_prepare_retransmit_segment (tc, b, 0, tc->snd_mss);
1246   if (n_bytes == 0)
1247     goto done;
1248
1249   tcp_enqueue_to_output (vm, b, bi, tc->c_is_ip4);
1250
1251 done:
1252   tc->snd_nxt = tc->snd_una_max;
1253 }
1254
1255 sack_scoreboard_hole_t *
1256 scoreboard_first_rtx_hole (sack_scoreboard_t * sb)
1257 {
1258   sack_scoreboard_hole_t *hole = 0;
1259
1260 //  hole = scoreboard_first_hole (&tc->sack_sb);
1261 //  if (hole)
1262 //    {
1263 //
1264 //      offset = hole->start - tc->snd_una;
1265 //      hole_size = hole->end - hole->start;
1266 //
1267 //      ASSERT(hole_size);
1268 //
1269 //      if (hole_size < max_bytes)
1270 //      max_bytes = hole_size;
1271 //    }
1272   return hole;
1273 }
1274
1275 /**
1276  * Do fast retransmit.
1277  */
1278 void
1279 tcp_fast_retransmit (tcp_connection_t * tc)
1280 {
1281   tcp_main_t *tm = vnet_get_tcp_main ();
1282   vlib_main_t *vm = vlib_get_main ();
1283   u32 bi;
1284   int snd_space;
1285   u32 n_written = 0, offset = 0;
1286   vlib_buffer_t *b;
1287   u8 use_sacks = 0;
1288
1289   ASSERT (tcp_in_fastrecovery (tc));
1290
1291   /* Start resending from first un-acked segment */
1292   tc->snd_nxt = tc->snd_una;
1293
1294   snd_space = tcp_available_snd_space (tc);
1295   TCP_EVT_DBG (TCP_EVT_CC_EVT, tc, 0);
1296
1297   /* If we have SACKs use them */
1298   if (tcp_opts_sack_permitted (&tc->opt)
1299       && scoreboard_first_hole (&tc->sack_sb))
1300     use_sacks = 0;
1301
1302   while (snd_space > 0)
1303     {
1304       tcp_get_free_buffer_index (tm, &bi);
1305       b = vlib_get_buffer (vm, bi);
1306
1307       if (use_sacks)
1308         {
1309           scoreboard_first_rtx_hole (&tc->sack_sb);
1310         }
1311       else
1312         {
1313           offset += n_written;
1314         }
1315
1316       n_written = tcp_prepare_retransmit_segment (tc, b, offset, snd_space);
1317
1318       /* Nothing left to retransmit */
1319       if (n_written == 0)
1320         {
1321           tcp_return_buffer (tm);
1322           break;
1323         }
1324
1325       tcp_enqueue_to_output (vm, b, bi, tc->c_is_ip4);
1326       snd_space -= n_written;
1327     }
1328
1329   /* If window allows, send 1 SMSS of new data */
1330   if (seq_lt (tc->snd_nxt, tc->snd_congestion))
1331     tc->snd_nxt = tc->snd_congestion;
1332 }
1333
1334 always_inline u32
1335 tcp_session_has_ooo_data (tcp_connection_t * tc)
1336 {
1337   stream_session_t *s =
1338     stream_session_get (tc->c_s_index, tc->c_thread_index);
1339   return svm_fifo_has_ooo_data (s->server_rx_fifo);
1340 }
1341
1342 always_inline uword
1343 tcp46_output_inline (vlib_main_t * vm,
1344                      vlib_node_runtime_t * node,
1345                      vlib_frame_t * from_frame, int is_ip4)
1346 {
1347   u32 n_left_from, next_index, *from, *to_next;
1348   u32 my_thread_index = vm->thread_index;
1349
1350   from = vlib_frame_vector_args (from_frame);
1351   n_left_from = from_frame->n_vectors;
1352
1353   next_index = node->cached_next_index;
1354
1355   while (n_left_from > 0)
1356     {
1357       u32 n_left_to_next;
1358
1359       vlib_get_next_frame (vm, node, next_index, to_next, n_left_to_next);
1360
1361       while (n_left_from > 0 && n_left_to_next > 0)
1362         {
1363           u32 bi0;
1364           vlib_buffer_t *b0;
1365           tcp_connection_t *tc0;
1366           tcp_tx_trace_t *t0;
1367           tcp_header_t *th0 = 0;
1368           u32 error0 = TCP_ERROR_PKTS_SENT, next0 = TCP_OUTPUT_NEXT_IP_LOOKUP;
1369
1370           bi0 = from[0];
1371           to_next[0] = bi0;
1372           from += 1;
1373           to_next += 1;
1374           n_left_from -= 1;
1375           n_left_to_next -= 1;
1376
1377           b0 = vlib_get_buffer (vm, bi0);
1378           tc0 = tcp_connection_get (vnet_buffer (b0)->tcp.connection_index,
1379                                     my_thread_index);
1380           if (PREDICT_FALSE (tc0 == 0 || tc0->state == TCP_STATE_CLOSED))
1381             {
1382               error0 = TCP_ERROR_INVALID_CONNECTION;
1383               next0 = TCP_OUTPUT_NEXT_DROP;
1384               goto done;
1385             }
1386
1387           th0 = vlib_buffer_get_current (b0);
1388           TCP_EVT_DBG (TCP_EVT_OUTPUT, tc0, th0->flags, b0->current_length);
1389
1390           if (is_ip4)
1391             {
1392               ip4_header_t *ih0;
1393               ih0 = vlib_buffer_push_ip4 (vm, b0, &tc0->c_lcl_ip4,
1394                                           &tc0->c_rmt_ip4, IP_PROTOCOL_TCP);
1395               th0->checksum = ip4_tcp_udp_compute_checksum (vm, b0, ih0);
1396             }
1397           else
1398             {
1399               ip6_header_t *ih0;
1400               int bogus = ~0;
1401
1402               ih0 = vlib_buffer_push_ip6 (vm, b0, &tc0->c_lcl_ip6,
1403                                           &tc0->c_rmt_ip6, IP_PROTOCOL_TCP);
1404               th0->checksum = ip6_tcp_udp_icmp_compute_checksum (vm, b0, ih0,
1405                                                                  &bogus);
1406               ASSERT (!bogus);
1407             }
1408
1409           /* Filter out DUPACKs if there are no OOO segments left */
1410           if (PREDICT_FALSE
1411               (vnet_buffer (b0)->tcp.flags & TCP_BUF_FLAG_DUPACK))
1412             {
1413               if (!tcp_session_has_ooo_data (tc0))
1414                 {
1415                   error0 = TCP_ERROR_FILTERED_DUPACKS;
1416                   next0 = TCP_OUTPUT_NEXT_DROP;
1417                   goto done;
1418                 }
1419             }
1420
1421           /* Stop DELACK timer and fix flags */
1422           tc0->flags &= ~(TCP_CONN_SNDACK);
1423           if (tcp_timer_is_active (tc0, TCP_TIMER_DELACK))
1424             {
1425               tcp_timer_reset (tc0, TCP_TIMER_DELACK);
1426             }
1427
1428           /* If not retransmitting
1429            * 1) update snd_una_max (SYN, SYNACK, FIN)
1430            * 2) If we're not tracking an ACK, start tracking */
1431           if (seq_lt (tc0->snd_una_max, tc0->snd_nxt))
1432             {
1433               tc0->snd_una_max = tc0->snd_nxt;
1434               if (tc0->rtt_ts == 0)
1435                 {
1436                   tc0->rtt_ts = tcp_time_now ();
1437                   tc0->rtt_seq = tc0->snd_nxt;
1438                 }
1439             }
1440
1441           /* Set the retransmit timer if not set already and not
1442            * doing a pure ACK */
1443           if (!tcp_timer_is_active (tc0, TCP_TIMER_RETRANSMIT)
1444               && tc0->snd_nxt != tc0->snd_una)
1445             {
1446               tcp_retransmit_timer_set (tc0);
1447               tc0->rto_boff = 0;
1448             }
1449
1450           /* set fib index to default and lookup node */
1451           /* XXX network virtualization (vrf/vni) */
1452           vnet_buffer (b0)->sw_if_index[VLIB_RX] = 0;
1453           vnet_buffer (b0)->sw_if_index[VLIB_TX] = (u32) ~ 0;
1454
1455           b0->flags |= VNET_BUFFER_LOCALLY_ORIGINATED;
1456         done:
1457           b0->error = node->errors[error0];
1458           if (PREDICT_FALSE (b0->flags & VLIB_BUFFER_IS_TRACED))
1459             {
1460               t0 = vlib_add_trace (vm, node, b0, sizeof (*t0));
1461               if (th0)
1462                 {
1463                   clib_memcpy (&t0->tcp_header, th0, sizeof (t0->tcp_header));
1464                 }
1465               else
1466                 {
1467                   memset (&t0->tcp_header, 0, sizeof (t0->tcp_header));
1468                 }
1469               clib_memcpy (&t0->tcp_connection, tc0,
1470                            sizeof (t0->tcp_connection));
1471             }
1472
1473           vlib_validate_buffer_enqueue_x1 (vm, node, next_index, to_next,
1474                                            n_left_to_next, bi0, next0);
1475         }
1476
1477       vlib_put_next_frame (vm, node, next_index, n_left_to_next);
1478     }
1479
1480   return from_frame->n_vectors;
1481 }
1482
1483 static uword
1484 tcp4_output (vlib_main_t * vm, vlib_node_runtime_t * node,
1485              vlib_frame_t * from_frame)
1486 {
1487   return tcp46_output_inline (vm, node, from_frame, 1 /* is_ip4 */ );
1488 }
1489
1490 static uword
1491 tcp6_output (vlib_main_t * vm, vlib_node_runtime_t * node,
1492              vlib_frame_t * from_frame)
1493 {
1494   return tcp46_output_inline (vm, node, from_frame, 0 /* is_ip4 */ );
1495 }
1496
1497 /* *INDENT-OFF* */
1498 VLIB_REGISTER_NODE (tcp4_output_node) =
1499 {
1500   .function = tcp4_output,.name = "tcp4-output",
1501     /* Takes a vector of packets. */
1502     .vector_size = sizeof (u32),
1503     .n_errors = TCP_N_ERROR,
1504     .error_strings = tcp_error_strings,
1505     .n_next_nodes = TCP_OUTPUT_N_NEXT,
1506     .next_nodes = {
1507 #define _(s,n) [TCP_OUTPUT_NEXT_##s] = n,
1508     foreach_tcp4_output_next
1509 #undef _
1510     },
1511     .format_buffer = format_tcp_header,
1512     .format_trace = format_tcp_tx_trace,
1513 };
1514 /* *INDENT-ON* */
1515
1516 VLIB_NODE_FUNCTION_MULTIARCH (tcp4_output_node, tcp4_output);
1517
1518 /* *INDENT-OFF* */
1519 VLIB_REGISTER_NODE (tcp6_output_node) =
1520 {
1521   .function = tcp6_output,
1522   .name = "tcp6-output",
1523     /* Takes a vector of packets. */
1524   .vector_size = sizeof (u32),
1525   .n_errors = TCP_N_ERROR,
1526   .error_strings = tcp_error_strings,
1527   .n_next_nodes = TCP_OUTPUT_N_NEXT,
1528   .next_nodes = {
1529 #define _(s,n) [TCP_OUTPUT_NEXT_##s] = n,
1530     foreach_tcp6_output_next
1531 #undef _
1532   },
1533   .format_buffer = format_tcp_header,
1534   .format_trace = format_tcp_tx_trace,
1535 };
1536 /* *INDENT-ON* */
1537
1538 VLIB_NODE_FUNCTION_MULTIARCH (tcp6_output_node, tcp6_output);
1539
1540 u32
1541 tcp_push_header (transport_connection_t * tconn, vlib_buffer_t * b)
1542 {
1543   tcp_connection_t *tc;
1544
1545   tc = (tcp_connection_t *) tconn;
1546   tcp_push_hdr_i (tc, b, TCP_STATE_ESTABLISHED, 0);
1547   return 0;
1548 }
1549
1550 typedef enum _tcp_reset_next
1551 {
1552   TCP_RESET_NEXT_DROP,
1553   TCP_RESET_NEXT_IP_LOOKUP,
1554   TCP_RESET_N_NEXT
1555 } tcp_reset_next_t;
1556
1557 #define foreach_tcp4_reset_next         \
1558   _(DROP, "error-drop")                 \
1559   _(IP_LOOKUP, "ip4-lookup")
1560
1561 #define foreach_tcp6_reset_next         \
1562   _(DROP, "error-drop")                 \
1563   _(IP_LOOKUP, "ip6-lookup")
1564
1565 static uword
1566 tcp46_send_reset_inline (vlib_main_t * vm, vlib_node_runtime_t * node,
1567                          vlib_frame_t * from_frame, u8 is_ip4)
1568 {
1569   u32 n_left_from, next_index, *from, *to_next;
1570   u32 my_thread_index = vm->thread_index;
1571
1572   from = vlib_frame_vector_args (from_frame);
1573   n_left_from = from_frame->n_vectors;
1574
1575   next_index = node->cached_next_index;
1576
1577   while (n_left_from > 0)
1578     {
1579       u32 n_left_to_next;
1580
1581       vlib_get_next_frame (vm, node, next_index, to_next, n_left_to_next);
1582
1583       while (n_left_from > 0 && n_left_to_next > 0)
1584         {
1585           u32 bi0;
1586           vlib_buffer_t *b0;
1587           tcp_tx_trace_t *t0;
1588           tcp_header_t *th0;
1589           u32 error0 = TCP_ERROR_RST_SENT, next0 = TCP_RESET_NEXT_IP_LOOKUP;
1590
1591           bi0 = from[0];
1592           to_next[0] = bi0;
1593           from += 1;
1594           to_next += 1;
1595           n_left_from -= 1;
1596           n_left_to_next -= 1;
1597
1598           b0 = vlib_get_buffer (vm, bi0);
1599
1600           if (tcp_make_reset_in_place (vm, b0, vnet_buffer (b0)->tcp.flags,
1601                                        my_thread_index, is_ip4))
1602             {
1603               error0 = TCP_ERROR_LOOKUP_DROPS;
1604               next0 = TCP_RESET_NEXT_DROP;
1605               goto done;
1606             }
1607
1608           /* Prepare to send to IP lookup */
1609           vnet_buffer (b0)->sw_if_index[VLIB_TX] = 0;
1610           next0 = TCP_RESET_NEXT_IP_LOOKUP;
1611
1612         done:
1613           b0->error = node->errors[error0];
1614           b0->flags |= VNET_BUFFER_LOCALLY_ORIGINATED;
1615           if (PREDICT_FALSE (b0->flags & VLIB_BUFFER_IS_TRACED))
1616             {
1617               th0 = vlib_buffer_get_current (b0);
1618               if (is_ip4)
1619                 th0 = ip4_next_header ((ip4_header_t *) th0);
1620               else
1621                 th0 = ip6_next_header ((ip6_header_t *) th0);
1622               t0 = vlib_add_trace (vm, node, b0, sizeof (*t0));
1623               clib_memcpy (&t0->tcp_header, th0, sizeof (t0->tcp_header));
1624             }
1625
1626           vlib_validate_buffer_enqueue_x1 (vm, node, next_index, to_next,
1627                                            n_left_to_next, bi0, next0);
1628         }
1629       vlib_put_next_frame (vm, node, next_index, n_left_to_next);
1630     }
1631   return from_frame->n_vectors;
1632 }
1633
1634 static uword
1635 tcp4_send_reset (vlib_main_t * vm, vlib_node_runtime_t * node,
1636                  vlib_frame_t * from_frame)
1637 {
1638   return tcp46_send_reset_inline (vm, node, from_frame, 1);
1639 }
1640
1641 static uword
1642 tcp6_send_reset (vlib_main_t * vm, vlib_node_runtime_t * node,
1643                  vlib_frame_t * from_frame)
1644 {
1645   return tcp46_send_reset_inline (vm, node, from_frame, 0);
1646 }
1647
1648 /* *INDENT-OFF* */
1649 VLIB_REGISTER_NODE (tcp4_reset_node) = {
1650   .function = tcp4_send_reset,
1651   .name = "tcp4-reset",
1652   .vector_size = sizeof (u32),
1653   .n_errors = TCP_N_ERROR,
1654   .error_strings = tcp_error_strings,
1655   .n_next_nodes = TCP_RESET_N_NEXT,
1656   .next_nodes = {
1657 #define _(s,n) [TCP_RESET_NEXT_##s] = n,
1658     foreach_tcp4_reset_next
1659 #undef _
1660   },
1661   .format_trace = format_tcp_tx_trace,
1662 };
1663 /* *INDENT-ON* */
1664
1665 VLIB_NODE_FUNCTION_MULTIARCH (tcp4_reset_node, tcp4_send_reset);
1666
1667 /* *INDENT-OFF* */
1668 VLIB_REGISTER_NODE (tcp6_reset_node) = {
1669   .function = tcp6_send_reset,
1670   .name = "tcp6-reset",
1671   .vector_size = sizeof (u32),
1672   .n_errors = TCP_N_ERROR,
1673   .error_strings = tcp_error_strings,
1674   .n_next_nodes = TCP_RESET_N_NEXT,
1675   .next_nodes = {
1676 #define _(s,n) [TCP_RESET_NEXT_##s] = n,
1677     foreach_tcp6_reset_next
1678 #undef _
1679   },
1680   .format_trace = format_tcp_tx_trace,
1681 };
1682 /* *INDENT-ON* */
1683
1684 VLIB_NODE_FUNCTION_MULTIARCH (tcp6_reset_node, tcp6_send_reset);
1685
1686 /*
1687  * fd.io coding-style-patch-verification: ON
1688  *
1689  * Local Variables:
1690  * eval: (c-set-style "gnu")
1691  * End:
1692  */