tcp: time infra improvements
[vpp.git] / src / vnet / tcp / tcp_inlines.h
1 /*
2  * Copyright (c) 2020 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 #ifndef SRC_VNET_TCP_TCP_INLINES_H_
17 #define SRC_VNET_TCP_TCP_INLINES_H_
18
19 #include <vnet/tcp/tcp.h>
20
21 always_inline tcp_header_t *
22 tcp_buffer_hdr (vlib_buffer_t * b)
23 {
24   ASSERT ((signed) b->current_data >= (signed) -VLIB_BUFFER_PRE_DATA_SIZE);
25   return (tcp_header_t *) (b->data + b->current_data
26                            + vnet_buffer (b)->tcp.hdr_offset);
27 }
28
29 always_inline tcp_connection_t *
30 tcp_connection_get (u32 conn_index, u32 thread_index)
31 {
32   tcp_worker_ctx_t *wrk = tcp_get_worker (thread_index);
33   if (PREDICT_FALSE (pool_is_free_index (wrk->connections, conn_index)))
34     return 0;
35   return pool_elt_at_index (wrk->connections, conn_index);
36 }
37
38 always_inline tcp_connection_t *
39 tcp_connection_get_if_valid (u32 conn_index, u32 thread_index)
40 {
41   tcp_worker_ctx_t *wrk;
42   if (thread_index >= vec_len (tcp_main.wrk_ctx))
43     return 0;
44   wrk = tcp_get_worker (thread_index);
45   if (pool_is_free_index (wrk->connections, conn_index))
46     return 0;
47   return pool_elt_at_index (wrk->connections, conn_index);
48 }
49
50 always_inline void
51 tcp_connection_set_state (tcp_connection_t * tc, tcp_state_t state)
52 {
53   tc->state = state;
54   TCP_EVT (TCP_EVT_STATE_CHANGE, tc);
55 }
56
57 always_inline tcp_connection_t *
58 tcp_listener_get (u32 tli)
59 {
60   tcp_connection_t *tc = 0;
61   if (!pool_is_free_index (tcp_main.listener_pool, tli))
62     tc = pool_elt_at_index (tcp_main.listener_pool, tli);
63   return tc;
64 }
65
66 always_inline tcp_connection_t *
67 tcp_half_open_connection_get (u32 conn_index)
68 {
69   tcp_connection_t *tc = 0;
70   clib_spinlock_lock_if_init (&tcp_main.half_open_lock);
71   if (!pool_is_free_index (tcp_main.half_open_connections, conn_index))
72     tc = pool_elt_at_index (tcp_main.half_open_connections, conn_index);
73   clib_spinlock_unlock_if_init (&tcp_main.half_open_lock);
74   return tc;
75 }
76
77 /**
78  * Our estimate of the number of bytes that have left the network
79  */
80 always_inline u32
81 tcp_bytes_out (const tcp_connection_t * tc)
82 {
83   if (tcp_opts_sack_permitted (&tc->rcv_opts))
84     return tc->sack_sb.sacked_bytes + tc->sack_sb.lost_bytes;
85   else
86     return clib_min (tc->rcv_dupacks * tc->snd_mss,
87                      tc->snd_nxt - tc->snd_una);
88 }
89
90 /**
91  * Our estimate of the number of bytes in flight (pipe size)
92  */
93 always_inline u32
94 tcp_flight_size (const tcp_connection_t * tc)
95 {
96   int flight_size;
97
98   flight_size = (int) (tc->snd_nxt - tc->snd_una) - tcp_bytes_out (tc)
99     + tc->snd_rxt_bytes - tc->rxt_delivered;
100
101   ASSERT (flight_size >= 0);
102
103   return flight_size;
104 }
105
106 /**
107  * Initial cwnd as per RFC5681
108  */
109 always_inline u32
110 tcp_initial_cwnd (const tcp_connection_t * tc)
111 {
112   if (tcp_cfg.initial_cwnd_multiplier > 0)
113     return tcp_cfg.initial_cwnd_multiplier * tc->snd_mss;
114
115   if (tc->snd_mss > 2190)
116     return 2 * tc->snd_mss;
117   else if (tc->snd_mss > 1095)
118     return 3 * tc->snd_mss;
119   else
120     return 4 * tc->snd_mss;
121 }
122
123 /*
124  * Accumulate acked bytes for cwnd increase
125  *
126  * Once threshold bytes are accumulated, snd_mss bytes are added
127  * to the cwnd.
128  */
129 always_inline void
130 tcp_cwnd_accumulate (tcp_connection_t * tc, u32 thresh, u32 bytes)
131 {
132   tc->cwnd_acc_bytes += bytes;
133   if (tc->cwnd_acc_bytes >= thresh)
134     {
135       u32 inc = tc->cwnd_acc_bytes / thresh;
136       tc->cwnd_acc_bytes -= inc * thresh;
137       tc->cwnd += inc * tc->snd_mss;
138       tc->cwnd = clib_min (tc->cwnd, tc->tx_fifo_size);
139     }
140 }
141
142 always_inline u32
143 tcp_loss_wnd (const tcp_connection_t * tc)
144 {
145   /* Whatever we have in flight + the packet we're about to send */
146   return tcp_flight_size (tc) + tc->snd_mss;
147 }
148
149 always_inline u32
150 tcp_available_snd_wnd (const tcp_connection_t * tc)
151 {
152   return clib_min (tc->cwnd, tc->snd_wnd);
153 }
154
155 always_inline u32
156 tcp_available_output_snd_space (const tcp_connection_t * tc)
157 {
158   u32 available_wnd = tcp_available_snd_wnd (tc);
159   int flight_size = (int) (tc->snd_nxt - tc->snd_una);
160
161   if (available_wnd <= flight_size)
162     return 0;
163
164   return available_wnd - flight_size;
165 }
166
167 /**
168  * Estimate of how many bytes we can still push into the network
169  */
170 always_inline u32
171 tcp_available_cc_snd_space (const tcp_connection_t * tc)
172 {
173   u32 available_wnd = tcp_available_snd_wnd (tc);
174   u32 flight_size = tcp_flight_size (tc);
175
176   if (available_wnd <= flight_size)
177     return 0;
178
179   return available_wnd - flight_size;
180 }
181
182 always_inline u8
183 tcp_is_lost_fin (tcp_connection_t * tc)
184 {
185   if ((tc->flags & TCP_CONN_FINSNT) && (tc->snd_nxt - tc->snd_una == 1))
186     return 1;
187   return 0;
188 }
189
190 /**
191  * Time used to generate timestamps, not the timestamp
192  */
193 always_inline u32
194 tcp_time_tstamp (u32 thread_index)
195 {
196   return tcp_main.wrk_ctx[thread_index].time_tstamp;
197 }
198
199 /**
200  * Generate timestamp for tcp connection
201  */
202 always_inline u32
203 tcp_tstamp (tcp_connection_t * tc)
204 {
205   return (tcp_main.wrk_ctx[tc->c_thread_index].time_tstamp -
206           tc->timestamp_delta);
207 }
208
209 always_inline f64
210 tcp_time_now_us (u32 thread_index)
211 {
212   return tcp_main.wrk_ctx[thread_index].time_us;
213 }
214
215 always_inline void
216 tcp_set_time_now (tcp_worker_ctx_t *wrk, f64 now)
217 {
218   /* TCP internal cache of time reference. Could use @ref transport_time_now
219    * but because @ref tcp_time_now_us is used per packet, caching might
220    * slightly improve efficiency. */
221   wrk->time_us = now;
222   wrk->time_tstamp = (u64) (now * TCP_TSTP_HZ);
223 }
224
225 always_inline void
226 tcp_update_time_now (tcp_worker_ctx_t *wrk)
227 {
228   f64 now = vlib_time_now (wrk->vm);
229
230   /* Both pacer and tcp us time need to be updated */
231   transport_update_pacer_time (wrk->vm->thread_index, now);
232   tcp_set_time_now (wrk, now);
233 }
234
235 always_inline tcp_connection_t *
236 tcp_input_lookup_buffer (vlib_buffer_t * b, u8 thread_index, u32 * error,
237                          u8 is_ip4, u8 is_nolookup)
238 {
239   u32 fib_index = vnet_buffer (b)->ip.fib_index;
240   int n_advance_bytes, n_data_bytes;
241   transport_connection_t *tc;
242   tcp_header_t *tcp;
243   u8 result = 0;
244
245   if (is_ip4)
246     {
247       ip4_header_t *ip4 = vlib_buffer_get_current (b);
248       int ip_hdr_bytes = ip4_header_bytes (ip4);
249       if (PREDICT_FALSE (b->current_length < ip_hdr_bytes + sizeof (*tcp)))
250         {
251           *error = TCP_ERROR_LENGTH;
252           return 0;
253         }
254       tcp = ip4_next_header (ip4);
255       vnet_buffer (b)->tcp.hdr_offset = (u8 *) tcp - (u8 *) ip4;
256       n_advance_bytes = (ip_hdr_bytes + tcp_header_bytes (tcp));
257       n_data_bytes = clib_net_to_host_u16 (ip4->length) - n_advance_bytes;
258
259       /* Length check. Checksum computed by ipx_local no need to compute again */
260       if (PREDICT_FALSE (n_data_bytes < 0))
261         {
262           *error = TCP_ERROR_LENGTH;
263           return 0;
264         }
265
266       if (!is_nolookup)
267         tc = session_lookup_connection_wt4 (fib_index, &ip4->dst_address,
268                                             &ip4->src_address, tcp->dst_port,
269                                             tcp->src_port,
270                                             TRANSPORT_PROTO_TCP, thread_index,
271                                             &result);
272     }
273   else
274     {
275       ip6_header_t *ip6 = vlib_buffer_get_current (b);
276       if (PREDICT_FALSE (b->current_length < sizeof (*ip6) + sizeof (*tcp)))
277         {
278           *error = TCP_ERROR_LENGTH;
279           return 0;
280         }
281       tcp = ip6_next_header (ip6);
282       vnet_buffer (b)->tcp.hdr_offset = (u8 *) tcp - (u8 *) ip6;
283       n_advance_bytes = tcp_header_bytes (tcp);
284       n_data_bytes = clib_net_to_host_u16 (ip6->payload_length)
285         - n_advance_bytes;
286       n_advance_bytes += sizeof (ip6[0]);
287
288       if (PREDICT_FALSE (n_data_bytes < 0))
289         {
290           *error = TCP_ERROR_LENGTH;
291           return 0;
292         }
293
294       if (!is_nolookup)
295         {
296           if (PREDICT_FALSE
297               (ip6_address_is_link_local_unicast (&ip6->dst_address)))
298             {
299               ip6_main_t *im = &ip6_main;
300               fib_index = vec_elt (im->fib_index_by_sw_if_index,
301                                    vnet_buffer (b)->sw_if_index[VLIB_RX]);
302             }
303
304           tc = session_lookup_connection_wt6 (fib_index, &ip6->dst_address,
305                                               &ip6->src_address,
306                                               tcp->dst_port, tcp->src_port,
307                                               TRANSPORT_PROTO_TCP,
308                                               thread_index, &result);
309         }
310     }
311
312   if (is_nolookup)
313     tc =
314       (transport_connection_t *) tcp_connection_get (vnet_buffer (b)->
315                                                      tcp.connection_index,
316                                                      thread_index);
317
318   vnet_buffer (b)->tcp.seq_number = clib_net_to_host_u32 (tcp->seq_number);
319   vnet_buffer (b)->tcp.ack_number = clib_net_to_host_u32 (tcp->ack_number);
320   vnet_buffer (b)->tcp.data_offset = n_advance_bytes;
321   vnet_buffer (b)->tcp.data_len = n_data_bytes;
322   vnet_buffer (b)->tcp.seq_end = vnet_buffer (b)->tcp.seq_number
323     + n_data_bytes;
324
325   *error = result ? TCP_ERROR_NONE + result : *error;
326
327   return tcp_get_connection_from_transport (tc);
328 }
329
330 /**
331  * Initialize connection by gleaning network and rcv params from buffer
332  *
333  * @param tc            connection to initialize
334  * @param b             buffer whose current data is pointing at ip
335  * @param is_ip4        flag set to 1 if using ip4
336  */
337 always_inline void
338 tcp_init_w_buffer (tcp_connection_t * tc, vlib_buffer_t * b, u8 is_ip4)
339 {
340   tcp_header_t *th = tcp_buffer_hdr (b);
341
342   tc->c_lcl_port = th->dst_port;
343   tc->c_rmt_port = th->src_port;
344   tc->c_is_ip4 = is_ip4;
345
346   if (is_ip4)
347     {
348       ip4_header_t *ip4 = vlib_buffer_get_current (b);
349       tc->c_lcl_ip4.as_u32 = ip4->dst_address.as_u32;
350       tc->c_rmt_ip4.as_u32 = ip4->src_address.as_u32;
351     }
352   else
353     {
354       ip6_header_t *ip6 = vlib_buffer_get_current (b);
355       clib_memcpy_fast (&tc->c_lcl_ip6, &ip6->dst_address,
356                         sizeof (ip6_address_t));
357       clib_memcpy_fast (&tc->c_rmt_ip6, &ip6->src_address,
358                         sizeof (ip6_address_t));
359     }
360
361   tc->irs = vnet_buffer (b)->tcp.seq_number;
362   tc->rcv_nxt = vnet_buffer (b)->tcp.seq_number + 1;
363   tc->rcv_las = tc->rcv_nxt;
364   tc->sw_if_index = vnet_buffer (b)->sw_if_index[VLIB_RX];
365   tc->snd_wl1 = vnet_buffer (b)->tcp.seq_number;
366   tc->snd_wl2 = vnet_buffer (b)->tcp.ack_number;
367
368   /* RFC1323: TSval timestamps sent on {SYN} and {SYN,ACK}
369    * segments are used to initialize PAWS. */
370   if (tcp_opts_tstamp (&tc->rcv_opts))
371     {
372       tc->tsval_recent = tc->rcv_opts.tsval;
373       tc->tsval_recent_age = tcp_time_tstamp (tc->c_thread_index);
374     }
375
376   if (tcp_opts_wscale (&tc->rcv_opts))
377     tc->snd_wscale = tc->rcv_opts.wscale;
378
379   tc->snd_wnd = clib_net_to_host_u16 (th->window) << tc->snd_wscale;
380 }
381
382 always_inline void
383 tcp_update_rto (tcp_connection_t * tc)
384 {
385   tc->rto = clib_min (tc->srtt + (tc->rttvar << 2), TCP_RTO_MAX);
386   tc->rto = clib_max (tc->rto, TCP_RTO_MIN);
387 }
388
389 always_inline u8
390 tcp_is_descheduled (tcp_connection_t * tc)
391 {
392   return (transport_connection_is_descheduled (&tc->connection) ? 1 : 0);
393 }
394
395 /**
396  * Push TCP header to buffer
397  *
398  * @param vm - vlib_main
399  * @param b - buffer to write the header to
400  * @param sp_net - source port net order
401  * @param dp_net - destination port net order
402  * @param seq - sequence number net order
403  * @param ack - ack number net order
404  * @param tcp_hdr_opts_len - header and options length in bytes
405  * @param flags - header flags
406  * @param wnd - window size
407  *
408  * @return - pointer to start of TCP header
409  */
410 always_inline void *
411 vlib_buffer_push_tcp_net_order (vlib_buffer_t * b, u16 sp, u16 dp, u32 seq,
412                                 u32 ack, u8 tcp_hdr_opts_len, u8 flags,
413                                 u16 wnd)
414 {
415   tcp_header_t *th;
416
417   th = vlib_buffer_push_uninit (b, tcp_hdr_opts_len);
418
419   th->src_port = sp;
420   th->dst_port = dp;
421   th->seq_number = seq;
422   th->ack_number = ack;
423   th->data_offset_and_reserved = (tcp_hdr_opts_len >> 2) << 4;
424   th->flags = flags;
425   th->window = wnd;
426   th->checksum = 0;
427   th->urgent_pointer = 0;
428   vnet_buffer (b)->l4_hdr_offset = (u8 *) th - b->data;
429   b->flags |= VNET_BUFFER_F_L4_HDR_OFFSET_VALID;
430   return th;
431 }
432
433 /**
434  * Push TCP header to buffer
435  *
436  * @param b - buffer to write the header to
437  * @param sp_net - source port net order
438  * @param dp_net - destination port net order
439  * @param seq - sequence number host order
440  * @param ack - ack number host order
441  * @param tcp_hdr_opts_len - header and options length in bytes
442  * @param flags - header flags
443  * @param wnd - window size
444  *
445  * @return - pointer to start of TCP header
446  */
447 always_inline void *
448 vlib_buffer_push_tcp (vlib_buffer_t * b, u16 sp_net, u16 dp_net, u32 seq,
449                       u32 ack, u8 tcp_hdr_opts_len, u8 flags, u16 wnd)
450 {
451   return vlib_buffer_push_tcp_net_order (b, sp_net, dp_net,
452                                          clib_host_to_net_u32 (seq),
453                                          clib_host_to_net_u32 (ack),
454                                          tcp_hdr_opts_len, flags,
455                                          clib_host_to_net_u16 (wnd));
456 }
457
458 #endif /* SRC_VNET_TCP_TCP_INLINES_H_ */
459
460 /*
461  * fd.io coding-style-patch-verification: ON
462  *
463  * Local Variables:
464  * eval: (c-set-style "gnu")
465  * End:
466  */