tcp: dequeue acked only once per burst
[vpp.git] / src / vnet / tcp / tcp.h
index 165659b..480b924 100644 (file)
@@ -120,6 +120,9 @@ extern timer_expiration_handler tcp_timer_retransmit_syn_handler;
   _(FR_1_SMSS, "Sent 1 SMSS")                  \
   _(HALF_OPEN_DONE, "Half-open completed")     \
   _(FINPNDG, "FIN pending")                    \
+  _(FRXT_PENDING, "Fast-retransmit pending")   \
+  _(FRXT_FIRST, "Fast-retransmit first again") \
+  _(DEQ_PENDING, "Pending dequeue acked")      \
 
 typedef enum _tcp_connection_flag_bits
 {
@@ -158,7 +161,7 @@ enum
 };
 
 #define TCP_SCOREBOARD_TRACE (0)
-#define TCP_MAX_SACK_BLOCKS 15 /**< Max number of SACK blocks stored */
+#define TCP_MAX_SACK_BLOCKS 256        /**< Max number of SACK blocks stored */
 #define TCP_INVALID_SACK_HOLE_INDEX ((u32)~0)
 
 typedef struct _scoreboard_trace_elt
@@ -306,6 +309,7 @@ typedef struct _tcp_connection
   u32 prev_ssthresh;   /**< ssthresh before congestion */
   u32 prev_cwnd;       /**< ssthresh before congestion */
   u32 bytes_acked;     /**< Bytes acknowledged by current segment */
+  u32 burst_acked;     /**< Bytes acknowledged in current burst */
   u32 snd_rxt_bytes;   /**< Retransmitted bytes */
   u32 snd_rxt_ts;      /**< Timestamp when first packet is retransmitted */
   u32 tsecr_last_ack;  /**< Timestamp echoed to us in last healthy ACK */
@@ -317,8 +321,9 @@ typedef struct _tcp_connection
   u32 rto_boff;                /**< Index for RTO backoff */
   u32 srtt;            /**< Smoothed RTT */
   u32 rttvar;          /**< Smoothed mean RTT difference. Approximates variance */
-  u32 rtt_ts;          /**< Timestamp for tracked ACK */
   u32 rtt_seq;         /**< Sequence number for tracked ACK */
+  f64 rtt_ts;          /**< Timestamp for tracked ACK */
+  f64 mrtt_us;         /**< High precision mrtt from tracked acks */
 
   u16 mss;             /**< Our max seg size that includes options */
   u32 limited_transmit;        /**< snd_nxt when limited transmit starts */
@@ -345,6 +350,9 @@ struct _tcp_cc_algorithm
 #define tcp_fastrecovery_sent_1_smss(tc) ((tc)->flags & TCP_CONN_FR_1_SMSS)
 #define tcp_fastrecovery_1_smss_on(tc) ((tc)->flags |= TCP_CONN_FR_1_SMSS)
 #define tcp_fastrecovery_1_smss_off(tc) ((tc)->flags &= ~TCP_CONN_FR_1_SMSS)
+#define tcp_fastrecovery_first(tc) ((tc)->flags & TCP_CONN_FRXT_FIRST)
+#define tcp_fastrecovery_first_on(tc) ((tc)->flags |= TCP_CONN_FRXT_FIRST)
+#define tcp_fastrecovery_first_off(tc) ((tc)->flags &= ~TCP_CONN_FRXT_FIRST)
 
 #define tcp_in_cong_recovery(tc) ((tc)->flags &                \
          (TCP_CONN_FAST_RECOVERY | TCP_CONN_RECOVERY))
@@ -354,6 +362,7 @@ tcp_cong_recovery_off (tcp_connection_t * tc)
 {
   tc->flags &= ~(TCP_CONN_FAST_RECOVERY | TCP_CONN_RECOVERY);
   tcp_fastrecovery_1_smss_off (tc);
+  tcp_fastrecovery_first_off (tc);
 }
 
 typedef enum _tcp_error
@@ -379,9 +388,19 @@ typedef struct tcp_worker_ctx_
                                                     output nodes */
   vlib_frame_t *ip_lookup_tx_frames[2];                /**< tx frames for ip 4/6
                                                     lookup nodes */
+  u32 *pending_fast_rxt;                       /**< vector of connections
+                                                    needing fast rxt */
+  u32 *ongoing_fast_rxt;                       /**< vector of connections
+                                                    now doing fast rxt */
+  u32 *postponed_fast_rxt;                     /**< vector of connections
+                                                    that will do fast rxt */
+  u32 *pending_deq_acked;
+  vlib_main_t *vm;                             /**< pointer to vm */
+
     CLIB_CACHE_LINE_ALIGN_MARK (cacheline1);
   u8 cached_opts[40];                          /**< cached 'on the wire'
                                                     options for bursts */
+
 } tcp_worker_ctx_t;
 
 typedef struct _tcp_main
@@ -432,6 +451,9 @@ typedef struct _tcp_main
   u32 last_v6_address_rotor;
   ip6_address_t *ip6_src_addresses;
 
+  /** Enable tx pacing for new connections */
+  u8 tx_pacing;
+
   u8 punt_unknown4;
   u8 punt_unknown6;
 
@@ -451,6 +473,12 @@ vnet_get_tcp_main ()
   return &tcp_main;
 }
 
+always_inline tcp_worker_ctx_t *
+tcp_get_worker (u32 thread_index)
+{
+  return &tcp_main.wrk_ctx[thread_index];
+}
+
 always_inline tcp_header_t *
 tcp_buffer_hdr (vlib_buffer_t * b)
 {
@@ -540,8 +568,11 @@ void tcp_send_fin (tcp_connection_t * tc);
 void tcp_init_mss (tcp_connection_t * tc);
 void tcp_update_burst_snd_vars (tcp_connection_t * tc);
 void tcp_update_rto (tcp_connection_t * tc);
-void tcp_flush_frame_to_output (vlib_main_t * vm, u8 thread_index, u8 is_ip4);
-void tcp_flush_frames_to_output (u8 thread_index);
+void tcp_flush_frame_to_output (tcp_worker_ctx_t * wrk, u8 is_ip4);
+void tcp_flush_frames_to_output (tcp_worker_ctx_t * wrk);
+void tcp_program_fastretransmit (tcp_worker_ctx_t * wrk,
+                                tcp_connection_t * tc);
+void tcp_do_fastretransmits (tcp_worker_ctx_t * wrk);
 
 always_inline u32
 tcp_end_seq (tcp_header_t * th, u32 len)
@@ -659,10 +690,14 @@ tcp_is_lost_fin (tcp_connection_t * tc)
 }
 
 u32 tcp_snd_space (tcp_connection_t * tc);
-void tcp_retransmit_first_unacked (tcp_connection_t * tc);
-void tcp_fast_retransmit_no_sack (tcp_connection_t * tc);
-void tcp_fast_retransmit_sack (tcp_connection_t * tc);
-void tcp_fast_retransmit (tcp_connection_t * tc);
+int tcp_retransmit_first_unacked (tcp_worker_ctx_t * wrk,
+                                 tcp_connection_t * tc);
+int tcp_fast_retransmit_no_sack (tcp_worker_ctx_t * wrk,
+                                tcp_connection_t * tc, u32 burst_size);
+int tcp_fast_retransmit_sack (tcp_worker_ctx_t * wrk, tcp_connection_t * tc,
+                             u32 burst_size);
+int tcp_fast_retransmit (tcp_worker_ctx_t * wrk, tcp_connection_t * tc,
+                        u32 burst_size);
 void tcp_cc_init_congestion (tcp_connection_t * tc);
 void tcp_cc_fastrecovery_exit (tcp_connection_t * tc);
 
@@ -679,19 +714,41 @@ tcp_time_now (void)
 }
 
 always_inline u32
-tcp_set_time_now (u32 thread_index)
+tcp_time_now_w_thread (u32 thread_index)
 {
-  tcp_main.wrk_ctx[thread_index].time_now = clib_cpu_time_now ()
-    * tcp_main.tstamp_ticks_per_clock;
   return tcp_main.wrk_ctx[thread_index].time_now;
 }
 
+always_inline f64
+tcp_time_now_us (u32 thread_index)
+{
+  return transport_time_now (thread_index);
+}
+
+always_inline u32
+tcp_set_time_now (tcp_worker_ctx_t * wrk)
+{
+  wrk->time_now = clib_cpu_time_now () * tcp_main.tstamp_ticks_per_clock;
+  return wrk->time_now;
+}
+
 u32 tcp_push_header (tcp_connection_t * tconn, vlib_buffer_t * b);
 
 void tcp_connection_timers_init (tcp_connection_t * tc);
 void tcp_connection_timers_reset (tcp_connection_t * tc);
 void tcp_init_snd_vars (tcp_connection_t * tc);
 void tcp_connection_init_vars (tcp_connection_t * tc);
+void tcp_connection_tx_pacer_update (tcp_connection_t * tc);
+void tcp_connection_tx_pacer_reset (tcp_connection_t * tc, u32 window,
+                                   u32 start_bucket);
+
+always_inline void
+tcp_cc_rcv_ack (tcp_connection_t * tc)
+{
+  tc->cc_algo->rcv_ack (tc);
+  tc->tsecr_last_ack = tc->rcv_opts.tsecr;
+  tcp_connection_tx_pacer_update (tc);
+}
 
 always_inline void
 tcp_connection_force_ack (tcp_connection_t * tc, vlib_buffer_t * b)