Enable Chelsio T5 support
[vpp.git] / vnet / vnet / devices / dpdk / dpdk.h
1 /*
2  * Copyright (c) 2015 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 #ifndef __included_dpdk_h__
16 #define __included_dpdk_h__
17
18 /* $$$$ We should rename always_inline -> clib_always_inline */
19 #undef always_inline
20
21 #include <rte_config.h>
22
23 #include <rte_common.h>
24 #include <rte_dev.h>
25 #include <rte_log.h>
26 #include <rte_memory.h>
27 #include <rte_memcpy.h>
28 #include <rte_memzone.h>
29 #include <rte_tailq.h>
30 #include <rte_eal.h>
31 #include <rte_per_lcore.h>
32 #include <rte_launch.h>
33 #include <rte_atomic.h>
34 #include <rte_cycles.h>
35 #include <rte_prefetch.h>
36 #include <rte_lcore.h>
37 #include <rte_per_lcore.h>
38 #include <rte_branch_prediction.h>
39 #include <rte_interrupts.h>
40 #include <rte_pci.h>
41 #include <rte_random.h>
42 #include <rte_debug.h>
43 #include <rte_ether.h>
44 #include <rte_ethdev.h>
45 #include <rte_ring.h>
46 #include <rte_mempool.h>
47 #include <rte_mbuf.h>
48 #include <rte_kni.h>
49 #include <rte_virtio_net.h>
50 #include <rte_pci_dev_ids.h>
51 #include <rte_version.h>
52
53 #include <vnet/unix/pcap.h>
54 #include <vnet/devices/virtio/vhost-user.h>
55
56 #if CLIB_DEBUG > 0
57 #define always_inline static inline
58 #else
59 #define always_inline static inline __attribute__ ((__always_inline__))
60 #endif
61
62 #define MBUF_SIZE (2048 + sizeof(struct rte_mbuf) + RTE_PKTMBUF_HEADROOM)
63 #define NB_MBUF   (32<<10)
64
65 vnet_device_class_t dpdk_device_class;
66 vlib_node_registration_t dpdk_input_node;
67 vlib_node_registration_t dpdk_io_input_node;
68 vlib_node_registration_t handoff_dispatch_node;
69
70 typedef enum {
71   VNET_DPDK_DEV_ETH = 1,      /* Standard DPDK PMD driver */
72   VNET_DPDK_DEV_KNI,          /* Kernel NIC Interface */
73   VNET_DPDK_DEV_VHOST_USER,
74   VNET_DPDK_DEV_UNKNOWN,      /* must be last */
75 } dpdk_device_type_t;
76
77 #define foreach_dpdk_pmd          \
78   _ ("rte_nicvf_pmd", THUNDERX)   \
79   _ ("rte_em_pmd", E1000EM)       \
80   _ ("rte_igb_pmd", IGB)          \
81   _ ("rte_igbvf_pmd", IGBVF)      \
82   _ ("rte_ixgbe_pmd", IXGBE)      \
83   _ ("rte_ixgbevf_pmd", IXGBEVF)  \
84   _ ("rte_i40e_pmd", I40E)        \
85   _ ("rte_i40evf_pmd", I40EVF)    \
86   _ ("rte_virtio_pmd", VIRTIO)    \
87   _ ("rte_vice_pmd", VICE)        \
88   _ ("rte_enic_pmd", ENIC)        \
89   _ ("rte_vmxnet3_pmd", VMXNET3)  \
90   _ ("AF_PACKET PMD", AF_PACKET)  \
91   _ ("rte_pmd_fm10k", FM10K)      \
92   _ ("rte_cxgbe_pmd", CXGBE)
93
94 typedef enum {
95   VNET_DPDK_PMD_NONE,
96 #define _(s,f) VNET_DPDK_PMD_##f,
97   foreach_dpdk_pmd
98 #undef _
99 #ifdef NETMAP
100   VNET_DPDK_PMD_NETMAP,
101 #endif
102   VNET_DPDK_PMD_UNKNOWN, /* must be last */
103 } dpdk_pmd_t;
104
105 typedef enum {
106   VNET_DPDK_PORT_TYPE_ETH_1G,
107   VNET_DPDK_PORT_TYPE_ETH_10G,
108   VNET_DPDK_PORT_TYPE_ETH_40G,
109   VNET_DPDK_PORT_TYPE_ETH_SWITCH,
110 #ifdef NETMAP
111   VNET_DPDK_PORT_TYPE_NETMAP,
112 #endif
113   VNET_DPDK_PORT_TYPE_AF_PACKET,
114   VNET_DPDK_PORT_TYPE_UNKNOWN,
115 } dpdk_port_type_t;
116
117 typedef struct {
118   f64 deadline;
119   vlib_frame_t * frame;
120 } dpdk_frame_t;
121
122 #define DPDK_EFD_MAX_DISCARD_RATE 10
123
124 typedef struct {
125   u16 last_burst_sz;
126   u16 max_burst_sz;
127   u32 full_frames_cnt;
128   u32 consec_full_frames_cnt;
129   u32 congestion_cnt;
130   u64 last_poll_time;
131   u64 max_poll_delay;
132   u32 discard_cnt;
133   u32 total_packet_cnt;
134 } dpdk_efd_agent_t;
135
136 typedef struct {
137   int callfd;
138   int kickfd;
139   int errfd;
140   u32 callfd_idx;
141   u32 n_since_last_int;
142   f64 int_deadline;
143 } dpdk_vu_vring;
144
145 typedef struct {
146   u32 is_up;
147   u32 unix_fd;
148   u32 unix_file_index;
149   u32 client_fd;
150   char sock_filename[256];
151   int sock_errno;
152   u8 sock_is_server;
153   u8 active;
154
155   u64 feature_mask;
156   u32 num_vrings;
157   dpdk_vu_vring vrings[2];
158   u64 region_addr[VHOST_MEMORY_MAX_NREGIONS];
159   u32 region_fd[VHOST_MEMORY_MAX_NREGIONS];
160 } dpdk_vu_intf_t;
161
162 typedef void (*dpdk_flowcontrol_callback_t) (vlib_main_t *vm,
163                                              u32 hw_if_index,
164                                              u32 n_packets);
165
166 /*
167  * The header for the tx_vector in dpdk_device_t.
168  * Head and tail are indexes into the tx_vector and are of type
169  * u64 so they never overflow.
170  */
171 typedef struct {
172   u64 tx_head;
173   u64 tx_tail;
174 } tx_ring_hdr_t;
175
176 typedef struct {
177   CLIB_CACHE_LINE_ALIGN_MARK(cacheline0);
178   volatile u32 *lockp;
179
180   /* Instance ID */
181   u32 device_index;
182
183   u32 vlib_hw_if_index;
184   u32 vlib_sw_if_index;
185
186   /* next node index if we decide to steal the rx graph arc */
187   u32 per_interface_next_index;
188
189   /* dpdk rte_mbuf rx and tx vectors, VLIB_FRAME_SIZE */
190   struct rte_mbuf *** tx_vectors; /* one per worker thread */
191   struct rte_mbuf *** rx_vectors;
192
193   /* vector of traced contexts, per device */
194   u32 * d_trace_buffers;
195
196   /* per-worker destination frame queue */
197   dpdk_frame_t * frames;
198
199   dpdk_device_type_t dev_type:8;
200   dpdk_pmd_t pmd:8;
201   i8 cpu_socket;
202
203   u8 admin_up;
204   u8 promisc;
205
206   CLIB_CACHE_LINE_ALIGN_MARK(cacheline1);
207
208   /* PMD related */
209   u16 tx_q_used;
210   u16 rx_q_used;
211   u16 nb_rx_desc;
212   u16 nb_tx_desc;
213   u16 * cpu_socket_id_by_queue;
214   struct rte_eth_conf port_conf;
215   struct rte_eth_txconf tx_conf;
216
217   /* KNI related */
218   struct rte_kni *kni;
219   u8 kni_port_id;
220
221   /* vhost-user related */
222   u32 vu_if_id;
223   struct virtio_net  vu_vhost_dev;
224   u32 vu_is_running;
225   dpdk_vu_intf_t *vu_intf;
226
227   /* af_packet */
228   u8 af_packet_port_id;
229
230   struct rte_eth_link link;
231   f64 time_last_link_update;
232
233   struct rte_eth_stats stats;
234   struct rte_eth_stats last_stats;
235   struct rte_eth_xstats * xstats;
236   f64 time_last_stats_update;
237   dpdk_port_type_t port_type;
238
239   dpdk_efd_agent_t efd_agent;
240 } dpdk_device_t;
241
242 #define MAX_NELTS 32
243 typedef struct {
244   CLIB_CACHE_LINE_ALIGN_MARK(cacheline0);
245   u64 head;
246   u64 head_hint;
247   u64 tail;
248   u32 n_in_use;
249   u32 nelts;
250   u32 written;
251   u32 threshold;
252   i32 n_vectors[MAX_NELTS];
253 } frame_queue_trace_t;
254
255 #define DPDK_TX_RING_SIZE (4 * 1024)
256
257 #define DPDK_STATS_POLL_INTERVAL  10.0
258 #define DPDK_LINK_POLL_INTERVAL   3.0
259
260 typedef struct {
261   CLIB_CACHE_LINE_ALIGN_MARK(cacheline0);
262
263   /* total input packet counter */
264   u64 aggregate_rx_packets;
265 } dpdk_worker_t;
266
267 typedef struct {
268   u32 device;
269   u16 queue_id;
270 } dpdk_device_and_queue_t;
271
272 /* Early-Fast-Discard (EFD) */
273 #define DPDK_EFD_DISABLED                       0
274 #define DPDK_EFD_DISCARD_ENABLED                (1 << 0)
275 #define DPDK_EFD_MONITOR_ENABLED                (1 << 1)
276 #define DPDK_EFD_DROPALL_ENABLED                (1 << 2)
277
278 #define DPDK_EFD_DEFAULT_DEVICE_QUEUE_HI_THRESH_PCT    90
279 #define DPDK_EFD_DEFAULT_CONSEC_FULL_FRAMES_HI_THRESH  6
280
281 typedef struct dpdk_efd_t {
282   u16 enabled;
283   u16 queue_hi_thresh;
284   u16 consec_full_frames_hi_thresh;
285   u16 pad;
286 } dpdk_efd_t;
287
288 typedef struct {
289
290   /* Devices */
291   dpdk_device_t * devices;
292   dpdk_device_and_queue_t ** devices_by_cpu;
293
294   /* per-thread recycle lists */
295   u32 ** recycle;
296
297   /* flow control callback. If 0 then flow control is disabled */
298   dpdk_flowcontrol_callback_t flowcontrol_callback;
299
300   /* vlib buffer free list, must be same size as an rte_mbuf */
301   u32 vlib_buffer_free_list_index;
302
303   /*
304    * format interface names ala xxxEthernet%d/%d/%d instead of
305    * xxxEthernet%x/%x/%x. For VIRL.
306    */
307   u8 interface_name_format_decimal;
308
309
310   /* dpdk worker "threads" */
311   dpdk_worker_t * workers;
312
313   /* Config stuff */
314   u8 ** eal_init_args;
315   u8 * eth_if_blacklist;
316   u8 * eth_if_whitelist;
317   u8 * uio_driver_name;
318   u8 no_multi_seg;
319
320   /* Required config parameters */
321   u8 coremask_set_manually;
322   u8 nchannels_set_manually;
323   u32 coremask;
324   u32 nchannels;
325   u32 num_mbufs;
326   u32 use_rss;
327   u8 num_kni; /* while kni_init allows u32, port_id in callback fn is only u8 */
328
329   /* Ethernet input node index */
330   u32 ethernet_input_node_index;
331
332   /* dpdk i/o thread initialization barrier */
333   volatile u32 io_thread_release;
334
335   /* pcap tracing [only works if (CLIB_DEBUG > 0)] */
336   int tx_pcap_enable;
337   pcap_main_t pcap_main;
338   u8 * pcap_filename;
339   u32 pcap_sw_if_index;
340   u32 pcap_pkts_to_capture;
341
342   /* virtio vhost-user switch */
343   u8 use_virtio_vhost;
344
345   /* vhost-user coalescence frames config */
346   u32 vhost_coalesce_frames;
347   f64 vhost_coalesce_time;
348
349   /* hashes */
350   uword * dpdk_device_by_kni_port_id;
351   uword * vu_sw_if_index_by_listener_fd;
352   uword * vu_sw_if_index_by_sock_fd;
353   u32 * vu_inactive_interfaces_device_index;
354
355   u32 next_vu_if_id;
356
357   /* efd (early-fast-discard) settings */
358   dpdk_efd_t efd;
359
360   /*
361    * flag indicating that a posted admin up/down
362    * (via post_sw_interface_set_flags) is in progress
363    */
364   u8 admin_up_down_in_progress;
365
366   u8 have_io_threads;
367
368   /* which cpus are running dpdk-input */
369   int input_cpu_first_index;
370   int input_cpu_count;
371
372   /* convenience */
373   vlib_main_t * vlib_main;
374   vnet_main_t * vnet_main;
375 } dpdk_main_t;
376
377 dpdk_main_t dpdk_main;
378
379 typedef enum {
380   DPDK_RX_NEXT_IP4_INPUT,
381   DPDK_RX_NEXT_IP6_INPUT,
382   DPDK_RX_NEXT_MPLS_INPUT,
383   DPDK_RX_NEXT_ETHERNET_INPUT,
384   DPDK_RX_NEXT_DROP,
385   DPDK_RX_N_NEXT,
386 } dpdk_rx_next_t;
387
388 void vnet_buffer_needs_dpdk_mb (vlib_buffer_t * b);
389
390 void dpdk_set_next_node (dpdk_rx_next_t, char *);
391
392 typedef void (*dpdk_io_thread_callback_t) (vlib_main_t *vm);
393
394 void dpdk_io_thread (vlib_worker_thread_t * w,
395                      u32 instances,
396                      u32 instance_id,
397                      char *worker_name,
398                      dpdk_io_thread_callback_t callback);
399 void dpdk_thread_input (dpdk_main_t * dm, dpdk_device_t * xd);
400
401 clib_error_t * dpdk_port_setup (dpdk_main_t * dm, dpdk_device_t * xd);
402
403 void dpdk_set_flowcontrol_callback (vlib_main_t *vm, 
404                                     dpdk_flowcontrol_callback_t callback);
405
406 u32 dpdk_interface_tx_vector (vlib_main_t * vm, u32 dev_instance);
407
408 vlib_frame_queue_elt_t * vlib_get_handoff_queue_elt (u32 vlib_worker_index);
409
410 u32 dpdk_get_handoff_node_index (void);
411
412 void set_efd_bitmap (u8 *bitmap, u32 value, u32 op);
413
414 #define foreach_dpdk_error                                              \
415   _(NONE, "no error")                                                   \
416   _(RX_PACKET_ERROR, "Rx packet errors")                                \
417   _(RX_BAD_FCS, "Rx bad fcs")                                           \
418   _(L4_CHECKSUM_ERROR, "Rx L4 checksum errors")                         \
419   _(IP_CHECKSUM_ERROR, "Rx ip checksum errors")                         \
420   _(RX_ALLOC_FAIL, "rx buf alloc from free list failed")                \
421   _(RX_ALLOC_NO_PHYSMEM, "rx buf alloc failed no physmem")              \
422   _(RX_ALLOC_DROP_PKTS, "rx packets dropped due to alloc error")        \
423   _(IPV4_EFD_DROP_PKTS, "IPV4 Early Fast Discard rx drops")             \
424   _(IPV6_EFD_DROP_PKTS, "IPV6 Early Fast Discard rx drops")             \
425   _(MPLS_EFD_DROP_PKTS, "MPLS Early Fast Discard rx drops")             \
426   _(VLAN_EFD_DROP_PKTS, "VLAN Early Fast Discard rx drops")
427
428 typedef enum {
429 #define _(f,s) DPDK_ERROR_##f,
430   foreach_dpdk_error
431 #undef _
432   DPDK_N_ERROR,
433 } dpdk_error_t;
434
435 /*
436  * Increment EFD drop counter
437  */
438 static_always_inline
439 void increment_efd_drop_counter (vlib_main_t * vm, u32 counter_index, u32 count)
440 {
441    vlib_node_t *my_n;
442
443    my_n = vlib_get_node (vm, dpdk_input_node.index);
444    vm->error_main.counters[my_n->error_heap_index+counter_index] += count;
445 }
446
447 void dpdk_update_link_state (dpdk_device_t * xd, f64 now);
448 void dpdk_efd_update_counters(dpdk_device_t *xd, u32 n_buffers, u16 enabled);
449 u32 is_efd_discardable(vlib_thread_main_t *tm,
450                        vlib_buffer_t * b0,
451                        struct rte_mbuf *mb);
452
453 /* dpdk vhost-user interrupt management */
454 u8 dpdk_vhost_user_want_interrupt (dpdk_device_t *xd, int idx);
455 void dpdk_vhost_user_send_interrupt (vlib_main_t * vm, dpdk_device_t * xd,
456                                     int idx);
457
458
459 static inline u64 vnet_get_aggregate_rx_packets (void)
460 {
461     dpdk_main_t * dm = &dpdk_main;
462     u64 sum = 0;
463     dpdk_worker_t * dw;
464
465     vec_foreach(dw, dm->workers)
466         sum += dw->aggregate_rx_packets;
467
468     return sum;
469 }
470
471 void dpdk_rx_trace (dpdk_main_t * dm,
472                     vlib_node_runtime_t * node,
473                     dpdk_device_t * xd,
474                     u16 queue_id,
475                     u32 * buffers,
476                     uword n_buffers);
477
478 #define EFD_OPERATION_LESS_THAN          0
479 #define EFD_OPERATION_GREATER_OR_EQUAL   1
480
481 void efd_config(u32 enabled,
482                 u32 ip_prec,  u32 ip_op,
483                 u32 mpls_exp, u32 mpls_op,
484                 u32 vlan_cos, u32 vlan_op);
485
486 void post_sw_interface_set_flags (vlib_main_t *vm, u32 sw_if_index, u32 flags);
487
488 typedef struct vhost_user_memory vhost_user_memory_t;
489
490 void dpdk_vhost_user_process_init (void **ctx);
491 void dpdk_vhost_user_process_cleanup (void *ctx);
492 uword dpdk_vhost_user_process_if (vlib_main_t *vm, dpdk_device_t *xd, void *ctx);
493
494 // vhost-user calls
495 int dpdk_vhost_user_create_if (vnet_main_t * vnm, vlib_main_t * vm,
496                               const char * sock_filename,
497                               u8 is_server,
498                               u32 * sw_if_index,
499                               u64 feature_mask,
500                               u8 renumber, u32 custom_dev_instance);
501 int dpdk_vhost_user_modify_if (vnet_main_t * vnm, vlib_main_t * vm,
502                               const char * sock_filename,
503                               u8 is_server,
504                               u32 sw_if_index,
505                               u64 feature_mask,
506                               u8 renumber, u32 custom_dev_instance);
507 int dpdk_vhost_user_delete_if (vnet_main_t * vnm, vlib_main_t * vm,
508                               u32 sw_if_index);
509 int dpdk_vhost_user_dump_ifs (vnet_main_t * vnm, vlib_main_t * vm,
510                              vhost_user_intf_details_t **out_vuids);
511
512 u32 dpdk_get_admin_up_down_in_progress (void);
513
514 uword
515 dpdk_input_rss (vlib_main_t * vm, vlib_node_runtime_t * node, vlib_frame_t * f);
516
517 #endif /* __included_dpdk_h__ */