Use rte_mempool private data for storing vlib_buffer_t
[vpp.git] / vnet / vnet / devices / dpdk / dpdk.h
1 /*
2  * Copyright (c) 2015 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 #ifndef __included_dpdk_h__
16 #define __included_dpdk_h__
17
18 /* $$$$ We should rename always_inline -> clib_always_inline */
19 #undef always_inline
20
21 #include <rte_config.h>
22
23 #include <rte_common.h>
24 #include <rte_dev.h>
25 #include <rte_log.h>
26 #include <rte_memory.h>
27 #include <rte_memcpy.h>
28 #include <rte_memzone.h>
29 #include <rte_tailq.h>
30 #include <rte_eal.h>
31 #include <rte_per_lcore.h>
32 #include <rte_launch.h>
33 #include <rte_atomic.h>
34 #include <rte_cycles.h>
35 #include <rte_prefetch.h>
36 #include <rte_lcore.h>
37 #include <rte_per_lcore.h>
38 #include <rte_branch_prediction.h>
39 #include <rte_interrupts.h>
40 #include <rte_pci.h>
41 #include <rte_random.h>
42 #include <rte_debug.h>
43 #include <rte_ether.h>
44 #include <rte_ethdev.h>
45 #include <rte_ring.h>
46 #include <rte_mempool.h>
47 #include <rte_mbuf.h>
48 #ifdef RTE_LIBRTE_KNI
49 #include <rte_kni.h>
50 #endif
51 #include <rte_virtio_net.h>
52 #include <rte_pci_dev_ids.h>
53 #include <rte_version.h>
54 #include <rte_eth_bond.h>
55
56 #include <vnet/unix/pcap.h>
57 #include <vnet/devices/virtio/vhost-user.h>
58
59 #if CLIB_DEBUG > 0
60 #define always_inline static inline
61 #else
62 #define always_inline static inline __attribute__ ((__always_inline__))
63 #endif
64
65 #define NB_MBUF   (32<<10)
66
67 extern vnet_device_class_t dpdk_device_class;
68 extern vlib_node_registration_t dpdk_input_node;
69 extern vlib_node_registration_t dpdk_io_input_node;
70 extern vlib_node_registration_t handoff_dispatch_node;
71
72 typedef enum {
73   VNET_DPDK_DEV_ETH = 1,      /* Standard DPDK PMD driver */
74   VNET_DPDK_DEV_KNI,          /* Kernel NIC Interface */
75   VNET_DPDK_DEV_VHOST_USER,
76   VNET_DPDK_DEV_UNKNOWN,      /* must be last */
77 } dpdk_device_type_t;
78
79 #define foreach_dpdk_pmd          \
80   _ ("rte_nicvf_pmd", THUNDERX)   \
81   _ ("rte_em_pmd", E1000EM)       \
82   _ ("rte_igb_pmd", IGB)          \
83   _ ("rte_igbvf_pmd", IGBVF)      \
84   _ ("rte_ixgbe_pmd", IXGBE)      \
85   _ ("rte_ixgbevf_pmd", IXGBEVF)  \
86   _ ("rte_i40e_pmd", I40E)        \
87   _ ("rte_i40evf_pmd", I40EVF)    \
88   _ ("rte_virtio_pmd", VIRTIO)    \
89   _ ("rte_vice_pmd", VICE)        \
90   _ ("rte_enic_pmd", ENIC)        \
91   _ ("rte_vmxnet3_pmd", VMXNET3)  \
92   _ ("AF_PACKET PMD", AF_PACKET)  \
93   _ ("rte_bond_pmd", BOND)        \
94   _ ("rte_pmd_fm10k", FM10K)      \
95   _ ("rte_cxgbe_pmd", CXGBE)
96
97 typedef enum {
98   VNET_DPDK_PMD_NONE,
99 #define _(s,f) VNET_DPDK_PMD_##f,
100   foreach_dpdk_pmd
101 #undef _
102 #ifdef NETMAP
103   VNET_DPDK_PMD_NETMAP,
104 #endif
105   VNET_DPDK_PMD_UNKNOWN, /* must be last */
106 } dpdk_pmd_t;
107
108 typedef enum {
109   VNET_DPDK_PORT_TYPE_ETH_1G,
110   VNET_DPDK_PORT_TYPE_ETH_10G,
111   VNET_DPDK_PORT_TYPE_ETH_40G,
112   VNET_DPDK_PORT_TYPE_ETH_BOND,
113   VNET_DPDK_PORT_TYPE_ETH_SWITCH,
114 #ifdef NETMAP
115   VNET_DPDK_PORT_TYPE_NETMAP,
116 #endif
117   VNET_DPDK_PORT_TYPE_AF_PACKET,
118   VNET_DPDK_PORT_TYPE_UNKNOWN,
119 } dpdk_port_type_t;
120
121 typedef struct {
122   f64 deadline;
123   vlib_frame_t * frame;
124 } dpdk_frame_t;
125
126 #define DPDK_EFD_MAX_DISCARD_RATE 10
127
128 typedef struct {
129   u16 last_burst_sz;
130   u16 max_burst_sz;
131   u32 full_frames_cnt;
132   u32 consec_full_frames_cnt;
133   u32 congestion_cnt;
134   u64 last_poll_time;
135   u64 max_poll_delay;
136   u32 discard_cnt;
137   u32 total_packet_cnt;
138 } dpdk_efd_agent_t;
139
140 typedef struct {
141   int callfd;
142   int kickfd;
143   int errfd;
144 #if RTE_VERSION >= RTE_VERSION_NUM(2, 2, 0, 0)
145   int enabled;
146 #endif
147   u32 callfd_idx;
148   u32 n_since_last_int;
149   f64 int_deadline;
150   u64 packets;
151   u64 bytes;
152 } dpdk_vu_vring;
153
154 typedef struct {
155   u32 is_up;
156   u32 unix_fd;
157   u32 unix_file_index;
158   u32 client_fd;
159   char sock_filename[256];
160   int sock_errno;
161   u8 sock_is_server;
162   u8 active;
163
164   u64 feature_mask;
165   u32 num_vrings;
166 #if RTE_VERSION >= RTE_VERSION_NUM(2, 2, 0, 0)
167   dpdk_vu_vring vrings[VHOST_MAX_QUEUE_PAIRS * 2];
168 #else
169   dpdk_vu_vring vrings[2];
170 #endif
171   u64 region_addr[VHOST_MEMORY_MAX_NREGIONS];
172   u32 region_fd[VHOST_MEMORY_MAX_NREGIONS];
173 } dpdk_vu_intf_t;
174
175 typedef void (*dpdk_flowcontrol_callback_t) (vlib_main_t *vm,
176                                              u32 hw_if_index,
177                                              u32 n_packets);
178
179 /*
180  * The header for the tx_vector in dpdk_device_t.
181  * Head and tail are indexes into the tx_vector and are of type
182  * u64 so they never overflow.
183  */
184 typedef struct {
185   u64 tx_head;
186   u64 tx_tail;
187 } tx_ring_hdr_t;
188
189 typedef struct {
190   CLIB_CACHE_LINE_ALIGN_MARK(cacheline0);
191   volatile u32 **lockp;
192
193   /* Instance ID */
194   u32 device_index;
195
196   u32 vlib_hw_if_index;
197   u32 vlib_sw_if_index;
198
199   /* next node index if we decide to steal the rx graph arc */
200   u32 per_interface_next_index;
201
202   /* dpdk rte_mbuf rx and tx vectors, VLIB_FRAME_SIZE */
203   struct rte_mbuf *** tx_vectors; /* one per worker thread */
204   struct rte_mbuf *** rx_vectors;
205
206   /* vector of traced contexts, per device */
207   u32 * d_trace_buffers;
208
209   /* per-worker destination frame queue */
210   dpdk_frame_t * frames;
211
212   dpdk_device_type_t dev_type:8;
213   dpdk_pmd_t pmd:8;
214   i8 cpu_socket;
215
216   u8 admin_up;
217   u8 promisc;
218
219   CLIB_CACHE_LINE_ALIGN_MARK(cacheline1);
220
221   /* PMD related */
222   u16 tx_q_used;
223   u16 rx_q_used;
224   u16 nb_rx_desc;
225   u16 nb_tx_desc;
226   u16 * cpu_socket_id_by_queue;
227   struct rte_eth_conf port_conf;
228   struct rte_eth_txconf tx_conf;
229
230   /* KNI related */
231   struct rte_kni *kni;
232   u8 kni_port_id;
233
234   /* vhost-user related */
235   u32 vu_if_id;
236   struct virtio_net  vu_vhost_dev;
237   u32 vu_is_running;
238   dpdk_vu_intf_t *vu_intf;
239
240   /* af_packet */
241   u8 af_packet_port_id;
242
243   struct rte_eth_link link;
244   f64 time_last_link_update;
245
246   struct rte_eth_stats stats;
247   struct rte_eth_stats last_stats;
248   struct rte_eth_xstats * xstats;
249   f64 time_last_stats_update;
250   dpdk_port_type_t port_type;
251
252   dpdk_efd_agent_t efd_agent;
253   u8 need_txlock; /* Used by VNET_DPDK_DEV_VHOST_USER */
254 } dpdk_device_t;
255
256 #define MAX_NELTS 32
257 typedef struct {
258   CLIB_CACHE_LINE_ALIGN_MARK(cacheline0);
259   u64 head;
260   u64 head_hint;
261   u64 tail;
262   u32 n_in_use;
263   u32 nelts;
264   u32 written;
265   u32 threshold;
266   i32 n_vectors[MAX_NELTS];
267 } frame_queue_trace_t;
268
269 #define DPDK_TX_RING_SIZE (4 * 1024)
270
271 #define DPDK_STATS_POLL_INTERVAL      (10.0)
272 #define DPDK_MIN_STATS_POLL_INTERVAL  (0.001) /* 1msec */
273
274 #define DPDK_LINK_POLL_INTERVAL       (3.0)
275 #define DPDK_MIN_LINK_POLL_INTERVAL   (0.001) /* 1msec */
276
277 typedef struct {
278   CLIB_CACHE_LINE_ALIGN_MARK(cacheline0);
279
280   /* total input packet counter */
281   u64 aggregate_rx_packets;
282 } dpdk_worker_t;
283
284 typedef struct {
285   u32 device;
286   u16 queue_id;
287 } dpdk_device_and_queue_t;
288
289 /* Early-Fast-Discard (EFD) */
290 #define DPDK_EFD_DISABLED                       0
291 #define DPDK_EFD_DISCARD_ENABLED                (1 << 0)
292 #define DPDK_EFD_MONITOR_ENABLED                (1 << 1)
293 #define DPDK_EFD_DROPALL_ENABLED                (1 << 2)
294
295 #define DPDK_EFD_DEFAULT_DEVICE_QUEUE_HI_THRESH_PCT    90
296 #define DPDK_EFD_DEFAULT_CONSEC_FULL_FRAMES_HI_THRESH  6
297
298 typedef struct dpdk_efd_t {
299   u16 enabled;
300   u16 queue_hi_thresh;
301   u16 consec_full_frames_hi_thresh;
302   u16 pad;
303 } dpdk_efd_t;
304
305 typedef struct {
306
307   /* Devices */
308   dpdk_device_t * devices;
309   dpdk_device_and_queue_t ** devices_by_cpu;
310
311   /* per-thread recycle lists */
312   u32 ** recycle;
313
314   /* buffer flags template, configurable to enable/disable tcp / udp cksum */
315   u32 buffer_flags_template;
316
317   /* flow control callback. If 0 then flow control is disabled */
318   dpdk_flowcontrol_callback_t flowcontrol_callback;
319
320   /* vlib buffer free list, must be same size as an rte_mbuf */
321   u32 vlib_buffer_free_list_index;
322
323   /*
324    * format interface names ala xxxEthernet%d/%d/%d instead of
325    * xxxEthernet%x/%x/%x. For VIRL.
326    */
327   u8 interface_name_format_decimal;
328
329
330   /* dpdk worker "threads" */
331   dpdk_worker_t * workers;
332
333   /* Config stuff */
334   u8 ** eal_init_args;
335   u8 * eal_init_args_str;
336   u8 * eth_if_blacklist;
337   u8 * eth_if_whitelist;
338   u8 * uio_driver_name;
339   u8 no_multi_seg;
340
341   /* Required config parameters */
342   u8 coremask_set_manually;
343   u8 nchannels_set_manually;
344   u32 coremask;
345   u32 nchannels;
346   u32 num_mbufs;
347   u32 use_rss;
348   u32 max_tx_queues;
349   u8 num_kni; /* while kni_init allows u32, port_id in callback fn is only u8 */
350
351   /* Ethernet input node index */
352   u32 ethernet_input_node_index;
353
354   /* dpdk i/o thread initialization barrier */
355   volatile u32 io_thread_release;
356
357   /* pcap tracing [only works if (CLIB_DEBUG > 0)] */
358   int tx_pcap_enable;
359   pcap_main_t pcap_main;
360   u8 * pcap_filename;
361   u32 pcap_sw_if_index;
362   u32 pcap_pkts_to_capture;
363
364   /* virtio vhost-user switch */
365   u8 use_virtio_vhost;
366
367   /* vhost-user coalescence frames config */
368   u32 vhost_coalesce_frames;
369   f64 vhost_coalesce_time;
370
371   /* hashes */
372   uword * dpdk_device_by_kni_port_id;
373   uword * vu_sw_if_index_by_listener_fd;
374   uword * vu_sw_if_index_by_sock_fd;
375   u32 * vu_inactive_interfaces_device_index;
376
377   u32 next_vu_if_id;
378
379   /* efd (early-fast-discard) settings */
380   dpdk_efd_t efd;
381
382   /*
383    * flag indicating that a posted admin up/down
384    * (via post_sw_interface_set_flags) is in progress
385    */
386   u8 admin_up_down_in_progress;
387
388   u8 have_io_threads;
389
390   /* which cpus are running dpdk-input */
391   int input_cpu_first_index;
392   int input_cpu_count;
393
394   /* control interval of dpdk link state and stat polling */
395   f64 link_state_poll_interval;
396   f64 stat_poll_interval;
397
398   /* convenience */
399   vlib_main_t * vlib_main;
400   vnet_main_t * vnet_main;
401 } dpdk_main_t;
402
403 dpdk_main_t dpdk_main;
404
405 typedef enum {
406   DPDK_RX_NEXT_IP4_INPUT,
407   DPDK_RX_NEXT_IP6_INPUT,
408   DPDK_RX_NEXT_MPLS_INPUT,
409   DPDK_RX_NEXT_ETHERNET_INPUT,
410   DPDK_RX_NEXT_DROP,
411   DPDK_RX_N_NEXT,
412 } dpdk_rx_next_t;
413
414 typedef struct {
415   u32 buffer_index;
416   u16 device_index;
417   u8 queue_index;
418   struct rte_mbuf mb;
419   /* Copy of VLIB buffer; packet data stored in pre_data. */
420   vlib_buffer_t buffer;
421 } dpdk_tx_dma_trace_t;
422
423 typedef struct {
424   u32 buffer_index;
425   u16 device_index;
426   u16 queue_index;
427   struct rte_mbuf mb;
428   vlib_buffer_t buffer; /* Copy of VLIB buffer; pkt data stored in pre_data. */
429 } dpdk_rx_dma_trace_t;
430
431 void vnet_buffer_needs_dpdk_mb (vlib_buffer_t * b);
432
433 void dpdk_set_next_node (dpdk_rx_next_t, char *);
434
435 clib_error_t * dpdk_set_mac_address (vnet_hw_interface_t * hi, char * address);
436
437 clib_error_t * dpdk_set_mc_filter (vnet_hw_interface_t * hi,
438                                    struct ether_addr mc_addr_vec[], int naddr);
439
440 typedef void (*dpdk_io_thread_callback_t) (vlib_main_t *vm);
441
442 void dpdk_io_thread (vlib_worker_thread_t * w,
443                      u32 instances,
444                      u32 instance_id,
445                      char *worker_name,
446                      dpdk_io_thread_callback_t callback);
447 void dpdk_thread_input (dpdk_main_t * dm, dpdk_device_t * xd);
448
449 clib_error_t * dpdk_port_setup (dpdk_main_t * dm, dpdk_device_t * xd);
450
451 void dpdk_set_flowcontrol_callback (vlib_main_t *vm, 
452                                     dpdk_flowcontrol_callback_t callback);
453
454 u32 dpdk_interface_tx_vector (vlib_main_t * vm, u32 dev_instance);
455
456 vlib_frame_queue_elt_t * vlib_get_handoff_queue_elt (u32 vlib_worker_index);
457
458 u32 dpdk_get_handoff_node_index (void);
459
460 void set_efd_bitmap (u8 *bitmap, u32 value, u32 op);
461
462 #define foreach_dpdk_error                                              \
463   _(NONE, "no error")                                                   \
464   _(RX_PACKET_ERROR, "Rx packet errors")                                \
465   _(RX_BAD_FCS, "Rx bad fcs")                                           \
466   _(L4_CHECKSUM_ERROR, "Rx L4 checksum errors")                         \
467   _(IP_CHECKSUM_ERROR, "Rx ip checksum errors")                         \
468   _(RX_ALLOC_FAIL, "rx buf alloc from free list failed")                \
469   _(RX_ALLOC_NO_PHYSMEM, "rx buf alloc failed no physmem")              \
470   _(RX_ALLOC_DROP_PKTS, "rx packets dropped due to alloc error")        \
471   _(IPV4_EFD_DROP_PKTS, "IPV4 Early Fast Discard rx drops")             \
472   _(IPV6_EFD_DROP_PKTS, "IPV6 Early Fast Discard rx drops")             \
473   _(MPLS_EFD_DROP_PKTS, "MPLS Early Fast Discard rx drops")             \
474   _(VLAN_EFD_DROP_PKTS, "VLAN Early Fast Discard rx drops")
475
476 typedef enum {
477 #define _(f,s) DPDK_ERROR_##f,
478   foreach_dpdk_error
479 #undef _
480   DPDK_N_ERROR,
481 } dpdk_error_t;
482
483 /*
484  * Increment EFD drop counter
485  */
486 static_always_inline
487 void increment_efd_drop_counter (vlib_main_t * vm, u32 counter_index, u32 count)
488 {
489    vlib_node_t *my_n;
490
491    my_n = vlib_get_node (vm, dpdk_input_node.index);
492    vm->error_main.counters[my_n->error_heap_index+counter_index] += count;
493 }
494
495 int dpdk_set_stat_poll_interval (f64 interval);
496 int dpdk_set_link_state_poll_interval (f64 interval);
497 void dpdk_update_link_state (dpdk_device_t * xd, f64 now);
498 void dpdk_device_lock_init(dpdk_device_t * xd);
499 void dpdk_device_lock_free(dpdk_device_t * xd);
500 void dpdk_efd_update_counters(dpdk_device_t *xd, u32 n_buffers, u16 enabled);
501 u32 is_efd_discardable(vlib_thread_main_t *tm,
502                        vlib_buffer_t * b0,
503                        struct rte_mbuf *mb);
504
505 /* dpdk vhost-user interrupt management */
506 u8 dpdk_vhost_user_want_interrupt (dpdk_device_t *xd, int idx);
507 void dpdk_vhost_user_send_interrupt (vlib_main_t * vm, dpdk_device_t * xd,
508                                     int idx);
509
510
511 static inline u64 vnet_get_aggregate_rx_packets (void)
512 {
513     dpdk_main_t * dm = &dpdk_main;
514     u64 sum = 0;
515     dpdk_worker_t * dw;
516
517     vec_foreach(dw, dm->workers)
518         sum += dw->aggregate_rx_packets;
519
520     return sum;
521 }
522
523 void dpdk_rx_trace (dpdk_main_t * dm,
524                     vlib_node_runtime_t * node,
525                     dpdk_device_t * xd,
526                     u16 queue_id,
527                     u32 * buffers,
528                     uword n_buffers);
529
530 #define EFD_OPERATION_LESS_THAN          0
531 #define EFD_OPERATION_GREATER_OR_EQUAL   1
532
533 void efd_config(u32 enabled,
534                 u32 ip_prec,  u32 ip_op,
535                 u32 mpls_exp, u32 mpls_op,
536                 u32 vlan_cos, u32 vlan_op);
537
538 void post_sw_interface_set_flags (vlib_main_t *vm, u32 sw_if_index, u32 flags);
539
540 typedef struct vhost_user_memory vhost_user_memory_t;
541
542 void dpdk_vhost_user_process_init (void **ctx);
543 void dpdk_vhost_user_process_cleanup (void *ctx);
544 uword dpdk_vhost_user_process_if (vlib_main_t *vm, dpdk_device_t *xd, void *ctx);
545
546 // vhost-user calls
547 int dpdk_vhost_user_create_if (vnet_main_t * vnm, vlib_main_t * vm,
548                               const char * sock_filename,
549                               u8 is_server,
550                               u32 * sw_if_index,
551                               u64 feature_mask,
552                               u8 renumber, u32 custom_dev_instance,
553                               u8 *hwaddr);
554 int dpdk_vhost_user_modify_if (vnet_main_t * vnm, vlib_main_t * vm,
555                               const char * sock_filename,
556                               u8 is_server,
557                               u32 sw_if_index,
558                               u64 feature_mask,
559                               u8 renumber, u32 custom_dev_instance);
560 int dpdk_vhost_user_delete_if (vnet_main_t * vnm, vlib_main_t * vm,
561                               u32 sw_if_index);
562 int dpdk_vhost_user_dump_ifs (vnet_main_t * vnm, vlib_main_t * vm,
563                              vhost_user_intf_details_t **out_vuids);
564
565 u32 dpdk_get_admin_up_down_in_progress (void);
566
567 uword
568 dpdk_input_rss (vlib_main_t * vm, vlib_node_runtime_t * node, vlib_frame_t * f);
569
570 format_function_t format_dpdk_device_name;
571 format_function_t format_dpdk_device;
572 format_function_t format_dpdk_tx_dma_trace;
573 format_function_t format_dpdk_rx_dma_trace;
574 format_function_t format_dpdk_rte_mbuf;
575 format_function_t format_dpdk_rx_rte_mbuf;
576 unformat_function_t unformat_socket_mem;
577
578 #endif /* __included_dpdk_h__ */