VPP-363: add ability to change mac address of the interface
[vpp.git] / vnet / vnet / devices / dpdk / dpdk.h
1 /*
2  * Copyright (c) 2015 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 #ifndef __included_dpdk_h__
16 #define __included_dpdk_h__
17
18 /* $$$$ We should rename always_inline -> clib_always_inline */
19 #undef always_inline
20
21 #include <rte_config.h>
22
23 #include <rte_common.h>
24 #include <rte_dev.h>
25 #include <rte_log.h>
26 #include <rte_memory.h>
27 #include <rte_memzone.h>
28 #include <rte_tailq.h>
29 #include <rte_eal.h>
30 #include <rte_per_lcore.h>
31 #include <rte_launch.h>
32 #include <rte_atomic.h>
33 #include <rte_cycles.h>
34 #include <rte_prefetch.h>
35 #include <rte_lcore.h>
36 #include <rte_per_lcore.h>
37 #include <rte_branch_prediction.h>
38 #include <rte_interrupts.h>
39 #include <rte_pci.h>
40 #include <rte_random.h>
41 #include <rte_debug.h>
42 #include <rte_ether.h>
43 #include <rte_ethdev.h>
44 #include <rte_ring.h>
45 #include <rte_mempool.h>
46 #include <rte_mbuf.h>
47 #ifdef RTE_LIBRTE_KNI
48 #include <rte_kni.h>
49 #endif
50 #include <rte_virtio_net.h>
51 #include <rte_pci_dev_ids.h>
52 #include <rte_version.h>
53 #include <rte_eth_bond.h>
54 #include <rte_sched.h>
55
56 #include <vnet/unix/pcap.h>
57 #include <vnet/devices/virtio/vhost-user.h>
58
59 #if CLIB_DEBUG > 0
60 #define always_inline static inline
61 #else
62 #define always_inline static inline __attribute__ ((__always_inline__))
63 #endif
64
65 #if RTE_VERSION < RTE_VERSION_NUM(16, 7, 0, 0)
66 #define DPDK_VHOST_USER 1
67 #else
68 #define DPDK_VHOST_USER 0
69 #endif
70
71 #include <vlib/pci/pci.h>
72
73 #define NB_MBUF   (16<<10)
74
75 extern vnet_device_class_t dpdk_device_class;
76 extern vlib_node_registration_t dpdk_input_node;
77 extern vlib_node_registration_t handoff_dispatch_node;
78
79 #define foreach_dpdk_pmd          \
80   _ ("rte_nicvf_pmd", THUNDERX)   \
81   _ ("rte_em_pmd", E1000EM)       \
82   _ ("rte_igb_pmd", IGB)          \
83   _ ("rte_igbvf_pmd", IGBVF)      \
84   _ ("rte_ixgbe_pmd", IXGBE)      \
85   _ ("rte_ixgbevf_pmd", IXGBEVF)  \
86   _ ("rte_i40e_pmd", I40E)        \
87   _ ("rte_i40evf_pmd", I40EVF)    \
88   _ ("rte_virtio_pmd", VIRTIO)    \
89   _ ("rte_enic_pmd", ENIC)        \
90   _ ("rte_vmxnet3_pmd", VMXNET3)  \
91   _ ("AF_PACKET PMD", AF_PACKET)  \
92   _ ("rte_bond_pmd", BOND)        \
93   _ ("rte_pmd_fm10k", FM10K)      \
94   _ ("rte_cxgbe_pmd", CXGBE)      \
95   _ ("rte_dpaa2_dpni", DPAA2)
96
97 typedef enum
98 {
99   VNET_DPDK_PMD_NONE,
100 #define _(s,f) VNET_DPDK_PMD_##f,
101   foreach_dpdk_pmd
102 #undef _
103     VNET_DPDK_PMD_UNKNOWN,      /* must be last */
104 } dpdk_pmd_t;
105
106 typedef enum
107 {
108   VNET_DPDK_PORT_TYPE_ETH_1G,
109   VNET_DPDK_PORT_TYPE_ETH_10G,
110   VNET_DPDK_PORT_TYPE_ETH_40G,
111   VNET_DPDK_PORT_TYPE_ETH_BOND,
112   VNET_DPDK_PORT_TYPE_ETH_SWITCH,
113   VNET_DPDK_PORT_TYPE_AF_PACKET,
114   VNET_DPDK_PORT_TYPE_UNKNOWN,
115 } dpdk_port_type_t;
116
117 typedef struct
118 {
119   f64 deadline;
120   vlib_frame_t *frame;
121 } dpdk_frame_t;
122
123 #define DPDK_EFD_MAX_DISCARD_RATE 10
124
125 typedef struct
126 {
127   u16 last_burst_sz;
128   u16 max_burst_sz;
129   u32 full_frames_cnt;
130   u32 consec_full_frames_cnt;
131   u32 congestion_cnt;
132   u64 last_poll_time;
133   u64 max_poll_delay;
134   u32 discard_cnt;
135   u32 total_packet_cnt;
136 } dpdk_efd_agent_t;
137
138 #if DPDK_VHOST_USER
139 typedef struct
140 {
141   int callfd;
142   int kickfd;
143   int errfd;
144   int enabled;
145   u32 callfd_idx;
146   u32 n_since_last_int;
147   f64 int_deadline;
148   u64 packets;
149   u64 bytes;
150 } dpdk_vu_vring;
151
152 typedef struct
153 {
154   u32 is_up;
155   u32 unix_fd;
156   u32 unix_file_index;
157   u32 client_fd;
158   char sock_filename[256];
159   int sock_errno;
160   u8 sock_is_server;
161   u8 active;
162
163   u64 feature_mask;
164   u32 num_vrings;
165   dpdk_vu_vring vrings[VHOST_MAX_QUEUE_PAIRS * 2];
166   u64 region_addr[VHOST_MEMORY_MAX_NREGIONS];
167   u32 region_fd[VHOST_MEMORY_MAX_NREGIONS];
168   u64 region_offset[VHOST_MEMORY_MAX_NREGIONS];
169 } dpdk_vu_intf_t;
170 #endif
171
172 typedef void (*dpdk_flowcontrol_callback_t) (vlib_main_t * vm,
173                                              u32 hw_if_index, u32 n_packets);
174
175 /*
176  * The header for the tx_vector in dpdk_device_t.
177  * Head and tail are indexes into the tx_vector and are of type
178  * u64 so they never overflow.
179  */
180 typedef struct
181 {
182   u64 tx_head;
183   u64 tx_tail;
184 } tx_ring_hdr_t;
185
186 typedef struct
187 {
188   struct rte_ring *swq;
189
190   u64 hqos_field0_slabmask;
191   u32 hqos_field0_slabpos;
192   u32 hqos_field0_slabshr;
193   u64 hqos_field1_slabmask;
194   u32 hqos_field1_slabpos;
195   u32 hqos_field1_slabshr;
196   u64 hqos_field2_slabmask;
197   u32 hqos_field2_slabpos;
198   u32 hqos_field2_slabshr;
199   u32 hqos_tc_table[64];
200 } dpdk_device_hqos_per_worker_thread_t;
201
202 typedef struct
203 {
204   struct rte_ring **swq;
205   struct rte_mbuf **pkts_enq;
206   struct rte_mbuf **pkts_deq;
207   struct rte_sched_port *hqos;
208   u32 hqos_burst_enq;
209   u32 hqos_burst_deq;
210   u32 pkts_enq_len;
211   u32 swq_pos;
212 } dpdk_device_hqos_per_hqos_thread_t;
213
214 typedef struct
215 {
216   CLIB_CACHE_LINE_ALIGN_MARK (cacheline0);
217   volatile u32 **lockp;
218
219   /* Instance ID */
220   u32 device_index;
221
222   u32 vlib_hw_if_index;
223   u32 vlib_sw_if_index;
224
225   /* next node index if we decide to steal the rx graph arc */
226   u32 per_interface_next_index;
227
228   /* dpdk rte_mbuf rx and tx vectors, VLIB_FRAME_SIZE */
229   struct rte_mbuf ***tx_vectors;        /* one per worker thread */
230   struct rte_mbuf ***rx_vectors;
231
232   /* vector of traced contexts, per device */
233   u32 *d_trace_buffers;
234
235   dpdk_pmd_t pmd:8;
236   i8 cpu_socket;
237
238   u16 flags;
239 #define DPDK_DEVICE_FLAG_ADMIN_UP       (1 << 0)
240 #define DPDK_DEVICE_FLAG_PROMISC        (1 << 1)
241 #define DPDK_DEVICE_FLAG_PMD            (1 << 2)
242 #define DPDK_DEVICE_FLAG_KNI            (1 << 3)
243 #define DPDK_DEVICE_FLAG_VHOST_USER     (1 << 4)
244 #define DPDK_DEVICE_FLAG_HAVE_SUBIF     (1 << 5)
245 #define DPDK_DEVICE_FLAG_HQOS           (1 << 6)
246
247   u16 nb_tx_desc;
248     CLIB_CACHE_LINE_ALIGN_MARK (cacheline1);
249
250   u8 *interface_name_suffix;
251
252   /* number of sub-interfaces */
253   u16 num_subifs;
254
255   /* PMD related */
256   u16 tx_q_used;
257   u16 rx_q_used;
258   u16 nb_rx_desc;
259   u16 *cpu_socket_id_by_queue;
260   struct rte_eth_conf port_conf;
261   struct rte_eth_txconf tx_conf;
262
263   /* HQoS related */
264   dpdk_device_hqos_per_worker_thread_t *hqos_wt;
265   dpdk_device_hqos_per_hqos_thread_t *hqos_ht;
266
267   /* KNI related */
268   struct rte_kni *kni;
269   u8 kni_port_id;
270
271 #if DPDK_VHOST_USER
272   /* vhost-user related */
273   u32 vu_if_id;
274   struct virtio_net vu_vhost_dev;
275   u32 vu_is_running;
276   dpdk_vu_intf_t *vu_intf;
277 #endif
278
279   /* af_packet */
280   u8 af_packet_port_id;
281
282   struct rte_eth_link link;
283   f64 time_last_link_update;
284
285   struct rte_eth_stats stats;
286   struct rte_eth_stats last_stats;
287   struct rte_eth_stats last_cleared_stats;
288 #if RTE_VERSION >= RTE_VERSION_NUM(16, 7, 0, 0)
289   struct rte_eth_xstat *xstats;
290   struct rte_eth_xstat *last_cleared_xstats;
291 #else
292   struct rte_eth_xstats *xstats;
293   struct rte_eth_xstats *last_cleared_xstats;
294 #endif
295   f64 time_last_stats_update;
296   dpdk_port_type_t port_type;
297
298   dpdk_efd_agent_t efd_agent;
299   u8 need_txlock;               /* Used by VNET_DPDK_DEV_VHOST_USER */
300 } dpdk_device_t;
301
302 #define DPDK_STATS_POLL_INTERVAL      (10.0)
303 #define DPDK_MIN_STATS_POLL_INTERVAL  (0.001)   /* 1msec */
304
305 #define DPDK_LINK_POLL_INTERVAL       (3.0)
306 #define DPDK_MIN_LINK_POLL_INTERVAL   (0.001)   /* 1msec */
307
308 typedef struct
309 {
310   CLIB_CACHE_LINE_ALIGN_MARK (cacheline0);
311
312   /* total input packet counter */
313   u64 aggregate_rx_packets;
314 } dpdk_worker_t;
315
316 typedef struct
317 {
318   CLIB_CACHE_LINE_ALIGN_MARK (cacheline0);
319
320   /* total input packet counter */
321   u64 aggregate_rx_packets;
322 } dpdk_hqos_thread_t;
323
324 typedef struct
325 {
326   u32 device;
327   u16 queue_id;
328 } dpdk_device_and_queue_t;
329
330 /* Early-Fast-Discard (EFD) */
331 #define DPDK_EFD_DISABLED                       0
332 #define DPDK_EFD_DISCARD_ENABLED                (1 << 0)
333 #define DPDK_EFD_MONITOR_ENABLED                (1 << 1)
334 #define DPDK_EFD_DROPALL_ENABLED                (1 << 2)
335
336 #define DPDK_EFD_DEFAULT_DEVICE_QUEUE_HI_THRESH_PCT    90
337 #define DPDK_EFD_DEFAULT_CONSEC_FULL_FRAMES_HI_THRESH  6
338
339 typedef struct dpdk_efd_t
340 {
341   u16 enabled;
342   u16 queue_hi_thresh;
343   u16 consec_full_frames_hi_thresh;
344   u16 pad;
345 } dpdk_efd_t;
346
347 #ifndef DPDK_HQOS_DBG_BYPASS
348 #define DPDK_HQOS_DBG_BYPASS 0
349 #endif
350
351 typedef struct dpdk_device_config_hqos_t
352 {
353   u32 hqos_thread;
354   u32 hqos_thread_valid;
355
356   u32 swq_size;
357   u32 burst_enq;
358   u32 burst_deq;
359
360   u32 pktfield0_slabpos;
361   u32 pktfield1_slabpos;
362   u32 pktfield2_slabpos;
363   u64 pktfield0_slabmask;
364   u64 pktfield1_slabmask;
365   u64 pktfield2_slabmask;
366   u32 tc_table[64];
367
368   struct rte_sched_port_params port;
369   struct rte_sched_subport_params *subport;
370   struct rte_sched_pipe_params *pipe;
371   uint32_t *pipe_map;
372 } dpdk_device_config_hqos_t;
373
374 int dpdk_hqos_validate_mask (u64 mask, u32 n);
375 void dpdk_device_config_hqos_pipe_profile_default (dpdk_device_config_hqos_t *
376                                                    hqos, u32 pipe_profile_id);
377 void dpdk_device_config_hqos_default (dpdk_device_config_hqos_t * hqos);
378 clib_error_t *dpdk_port_setup_hqos (dpdk_device_t * xd,
379                                     dpdk_device_config_hqos_t * hqos);
380 void dpdk_hqos_metadata_set (dpdk_device_hqos_per_worker_thread_t * hqos,
381                              struct rte_mbuf **pkts, u32 n_pkts);
382
383 #define foreach_dpdk_device_config_item \
384   _ (num_rx_queues) \
385   _ (num_tx_queues) \
386   _ (num_rx_desc) \
387   _ (num_tx_desc) \
388   _ (rss_fn)
389
390 typedef struct
391 {
392   vlib_pci_addr_t pci_addr;
393   u8 is_blacklisted;
394   u8 vlan_strip_offload;
395 #define DPDK_DEVICE_VLAN_STRIP_DEFAULT 0
396 #define DPDK_DEVICE_VLAN_STRIP_OFF 1
397 #define DPDK_DEVICE_VLAN_STRIP_ON  2
398
399 #define _(x) uword x;
400     foreach_dpdk_device_config_item
401 #undef _
402     clib_bitmap_t * workers;
403   u32 hqos_enabled;
404   dpdk_device_config_hqos_t hqos;
405 } dpdk_device_config_t;
406
407 typedef struct
408 {
409
410   /* Config stuff */
411   u8 **eal_init_args;
412   u8 *eal_init_args_str;
413   u8 *uio_driver_name;
414   u8 no_multi_seg;
415   u8 enable_tcp_udp_checksum;
416
417   /* Required config parameters */
418   u8 coremask_set_manually;
419   u8 nchannels_set_manually;
420   u32 coremask;
421   u32 nchannels;
422   u32 num_mbufs;
423   u8 num_kni;                   /* while kni_init allows u32, port_id in callback fn is only u8 */
424
425   /*
426    * format interface names ala xxxEthernet%d/%d/%d instead of
427    * xxxEthernet%x/%x/%x.
428    */
429   u8 interface_name_format_decimal;
430
431   /* virtio vhost-user switch */
432   u8 use_virtio_vhost;
433
434   /* vhost-user coalescence frames config */
435   u32 vhost_coalesce_frames;
436   f64 vhost_coalesce_time;
437
438   /* per-device config */
439   dpdk_device_config_t default_devconf;
440   dpdk_device_config_t *dev_confs;
441   uword *device_config_index_by_pci_addr;
442
443 } dpdk_config_main_t;
444
445 dpdk_config_main_t dpdk_config_main;
446
447 typedef struct
448 {
449
450   /* Devices */
451   dpdk_device_t *devices;
452   dpdk_device_and_queue_t **devices_by_cpu;
453   dpdk_device_and_queue_t **devices_by_hqos_cpu;
454
455   /* per-thread recycle lists */
456   u32 **recycle;
457
458   /* buffer flags template, configurable to enable/disable tcp / udp cksum */
459   u32 buffer_flags_template;
460
461   /* flow control callback. If 0 then flow control is disabled */
462   dpdk_flowcontrol_callback_t flowcontrol_callback;
463
464   /* vlib buffer free list, must be same size as an rte_mbuf */
465   u32 vlib_buffer_free_list_index;
466
467   /* dpdk worker "threads" */
468   dpdk_worker_t *workers;
469
470   /* dpdk HQoS "threads" */
471   dpdk_hqos_thread_t *hqos_threads;
472
473   /* Ethernet input node index */
474   u32 ethernet_input_node_index;
475
476   /* pcap tracing [only works if (CLIB_DEBUG > 0)] */
477   int tx_pcap_enable;
478   pcap_main_t pcap_main;
479   u8 *pcap_filename;
480   u32 pcap_sw_if_index;
481   u32 pcap_pkts_to_capture;
482
483   /* hashes */
484   uword *dpdk_device_by_kni_port_id;
485   uword *vu_sw_if_index_by_listener_fd;
486   uword *vu_sw_if_index_by_sock_fd;
487   u32 *vu_inactive_interfaces_device_index;
488
489   u32 next_vu_if_id;
490
491   /* efd (early-fast-discard) settings */
492   dpdk_efd_t efd;
493
494   /*
495    * flag indicating that a posted admin up/down
496    * (via post_sw_interface_set_flags) is in progress
497    */
498   u8 admin_up_down_in_progress;
499
500   u8 use_rss;
501
502   /* which cpus are running dpdk-input */
503   int input_cpu_first_index;
504   int input_cpu_count;
505
506   /* which cpus are running I/O TX */
507   int hqos_cpu_first_index;
508   int hqos_cpu_count;
509
510   /* control interval of dpdk link state and stat polling */
511   f64 link_state_poll_interval;
512   f64 stat_poll_interval;
513
514   /* Sleep for this many MS after each device poll */
515   u32 poll_sleep;
516
517   /* convenience */
518   vlib_main_t *vlib_main;
519   vnet_main_t *vnet_main;
520   dpdk_config_main_t *conf;
521 } dpdk_main_t;
522
523 dpdk_main_t dpdk_main;
524
525 typedef enum
526 {
527   DPDK_RX_NEXT_IP4_INPUT,
528   DPDK_RX_NEXT_IP6_INPUT,
529   DPDK_RX_NEXT_MPLS_INPUT,
530   DPDK_RX_NEXT_ETHERNET_INPUT,
531   DPDK_RX_NEXT_DROP,
532   DPDK_RX_N_NEXT,
533 } dpdk_rx_next_t;
534
535 typedef struct
536 {
537   u32 buffer_index;
538   u16 device_index;
539   u8 queue_index;
540   struct rte_mbuf mb;
541   /* Copy of VLIB buffer; packet data stored in pre_data. */
542   vlib_buffer_t buffer;
543 } dpdk_tx_dma_trace_t;
544
545 typedef struct
546 {
547   u32 buffer_index;
548   u16 device_index;
549   u16 queue_index;
550   struct rte_mbuf mb;
551   vlib_buffer_t buffer;         /* Copy of VLIB buffer; pkt data stored in pre_data. */
552   u8 data[256];                 /* First 256 data bytes, used for hexdump */
553 } dpdk_rx_dma_trace_t;
554
555 void vnet_buffer_needs_dpdk_mb (vlib_buffer_t * b);
556
557 void dpdk_set_next_node (dpdk_rx_next_t, char *);
558
559 clib_error_t *dpdk_set_mac_address (vnet_hw_interface_t * hi, char *address);
560
561 clib_error_t *dpdk_set_mc_filter (vnet_hw_interface_t * hi,
562                                   struct ether_addr mc_addr_vec[], int naddr);
563
564 void dpdk_thread_input (dpdk_main_t * dm, dpdk_device_t * xd);
565
566 clib_error_t *dpdk_port_setup (dpdk_main_t * dm, dpdk_device_t * xd);
567
568 void dpdk_set_flowcontrol_callback (vlib_main_t * vm,
569                                     dpdk_flowcontrol_callback_t callback);
570
571 u32 dpdk_interface_tx_vector (vlib_main_t * vm, u32 dev_instance);
572
573 void set_efd_bitmap (u8 * bitmap, u32 value, u32 op);
574
575 struct rte_mbuf *dpdk_replicate_packet_mb (vlib_buffer_t * b);
576 struct rte_mbuf *dpdk_zerocopy_replicate_packet_mb (vlib_buffer_t * b);
577
578 #define foreach_dpdk_error                                              \
579   _(NONE, "no error")                                                   \
580   _(RX_PACKET_ERROR, "Rx packet errors")                                \
581   _(RX_BAD_FCS, "Rx bad fcs")                                           \
582   _(L4_CHECKSUM_ERROR, "Rx L4 checksum errors")                         \
583   _(IP_CHECKSUM_ERROR, "Rx ip checksum errors")                         \
584   _(RX_ALLOC_FAIL, "rx buf alloc from free list failed")                \
585   _(RX_ALLOC_NO_PHYSMEM, "rx buf alloc failed no physmem")              \
586   _(RX_ALLOC_DROP_PKTS, "rx packets dropped due to alloc error")        \
587   _(IPV4_EFD_DROP_PKTS, "IPV4 Early Fast Discard rx drops")             \
588   _(IPV6_EFD_DROP_PKTS, "IPV6 Early Fast Discard rx drops")             \
589   _(MPLS_EFD_DROP_PKTS, "MPLS Early Fast Discard rx drops")             \
590   _(VLAN_EFD_DROP_PKTS, "VLAN Early Fast Discard rx drops")
591
592 typedef enum
593 {
594 #define _(f,s) DPDK_ERROR_##f,
595   foreach_dpdk_error
596 #undef _
597     DPDK_N_ERROR,
598 } dpdk_error_t;
599
600 /*
601  * Increment EFD drop counter
602  */
603 static_always_inline void
604 increment_efd_drop_counter (vlib_main_t * vm, u32 counter_index, u32 count)
605 {
606   vlib_node_t *my_n;
607
608   my_n = vlib_get_node (vm, dpdk_input_node.index);
609   vm->error_main.counters[my_n->error_heap_index + counter_index] += count;
610 }
611
612 int dpdk_set_stat_poll_interval (f64 interval);
613 int dpdk_set_link_state_poll_interval (f64 interval);
614 void dpdk_update_link_state (dpdk_device_t * xd, f64 now);
615 void dpdk_device_lock_init (dpdk_device_t * xd);
616 void dpdk_device_lock_free (dpdk_device_t * xd);
617 void dpdk_efd_update_counters (dpdk_device_t * xd, u32 n_buffers,
618                                u16 enabled);
619 u32 is_efd_discardable (vlib_thread_main_t * tm, vlib_buffer_t * b0,
620                         struct rte_mbuf *mb);
621
622 #if DPDK_VHOST_USER
623 /* dpdk vhost-user interrupt management */
624 u8 dpdk_vhost_user_want_interrupt (dpdk_device_t * xd, int idx);
625 void dpdk_vhost_user_send_interrupt (vlib_main_t * vm, dpdk_device_t * xd,
626                                      int idx);
627 #endif
628
629
630 static inline u64
631 vnet_get_aggregate_rx_packets (void)
632 {
633   dpdk_main_t *dm = &dpdk_main;
634   u64 sum = 0;
635   dpdk_worker_t *dw;
636
637   vec_foreach (dw, dm->workers) sum += dw->aggregate_rx_packets;
638
639   return sum;
640 }
641
642 void dpdk_rx_trace (dpdk_main_t * dm,
643                     vlib_node_runtime_t * node,
644                     dpdk_device_t * xd,
645                     u16 queue_id, u32 * buffers, uword n_buffers);
646
647 #define EFD_OPERATION_LESS_THAN          0
648 #define EFD_OPERATION_GREATER_OR_EQUAL   1
649
650 void efd_config (u32 enabled,
651                  u32 ip_prec, u32 ip_op,
652                  u32 mpls_exp, u32 mpls_op, u32 vlan_cos, u32 vlan_op);
653
654 void post_sw_interface_set_flags (vlib_main_t * vm, u32 sw_if_index,
655                                   u32 flags);
656
657 #if DPDK_VHOST_USER
658 typedef struct vhost_user_memory vhost_user_memory_t;
659
660 void dpdk_vhost_user_process_init (void **ctx);
661 void dpdk_vhost_user_process_cleanup (void *ctx);
662 uword dpdk_vhost_user_process_if (vlib_main_t * vm, dpdk_device_t * xd,
663                                   void *ctx);
664
665 // vhost-user calls
666 int dpdk_vhost_user_create_if (vnet_main_t * vnm, vlib_main_t * vm,
667                                const char *sock_filename,
668                                u8 is_server,
669                                u32 * sw_if_index,
670                                u64 feature_mask,
671                                u8 renumber, u32 custom_dev_instance,
672                                u8 * hwaddr);
673 int dpdk_vhost_user_modify_if (vnet_main_t * vnm, vlib_main_t * vm,
674                                const char *sock_filename,
675                                u8 is_server,
676                                u32 sw_if_index,
677                                u64 feature_mask,
678                                u8 renumber, u32 custom_dev_instance);
679 int dpdk_vhost_user_delete_if (vnet_main_t * vnm, vlib_main_t * vm,
680                                u32 sw_if_index);
681 int dpdk_vhost_user_dump_ifs (vnet_main_t * vnm, vlib_main_t * vm,
682                               vhost_user_intf_details_t ** out_vuids);
683 #endif
684
685 u32 dpdk_get_admin_up_down_in_progress (void);
686
687 u32 dpdk_num_mbufs (void);
688
689 dpdk_pmd_t dpdk_get_pmd_type (vnet_hw_interface_t * hi);
690
691 i8 dpdk_get_cpu_socket (vnet_hw_interface_t * hi);
692
693 void *dpdk_input_multiarch_select ();
694 void *dpdk_input_rss_multiarch_select ();
695 void *dpdk_input_efd_multiarch_select ();
696
697 clib_error_t *dpdk_get_hw_interface_stats (u32 hw_if_index,
698                                            struct rte_eth_stats *dest);
699
700 format_function_t format_dpdk_device_name;
701 format_function_t format_dpdk_device;
702 format_function_t format_dpdk_tx_dma_trace;
703 format_function_t format_dpdk_rx_dma_trace;
704 format_function_t format_dpdk_rte_mbuf;
705 format_function_t format_dpdk_rx_rte_mbuf;
706 unformat_function_t unformat_socket_mem;
707 clib_error_t *unformat_rss_fn (unformat_input_t * input, uword * rss_fn);
708 clib_error_t *unformat_hqos (unformat_input_t * input,
709                              dpdk_device_config_hqos_t * hqos);
710
711
712 static inline void
713 dpdk_pmd_constructor_init ()
714 {
715   /* Add references to DPDK Driver Constructor functions to get the dynamic
716    * loader to pull in the driver library & run the constructors.
717    */
718 #define _(d)                                            \
719   do {                                                  \
720     void devinitfn_ ##d(void);                          \
721     __attribute__((unused)) void (* volatile pf)(void); \
722     pf = devinitfn_ ##d;                                \
723   } while(0);
724
725 #ifdef RTE_LIBRTE_EM_PMD
726   _(em_pmd_drv)
727 #endif
728 #ifdef RTE_LIBRTE_IGB_PMD
729     _(pmd_igb_drv)
730 #endif
731 #ifdef RTE_LIBRTE_IXGBE_PMD
732     _(rte_ixgbe_driver)
733 #endif
734 #ifdef RTE_LIBRTE_I40E_PMD
735     _(rte_i40e_driver) _(rte_i40evf_driver)
736 #endif
737 #ifdef RTE_LIBRTE_FM10K_PMD
738     _(rte_fm10k_driver)
739 #endif
740 #ifdef RTE_LIBRTE_VIRTIO_PMD
741     _(rte_virtio_driver)
742 #endif
743 #ifdef RTE_LIBRTE_VMXNET3_PMD
744     _(rte_vmxnet3_driver)
745 #endif
746 #ifdef RTE_LIBRTE_VICE_PMD
747     _(rte_vice_driver)
748 #endif
749 #ifdef RTE_LIBRTE_ENIC_PMD
750     _(rte_enic_driver)
751 #endif
752 #ifdef RTE_LIBRTE_PMD_AF_PACKET
753     _(pmd_af_packet_drv)
754 #endif
755 #ifdef RTE_LIBRTE_CXGBE_PMD
756     _(rte_cxgbe_driver)
757 #endif
758 #ifdef RTE_LIBRTE_PMD_BOND
759     _(bond_drv)
760 #endif
761 #ifdef RTE_LIBRTE_DPAA2_PMD
762     _(pmd_dpaa2_drv)
763 #endif
764 #undef _
765 /*
766  * At the moment, the ThunderX NIC driver doesn't have
767  * an entry point named "devinitfn_rte_xxx_driver"
768  */
769 #define _(d)                                          \
770   do {                                                  \
771     void d(void);                                             \
772     __attribute__((unused)) void (* volatile pf)(void); \
773     pf = d;                                           \
774   } while(0);
775 #ifdef RTE_LIBRTE_THUNDERVNIC_PMD
776     _(rte_nicvf_pmd_init)
777 #endif
778 #undef _
779 }
780
781 uword
782 admin_up_down_process (vlib_main_t * vm,
783                        vlib_node_runtime_t * rt, vlib_frame_t * f);
784
785 #endif /* __included_dpdk_h__ */
786
787 /*
788  * fd.io coding-style-patch-verification: ON
789  *
790  * Local Variables:
791  * eval: (c-set-style "gnu")
792  * End:
793  */