Add per-device startup config support
[vpp.git] / vnet / vnet / devices / dpdk / dpdk.h
1 /*
2  * Copyright (c) 2015 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 #ifndef __included_dpdk_h__
16 #define __included_dpdk_h__
17
18 /* $$$$ We should rename always_inline -> clib_always_inline */
19 #undef always_inline
20
21 #include <rte_config.h>
22
23 #include <rte_common.h>
24 #include <rte_dev.h>
25 #include <rte_log.h>
26 #include <rte_memory.h>
27 #include <rte_memzone.h>
28 #include <rte_tailq.h>
29 #include <rte_eal.h>
30 #include <rte_per_lcore.h>
31 #include <rte_launch.h>
32 #include <rte_atomic.h>
33 #include <rte_cycles.h>
34 #include <rte_prefetch.h>
35 #include <rte_lcore.h>
36 #include <rte_per_lcore.h>
37 #include <rte_branch_prediction.h>
38 #include <rte_interrupts.h>
39 #include <rte_pci.h>
40 #include <rte_random.h>
41 #include <rte_debug.h>
42 #include <rte_ether.h>
43 #include <rte_ethdev.h>
44 #include <rte_ring.h>
45 #include <rte_mempool.h>
46 #include <rte_mbuf.h>
47 #ifdef RTE_LIBRTE_KNI
48 #include <rte_kni.h>
49 #endif
50 #include <rte_virtio_net.h>
51 #include <rte_pci_dev_ids.h>
52 #include <rte_version.h>
53 #include <rte_eth_bond.h>
54
55 #include <vnet/unix/pcap.h>
56 #include <vnet/devices/virtio/vhost-user.h>
57
58 #if CLIB_DEBUG > 0
59 #define always_inline static inline
60 #else
61 #define always_inline static inline __attribute__ ((__always_inline__))
62 #endif
63
64 #include <vlib/pci/pci.h>
65
66 #define NB_MBUF   (32<<10)
67
68 extern vnet_device_class_t dpdk_device_class;
69 extern vlib_node_registration_t dpdk_input_node;
70 extern vlib_node_registration_t dpdk_io_input_node;
71 extern vlib_node_registration_t handoff_dispatch_node;
72
73 typedef enum {
74   VNET_DPDK_DEV_ETH = 1,      /* Standard DPDK PMD driver */
75   VNET_DPDK_DEV_KNI,          /* Kernel NIC Interface */
76   VNET_DPDK_DEV_VHOST_USER,
77   VNET_DPDK_DEV_UNKNOWN,      /* must be last */
78 } dpdk_device_type_t;
79
80 #define foreach_dpdk_pmd          \
81   _ ("rte_nicvf_pmd", THUNDERX)   \
82   _ ("rte_em_pmd", E1000EM)       \
83   _ ("rte_igb_pmd", IGB)          \
84   _ ("rte_igbvf_pmd", IGBVF)      \
85   _ ("rte_ixgbe_pmd", IXGBE)      \
86   _ ("rte_ixgbevf_pmd", IXGBEVF)  \
87   _ ("rte_i40e_pmd", I40E)        \
88   _ ("rte_i40evf_pmd", I40EVF)    \
89   _ ("rte_virtio_pmd", VIRTIO)    \
90   _ ("rte_vice_pmd", VICE)        \
91   _ ("rte_enic_pmd", ENIC)        \
92   _ ("rte_vmxnet3_pmd", VMXNET3)  \
93   _ ("AF_PACKET PMD", AF_PACKET)  \
94   _ ("rte_bond_pmd", BOND)        \
95   _ ("rte_pmd_fm10k", FM10K)      \
96   _ ("rte_cxgbe_pmd", CXGBE)
97
98 typedef enum {
99   VNET_DPDK_PMD_NONE,
100 #define _(s,f) VNET_DPDK_PMD_##f,
101   foreach_dpdk_pmd
102 #undef _
103 #ifdef NETMAP
104   VNET_DPDK_PMD_NETMAP,
105 #endif
106   VNET_DPDK_PMD_UNKNOWN, /* must be last */
107 } dpdk_pmd_t;
108
109 typedef enum {
110   VNET_DPDK_PORT_TYPE_ETH_1G,
111   VNET_DPDK_PORT_TYPE_ETH_10G,
112   VNET_DPDK_PORT_TYPE_ETH_40G,
113   VNET_DPDK_PORT_TYPE_ETH_BOND,
114   VNET_DPDK_PORT_TYPE_ETH_SWITCH,
115 #ifdef NETMAP
116   VNET_DPDK_PORT_TYPE_NETMAP,
117 #endif
118   VNET_DPDK_PORT_TYPE_AF_PACKET,
119   VNET_DPDK_PORT_TYPE_UNKNOWN,
120 } dpdk_port_type_t;
121
122 typedef struct {
123   f64 deadline;
124   vlib_frame_t * frame;
125 } dpdk_frame_t;
126
127 #define DPDK_EFD_MAX_DISCARD_RATE 10
128
129 typedef struct {
130   u16 last_burst_sz;
131   u16 max_burst_sz;
132   u32 full_frames_cnt;
133   u32 consec_full_frames_cnt;
134   u32 congestion_cnt;
135   u64 last_poll_time;
136   u64 max_poll_delay;
137   u32 discard_cnt;
138   u32 total_packet_cnt;
139 } dpdk_efd_agent_t;
140
141 typedef struct {
142   int callfd;
143   int kickfd;
144   int errfd;
145 #if RTE_VERSION >= RTE_VERSION_NUM(2, 2, 0, 0)
146   int enabled;
147 #endif
148   u32 callfd_idx;
149   u32 n_since_last_int;
150   f64 int_deadline;
151   u64 packets;
152   u64 bytes;
153 } dpdk_vu_vring;
154
155 typedef struct {
156   u32 is_up;
157   u32 unix_fd;
158   u32 unix_file_index;
159   u32 client_fd;
160   char sock_filename[256];
161   int sock_errno;
162   u8 sock_is_server;
163   u8 active;
164
165   u64 feature_mask;
166   u32 num_vrings;
167 #if RTE_VERSION >= RTE_VERSION_NUM(2, 2, 0, 0)
168   dpdk_vu_vring vrings[VHOST_MAX_QUEUE_PAIRS * 2];
169 #else
170   dpdk_vu_vring vrings[2];
171 #endif
172   u64 region_addr[VHOST_MEMORY_MAX_NREGIONS];
173   u32 region_fd[VHOST_MEMORY_MAX_NREGIONS];
174 } dpdk_vu_intf_t;
175
176 typedef void (*dpdk_flowcontrol_callback_t) (vlib_main_t *vm,
177                                              u32 hw_if_index,
178                                              u32 n_packets);
179
180 /*
181  * The header for the tx_vector in dpdk_device_t.
182  * Head and tail are indexes into the tx_vector and are of type
183  * u64 so they never overflow.
184  */
185 typedef struct {
186   u64 tx_head;
187   u64 tx_tail;
188 } tx_ring_hdr_t;
189
190 typedef struct {
191   CLIB_CACHE_LINE_ALIGN_MARK(cacheline0);
192   volatile u32 **lockp;
193
194   /* Instance ID */
195   u32 device_index;
196
197   u32 vlib_hw_if_index;
198   u32 vlib_sw_if_index;
199
200   /* next node index if we decide to steal the rx graph arc */
201   u32 per_interface_next_index;
202
203   /* dpdk rte_mbuf rx and tx vectors, VLIB_FRAME_SIZE */
204   struct rte_mbuf *** tx_vectors; /* one per worker thread */
205   struct rte_mbuf *** rx_vectors;
206
207   /* vector of traced contexts, per device */
208   u32 * d_trace_buffers;
209
210   /* per-worker destination frame queue */
211   dpdk_frame_t * frames;
212
213   dpdk_device_type_t dev_type:8;
214   dpdk_pmd_t pmd:8;
215   i8 cpu_socket;
216
217   u8 admin_up;
218   u8 promisc;
219
220   CLIB_CACHE_LINE_ALIGN_MARK(cacheline1);
221
222   /* PMD related */
223   u16 tx_q_used;
224   u16 rx_q_used;
225   u16 nb_rx_desc;
226   u16 nb_tx_desc;
227   u16 * cpu_socket_id_by_queue;
228   struct rte_eth_conf port_conf;
229   struct rte_eth_txconf tx_conf;
230
231   /* KNI related */
232   struct rte_kni *kni;
233   u8 kni_port_id;
234
235   /* vhost-user related */
236   u32 vu_if_id;
237   struct virtio_net  vu_vhost_dev;
238   u32 vu_is_running;
239   dpdk_vu_intf_t *vu_intf;
240
241   /* af_packet */
242   u8 af_packet_port_id;
243
244   struct rte_eth_link link;
245   f64 time_last_link_update;
246
247   struct rte_eth_stats stats;
248   struct rte_eth_stats last_stats;
249   struct rte_eth_stats last_cleared_stats;
250   struct rte_eth_xstats * xstats;
251   struct rte_eth_xstats * last_cleared_xstats;
252   f64 time_last_stats_update;
253   dpdk_port_type_t port_type;
254
255   dpdk_efd_agent_t efd_agent;
256   u8 need_txlock; /* Used by VNET_DPDK_DEV_VHOST_USER */
257 } dpdk_device_t;
258
259 #define MAX_NELTS 32
260 typedef struct {
261   CLIB_CACHE_LINE_ALIGN_MARK(cacheline0);
262   u64 head;
263   u64 head_hint;
264   u64 tail;
265   u32 n_in_use;
266   u32 nelts;
267   u32 written;
268   u32 threshold;
269   i32 n_vectors[MAX_NELTS];
270 } frame_queue_trace_t;
271
272 typedef struct {
273   u64 count[MAX_NELTS];
274 } frame_queue_nelt_counter_t;
275
276 #define DPDK_TX_RING_SIZE (4 * 1024)
277
278 #define DPDK_STATS_POLL_INTERVAL      (10.0)
279 #define DPDK_MIN_STATS_POLL_INTERVAL  (0.001) /* 1msec */
280
281 #define DPDK_LINK_POLL_INTERVAL       (3.0)
282 #define DPDK_MIN_LINK_POLL_INTERVAL   (0.001) /* 1msec */
283
284 typedef struct {
285   CLIB_CACHE_LINE_ALIGN_MARK(cacheline0);
286
287   /* total input packet counter */
288   u64 aggregate_rx_packets;
289 } dpdk_worker_t;
290
291 typedef struct {
292   u32 device;
293   u16 queue_id;
294 } dpdk_device_and_queue_t;
295
296 /* Early-Fast-Discard (EFD) */
297 #define DPDK_EFD_DISABLED                       0
298 #define DPDK_EFD_DISCARD_ENABLED                (1 << 0)
299 #define DPDK_EFD_MONITOR_ENABLED                (1 << 1)
300 #define DPDK_EFD_DROPALL_ENABLED                (1 << 2)
301
302 #define DPDK_EFD_DEFAULT_DEVICE_QUEUE_HI_THRESH_PCT    90
303 #define DPDK_EFD_DEFAULT_CONSEC_FULL_FRAMES_HI_THRESH  6
304
305 typedef struct dpdk_efd_t {
306   u16 enabled;
307   u16 queue_hi_thresh;
308   u16 consec_full_frames_hi_thresh;
309   u16 pad;
310 } dpdk_efd_t;
311
312 #define foreach_dpdk_device_config_item \
313   _ (num_rx_queues) \
314   _ (num_tx_queues)
315
316 typedef struct {
317     vlib_pci_addr_t pci_addr;
318     u8 is_blacklisted;
319 #define _(x) uword x;
320     foreach_dpdk_device_config_item
321 #undef _
322 } dpdk_device_config_t;
323
324 typedef struct {
325
326   /* Config stuff */
327   u8 ** eal_init_args;
328   u8 * eal_init_args_str;
329   u8 * uio_driver_name;
330   u8 no_multi_seg;
331   u8 enable_tcp_udp_checksum;
332
333   /* Required config parameters */
334   u8 coremask_set_manually;
335   u8 nchannels_set_manually;
336   u32 coremask;
337   u32 nchannels;
338   u32 num_mbufs;
339   u8 num_kni;/* while kni_init allows u32, port_id in callback fn is only u8 */
340
341   /*
342    * format interface names ala xxxEthernet%d/%d/%d instead of
343    * xxxEthernet%x/%x/%x. For VIRL.
344    */
345   u8 interface_name_format_decimal;
346
347   /* virtio vhost-user switch */
348   u8 use_virtio_vhost;
349
350   /* vhost-user coalescence frames config */
351   u32 vhost_coalesce_frames;
352   f64 vhost_coalesce_time;
353
354   /* per-device config */
355   dpdk_device_config_t default_devconf;
356   dpdk_device_config_t * dev_confs;
357   uword * device_config_index_by_pci_addr;
358
359 } dpdk_config_main_t;
360
361 dpdk_config_main_t dpdk_config_main;
362
363 typedef struct {
364
365   /* Devices */
366   dpdk_device_t * devices;
367   dpdk_device_and_queue_t ** devices_by_cpu;
368
369   /* per-thread recycle lists */
370   u32 ** recycle;
371
372   /* buffer flags template, configurable to enable/disable tcp / udp cksum */
373   u32 buffer_flags_template;
374
375   /* flow control callback. If 0 then flow control is disabled */
376   dpdk_flowcontrol_callback_t flowcontrol_callback;
377
378   /* vlib buffer free list, must be same size as an rte_mbuf */
379   u32 vlib_buffer_free_list_index;
380
381   /* dpdk worker "threads" */
382   dpdk_worker_t * workers;
383
384
385   /* Ethernet input node index */
386   u32 ethernet_input_node_index;
387
388   /* dpdk i/o thread initialization barrier */
389   volatile u32 io_thread_release;
390
391   /* pcap tracing [only works if (CLIB_DEBUG > 0)] */
392   int tx_pcap_enable;
393   pcap_main_t pcap_main;
394   u8 * pcap_filename;
395   u32 pcap_sw_if_index;
396   u32 pcap_pkts_to_capture;
397
398   /* hashes */
399   uword * dpdk_device_by_kni_port_id;
400   uword * vu_sw_if_index_by_listener_fd;
401   uword * vu_sw_if_index_by_sock_fd;
402   u32 * vu_inactive_interfaces_device_index;
403
404   u32 next_vu_if_id;
405
406   /* efd (early-fast-discard) settings */
407   dpdk_efd_t efd;
408
409   /*
410    * flag indicating that a posted admin up/down
411    * (via post_sw_interface_set_flags) is in progress
412    */
413   u8 admin_up_down_in_progress;
414
415   u8 have_io_threads;
416   u8 use_rss;
417
418   /* which cpus are running dpdk-input */
419   int input_cpu_first_index;
420   int input_cpu_count;
421
422   /* control interval of dpdk link state and stat polling */
423   f64 link_state_poll_interval;
424   f64 stat_poll_interval;
425
426   /* for frame queue tracing */
427   frame_queue_trace_t        *frame_queue_traces;
428   frame_queue_nelt_counter_t *frame_queue_histogram;
429
430   /* Sleep for this many MS after each device poll */
431   u32 poll_sleep;
432
433   /* convenience */
434   vlib_main_t * vlib_main;
435   vnet_main_t * vnet_main;
436   dpdk_config_main_t * conf;
437 } dpdk_main_t;
438
439 dpdk_main_t dpdk_main;
440
441 typedef enum {
442   DPDK_RX_NEXT_IP4_INPUT,
443   DPDK_RX_NEXT_IP6_INPUT,
444   DPDK_RX_NEXT_MPLS_INPUT,
445   DPDK_RX_NEXT_ETHERNET_INPUT,
446   DPDK_RX_NEXT_DROP,
447   DPDK_RX_N_NEXT,
448 } dpdk_rx_next_t;
449
450 typedef struct {
451   u32 buffer_index;
452   u16 device_index;
453   u8 queue_index;
454   struct rte_mbuf mb;
455   /* Copy of VLIB buffer; packet data stored in pre_data. */
456   vlib_buffer_t buffer;
457 } dpdk_tx_dma_trace_t;
458
459 typedef struct {
460   u32 buffer_index;
461   u16 device_index;
462   u16 queue_index;
463   struct rte_mbuf mb;
464   vlib_buffer_t buffer; /* Copy of VLIB buffer; pkt data stored in pre_data. */
465 } dpdk_rx_dma_trace_t;
466
467 void vnet_buffer_needs_dpdk_mb (vlib_buffer_t * b);
468
469 void dpdk_set_next_node (dpdk_rx_next_t, char *);
470
471 clib_error_t * dpdk_set_mac_address (vnet_hw_interface_t * hi, char * address);
472
473 clib_error_t * dpdk_set_mc_filter (vnet_hw_interface_t * hi,
474                                    struct ether_addr mc_addr_vec[], int naddr);
475
476 typedef void (*dpdk_io_thread_callback_t) (vlib_main_t *vm);
477
478 void dpdk_io_thread (vlib_worker_thread_t * w,
479                      u32 instances,
480                      u32 instance_id,
481                      char *worker_name,
482                      dpdk_io_thread_callback_t callback);
483 void dpdk_thread_input (dpdk_main_t * dm, dpdk_device_t * xd);
484
485 clib_error_t * dpdk_port_setup (dpdk_main_t * dm, dpdk_device_t * xd);
486
487 void dpdk_set_flowcontrol_callback (vlib_main_t *vm, 
488                                     dpdk_flowcontrol_callback_t callback);
489
490 u32 dpdk_interface_tx_vector (vlib_main_t * vm, u32 dev_instance);
491
492 vlib_frame_queue_elt_t * vlib_get_handoff_queue_elt (u32 vlib_worker_index);
493
494 u32 dpdk_get_handoff_node_index (void);
495
496 void set_efd_bitmap (u8 *bitmap, u32 value, u32 op);
497
498 struct rte_mbuf * dpdk_replicate_packet_mb (vlib_buffer_t * b);
499 struct rte_mbuf * dpdk_zerocopy_replicate_packet_mb (vlib_buffer_t * b);
500
501 #define foreach_dpdk_error                                              \
502   _(NONE, "no error")                                                   \
503   _(RX_PACKET_ERROR, "Rx packet errors")                                \
504   _(RX_BAD_FCS, "Rx bad fcs")                                           \
505   _(L4_CHECKSUM_ERROR, "Rx L4 checksum errors")                         \
506   _(IP_CHECKSUM_ERROR, "Rx ip checksum errors")                         \
507   _(RX_ALLOC_FAIL, "rx buf alloc from free list failed")                \
508   _(RX_ALLOC_NO_PHYSMEM, "rx buf alloc failed no physmem")              \
509   _(RX_ALLOC_DROP_PKTS, "rx packets dropped due to alloc error")        \
510   _(IPV4_EFD_DROP_PKTS, "IPV4 Early Fast Discard rx drops")             \
511   _(IPV6_EFD_DROP_PKTS, "IPV6 Early Fast Discard rx drops")             \
512   _(MPLS_EFD_DROP_PKTS, "MPLS Early Fast Discard rx drops")             \
513   _(VLAN_EFD_DROP_PKTS, "VLAN Early Fast Discard rx drops")
514
515 typedef enum {
516 #define _(f,s) DPDK_ERROR_##f,
517   foreach_dpdk_error
518 #undef _
519   DPDK_N_ERROR,
520 } dpdk_error_t;
521
522 /*
523  * Increment EFD drop counter
524  */
525 static_always_inline
526 void increment_efd_drop_counter (vlib_main_t * vm, u32 counter_index, u32 count)
527 {
528    vlib_node_t *my_n;
529
530    my_n = vlib_get_node (vm, dpdk_input_node.index);
531    vm->error_main.counters[my_n->error_heap_index+counter_index] += count;
532 }
533
534 int dpdk_set_stat_poll_interval (f64 interval);
535 int dpdk_set_link_state_poll_interval (f64 interval);
536 void dpdk_update_link_state (dpdk_device_t * xd, f64 now);
537 void dpdk_device_lock_init(dpdk_device_t * xd);
538 void dpdk_device_lock_free(dpdk_device_t * xd);
539 void dpdk_efd_update_counters(dpdk_device_t *xd, u32 n_buffers, u16 enabled);
540 u32 is_efd_discardable(vlib_thread_main_t *tm,
541                        vlib_buffer_t * b0,
542                        struct rte_mbuf *mb);
543
544 /* dpdk vhost-user interrupt management */
545 u8 dpdk_vhost_user_want_interrupt (dpdk_device_t *xd, int idx);
546 void dpdk_vhost_user_send_interrupt (vlib_main_t * vm, dpdk_device_t * xd,
547                                     int idx);
548
549
550 static inline u64 vnet_get_aggregate_rx_packets (void)
551 {
552     dpdk_main_t * dm = &dpdk_main;
553     u64 sum = 0;
554     dpdk_worker_t * dw;
555
556     vec_foreach(dw, dm->workers)
557         sum += dw->aggregate_rx_packets;
558
559     return sum;
560 }
561
562 void dpdk_rx_trace (dpdk_main_t * dm,
563                     vlib_node_runtime_t * node,
564                     dpdk_device_t * xd,
565                     u16 queue_id,
566                     u32 * buffers,
567                     uword n_buffers);
568
569 #define EFD_OPERATION_LESS_THAN          0
570 #define EFD_OPERATION_GREATER_OR_EQUAL   1
571
572 void efd_config(u32 enabled,
573                 u32 ip_prec,  u32 ip_op,
574                 u32 mpls_exp, u32 mpls_op,
575                 u32 vlan_cos, u32 vlan_op);
576
577 void post_sw_interface_set_flags (vlib_main_t *vm, u32 sw_if_index, u32 flags);
578
579 typedef struct vhost_user_memory vhost_user_memory_t;
580
581 void dpdk_vhost_user_process_init (void **ctx);
582 void dpdk_vhost_user_process_cleanup (void *ctx);
583 uword dpdk_vhost_user_process_if (vlib_main_t *vm, dpdk_device_t *xd, void *ctx);
584
585 // vhost-user calls
586 int dpdk_vhost_user_create_if (vnet_main_t * vnm, vlib_main_t * vm,
587                               const char * sock_filename,
588                               u8 is_server,
589                               u32 * sw_if_index,
590                               u64 feature_mask,
591                               u8 renumber, u32 custom_dev_instance,
592                               u8 *hwaddr);
593 int dpdk_vhost_user_modify_if (vnet_main_t * vnm, vlib_main_t * vm,
594                               const char * sock_filename,
595                               u8 is_server,
596                               u32 sw_if_index,
597                               u64 feature_mask,
598                               u8 renumber, u32 custom_dev_instance);
599 int dpdk_vhost_user_delete_if (vnet_main_t * vnm, vlib_main_t * vm,
600                               u32 sw_if_index);
601 int dpdk_vhost_user_dump_ifs (vnet_main_t * vnm, vlib_main_t * vm,
602                              vhost_user_intf_details_t **out_vuids);
603
604 u32 dpdk_get_admin_up_down_in_progress (void);
605
606 u32 dpdk_num_mbufs (void);
607
608 int dpdk_io_thread_release (void);
609
610 dpdk_pmd_t dpdk_get_pmd_type (vnet_hw_interface_t *hi);
611
612 i8 dpdk_get_cpu_socket (vnet_hw_interface_t *hi);
613
614 void * dpdk_input_multiarch_select();
615 void * dpdk_input_rss_multiarch_select();
616 void * dpdk_input_efd_multiarch_select();
617
618 clib_error_t*
619 dpdk_get_hw_interface_stats (u32 hw_if_index, struct rte_eth_stats* dest);
620
621 format_function_t format_dpdk_device_name;
622 format_function_t format_dpdk_device;
623 format_function_t format_dpdk_tx_dma_trace;
624 format_function_t format_dpdk_rx_dma_trace;
625 format_function_t format_dpdk_rte_mbuf;
626 format_function_t format_dpdk_rx_rte_mbuf;
627 unformat_function_t unformat_socket_mem;
628
629
630 static inline void
631 dpdk_pmd_constructor_init()
632 {
633   /* Add references to DPDK Driver Constructor functions to get the dynamic
634    * loader to pull in the driver library & run the constructors.
635    */
636 #define _(d)                                            \
637   do {                                                  \
638     void devinitfn_ ##d(void);                          \
639     __attribute__((unused)) void (* volatile pf)(void); \
640     pf = devinitfn_ ##d;                                \
641   } while(0);
642
643 #ifdef RTE_LIBRTE_EM_PMD
644   _(em_pmd_drv)
645 #endif
646
647 #ifdef RTE_LIBRTE_IGB_PMD
648   _(pmd_igb_drv)
649 #endif
650
651 #ifdef RTE_LIBRTE_IXGBE_PMD
652   _(rte_ixgbe_driver)
653 #endif
654
655 #ifdef RTE_LIBRTE_I40E_PMD
656   _(rte_i40e_driver)
657   _(rte_i40evf_driver)
658 #endif
659
660 #ifdef RTE_LIBRTE_FM10K_PMD
661   _(rte_fm10k_driver)
662 #endif
663
664 #ifdef RTE_LIBRTE_VIRTIO_PMD
665   _(rte_virtio_driver)
666 #endif
667
668 #ifdef RTE_LIBRTE_VMXNET3_PMD
669   _(rte_vmxnet3_driver)
670 #endif
671
672 #ifdef RTE_LIBRTE_VICE_PMD
673   _(rte_vice_driver)
674 #endif
675
676 #ifdef RTE_LIBRTE_ENIC_PMD
677   _(rte_enic_driver)
678 #endif
679
680 #ifdef RTE_LIBRTE_PMD_AF_PACKET
681   _(pmd_af_packet_drv)
682 #endif
683
684 #ifdef RTE_LIBRTE_CXGBE_PMD
685   _(rte_cxgbe_driver)
686 #endif
687
688 #ifdef RTE_LIBRTE_PMD_BOND
689   _(bond_drv)
690 #endif
691
692 #undef _
693
694 /*
695  * At the moment, the ThunderX NIC driver doesn't have
696  * an entry point named "devinitfn_rte_xxx_driver"
697  */
698 #define _(d)                                          \
699   do {                                                  \
700     void d(void);                                             \
701     __attribute__((unused)) void (* volatile pf)(void); \
702     pf = d;                                           \
703   } while(0);
704
705 #ifdef RTE_LIBRTE_THUNDERVNIC_PMD
706   _(rte_nicvf_pmd_init)
707 #endif
708 #undef _
709
710 }
711
712 uword
713 admin_up_down_process (vlib_main_t * vm,
714                        vlib_node_runtime_t * rt,
715                        vlib_frame_t * f);
716
717 #endif /* __included_dpdk_h__ */