New upstream version 18.11-rc1
[deb_dpdk.git] / drivers / net / e1000 / e1000_ethdev.h
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright(c) 2010-2015 Intel Corporation
3  */
4
5 #ifndef _E1000_ETHDEV_H_
6 #define _E1000_ETHDEV_H_
7
8 #include <stdint.h>
9
10 #include <rte_flow.h>
11 #include <rte_time.h>
12 #include <rte_pci.h>
13
14 #define E1000_INTEL_VENDOR_ID 0x8086
15
16 /* need update link, bit flag */
17 #define E1000_FLAG_NEED_LINK_UPDATE (uint32_t)(1 << 0)
18 #define E1000_FLAG_MAILBOX          (uint32_t)(1 << 1)
19
20 /*
21  * Defines that were not part of e1000_hw.h as they are not used by the FreeBSD
22  * driver.
23  */
24 #define E1000_ADVTXD_POPTS_TXSM     0x00000200 /* L4 Checksum offload request */
25 #define E1000_ADVTXD_POPTS_IXSM     0x00000100 /* IP Checksum offload request */
26 #define E1000_ADVTXD_TUCMD_L4T_RSV  0x00001800 /* L4 Packet TYPE of Reserved */
27 #define E1000_RXD_STAT_TMST         0x10000    /* Timestamped Packet indication */
28 #define E1000_RXD_ERR_CKSUM_BIT     29
29 #define E1000_RXD_ERR_CKSUM_MSK     3
30 #define E1000_ADVTXD_MACLEN_SHIFT   9          /* Bit shift for l2_len */
31 #define E1000_CTRL_EXT_EXTEND_VLAN  (1<<26)    /* EXTENDED VLAN */
32 #define IGB_VFTA_SIZE 128
33
34 #define IGB_HKEY_MAX_INDEX             10
35 #define IGB_MAX_RX_QUEUE_NUM           8
36 #define IGB_MAX_RX_QUEUE_NUM_82576     16
37
38 #define E1000_SYN_FILTER_ENABLE        0x00000001 /* syn filter enable field */
39 #define E1000_SYN_FILTER_QUEUE         0x0000000E /* syn filter queue field */
40 #define E1000_SYN_FILTER_QUEUE_SHIFT   1          /* syn filter queue field */
41 #define E1000_RFCTL_SYNQFP             0x00080000 /* SYNQFP in RFCTL register */
42
43 #define E1000_ETQF_ETHERTYPE           0x0000FFFF
44 #define E1000_ETQF_QUEUE               0x00070000
45 #define E1000_ETQF_QUEUE_SHIFT         16
46 #define E1000_MAX_ETQF_FILTERS         8
47
48 #define E1000_IMIR_DSTPORT             0x0000FFFF
49 #define E1000_IMIR_PRIORITY            0xE0000000
50 #define E1000_MAX_TTQF_FILTERS         8
51 #define E1000_2TUPLE_MAX_PRI           7
52
53 #define E1000_MAX_FLEX_FILTERS           8
54 #define E1000_MAX_FHFT                   4
55 #define E1000_MAX_FHFT_EXT               4
56 #define E1000_FHFT_SIZE_IN_DWD           64
57 #define E1000_MAX_FLEX_FILTER_PRI        7
58 #define E1000_MAX_FLEX_FILTER_LEN        128
59 #define E1000_MAX_FLEX_FILTER_DWDS \
60         (E1000_MAX_FLEX_FILTER_LEN / sizeof(uint32_t))
61 #define E1000_FLEX_FILTERS_MASK_SIZE \
62         (E1000_MAX_FLEX_FILTER_DWDS / 2)
63 #define E1000_FHFT_QUEUEING_LEN          0x0000007F
64 #define E1000_FHFT_QUEUEING_QUEUE        0x00000700
65 #define E1000_FHFT_QUEUEING_PRIO         0x00070000
66 #define E1000_FHFT_QUEUEING_OFFSET       0xFC
67 #define E1000_FHFT_QUEUEING_QUEUE_SHIFT  8
68 #define E1000_FHFT_QUEUEING_PRIO_SHIFT   16
69 #define E1000_WUFC_FLEX_HQ               0x00004000
70
71 #define E1000_SPQF_SRCPORT               0x0000FFFF
72
73 #define E1000_MAX_FTQF_FILTERS           8
74 #define E1000_FTQF_PROTOCOL_MASK         0x000000FF
75 #define E1000_FTQF_5TUPLE_MASK_SHIFT     28
76 #define E1000_FTQF_QUEUE_MASK            0x03ff0000
77 #define E1000_FTQF_QUEUE_SHIFT           16
78 #define E1000_FTQF_QUEUE_ENABLE          0x00000100
79
80 #define IGB_RSS_OFFLOAD_ALL ( \
81         ETH_RSS_IPV4 | \
82         ETH_RSS_NONFRAG_IPV4_TCP | \
83         ETH_RSS_NONFRAG_IPV4_UDP | \
84         ETH_RSS_IPV6 | \
85         ETH_RSS_NONFRAG_IPV6_TCP | \
86         ETH_RSS_NONFRAG_IPV6_UDP | \
87         ETH_RSS_IPV6_EX | \
88         ETH_RSS_IPV6_TCP_EX | \
89         ETH_RSS_IPV6_UDP_EX)
90
91 /*
92  * Maximum number of Ring Descriptors.
93  *
94  * Since RDLEN/TDLEN should be multiple of 128 bytes, the number of ring
95  * desscriptors should meet the following condition:
96  * (num_ring_desc * sizeof(struct e1000_rx/tx_desc)) % 128 == 0
97  */
98 #define E1000_MIN_RING_DESC     32
99 #define E1000_MAX_RING_DESC     4096
100
101 /*
102  * TDBA/RDBA should be aligned on 16 byte boundary. But TDLEN/RDLEN should be
103  * multiple of 128 bytes. So we align TDBA/RDBA on 128 byte boundary.
104  * This will also optimize cache line size effect.
105  * H/W supports up to cache line size 128.
106  */
107 #define E1000_ALIGN     128
108
109 #define IGB_RXD_ALIGN   (E1000_ALIGN / sizeof(union e1000_adv_rx_desc))
110 #define IGB_TXD_ALIGN   (E1000_ALIGN / sizeof(union e1000_adv_tx_desc))
111
112 #define EM_RXD_ALIGN    (E1000_ALIGN / sizeof(struct e1000_rx_desc))
113 #define EM_TXD_ALIGN    (E1000_ALIGN / sizeof(struct e1000_data_desc))
114
115 #define E1000_MISC_VEC_ID               RTE_INTR_VEC_ZERO_OFFSET
116 #define E1000_RX_VEC_START              RTE_INTR_VEC_RXTX_OFFSET
117
118 #define IGB_TX_MAX_SEG     UINT8_MAX
119 #define IGB_TX_MAX_MTU_SEG UINT8_MAX
120 #define EM_TX_MAX_SEG      UINT8_MAX
121 #define EM_TX_MAX_MTU_SEG  UINT8_MAX
122
123 #define MAC_TYPE_FILTER_SUP(type)    do {\
124         if ((type) != e1000_82580 && (type) != e1000_i350 &&\
125                 (type) != e1000_82576 && (type) != e1000_i210 &&\
126                 (type) != e1000_i211)\
127                 return -ENOTSUP;\
128 } while (0)
129
130 #define MAC_TYPE_FILTER_SUP_EXT(type)    do {\
131         if ((type) != e1000_82580 && (type) != e1000_i350 &&\
132                 (type) != e1000_i210 && (type) != e1000_i211)\
133                 return -ENOTSUP; \
134 } while (0)
135
136 /* structure for interrupt relative data */
137 struct e1000_interrupt {
138         uint32_t flags;
139         uint32_t mask;
140 };
141
142 /* local vfta copy */
143 struct e1000_vfta {
144         uint32_t vfta[IGB_VFTA_SIZE];
145 };
146
147 /*
148  * VF data which used by PF host only
149  */
150 #define E1000_MAX_VF_MC_ENTRIES         30
151 struct e1000_vf_info {
152         uint8_t vf_mac_addresses[ETHER_ADDR_LEN];
153         uint16_t vf_mc_hashes[E1000_MAX_VF_MC_ENTRIES];
154         uint16_t num_vf_mc_hashes;
155         uint16_t default_vf_vlan_id;
156         uint16_t vlans_enabled;
157         uint16_t pf_qos;
158         uint16_t vlan_count;
159         uint16_t tx_rate;
160 };
161
162 TAILQ_HEAD(e1000_flex_filter_list, e1000_flex_filter);
163
164 struct e1000_flex_filter_info {
165         uint16_t len;
166         uint32_t dwords[E1000_MAX_FLEX_FILTER_DWDS]; /* flex bytes in dword. */
167         /* if mask bit is 1b, do not compare corresponding byte in dwords. */
168         uint8_t mask[E1000_FLEX_FILTERS_MASK_SIZE];
169         uint8_t priority;
170 };
171
172 /* Flex filter structure */
173 struct e1000_flex_filter {
174         TAILQ_ENTRY(e1000_flex_filter) entries;
175         uint16_t index; /* index of flex filter */
176         struct e1000_flex_filter_info filter_info;
177         uint16_t queue; /* rx queue assigned to */
178 };
179
180 TAILQ_HEAD(e1000_5tuple_filter_list, e1000_5tuple_filter);
181 TAILQ_HEAD(e1000_2tuple_filter_list, e1000_2tuple_filter);
182
183 struct e1000_5tuple_filter_info {
184         uint32_t dst_ip;
185         uint32_t src_ip;
186         uint16_t dst_port;
187         uint16_t src_port;
188         uint8_t proto;           /* l4 protocol. */
189         /* the packet matched above 5tuple and contain any set bit will hit this filter. */
190         uint8_t tcp_flags;
191         uint8_t priority;        /* seven levels (001b-111b), 111b is highest,
192                                       used when more than one filter matches. */
193         uint8_t dst_ip_mask:1,   /* if mask is 1b, do not compare dst ip. */
194                 src_ip_mask:1,   /* if mask is 1b, do not compare src ip. */
195                 dst_port_mask:1, /* if mask is 1b, do not compare dst port. */
196                 src_port_mask:1, /* if mask is 1b, do not compare src port. */
197                 proto_mask:1;    /* if mask is 1b, do not compare protocol. */
198 };
199
200 struct e1000_2tuple_filter_info {
201         uint16_t dst_port;
202         uint8_t proto;           /* l4 protocol. */
203         /* the packet matched above 2tuple and contain any set bit will hit this filter. */
204         uint8_t tcp_flags;
205         uint8_t priority;        /* seven levels (001b-111b), 111b is highest,
206                                       used when more than one filter matches. */
207         uint8_t dst_ip_mask:1,   /* if mask is 1b, do not compare dst ip. */
208                 src_ip_mask:1,   /* if mask is 1b, do not compare src ip. */
209                 dst_port_mask:1, /* if mask is 1b, do not compare dst port. */
210                 src_port_mask:1, /* if mask is 1b, do not compare src port. */
211                 proto_mask:1;    /* if mask is 1b, do not compare protocol. */
212 };
213
214 /* 5tuple filter structure */
215 struct e1000_5tuple_filter {
216         TAILQ_ENTRY(e1000_5tuple_filter) entries;
217         uint16_t index;       /* the index of 5tuple filter */
218         struct e1000_5tuple_filter_info filter_info;
219         uint16_t queue;       /* rx queue assigned to */
220 };
221
222 /* 2tuple filter structure */
223 struct e1000_2tuple_filter {
224         TAILQ_ENTRY(e1000_2tuple_filter) entries;
225         uint16_t index;         /* the index of 2tuple filter */
226         struct e1000_2tuple_filter_info filter_info;
227         uint16_t queue;       /* rx queue assigned to */
228 };
229
230 /* ethertype filter structure */
231 struct igb_ethertype_filter {
232         uint16_t ethertype;
233         uint32_t etqf;
234 };
235
236 struct igb_rte_flow_rss_conf {
237         struct rte_flow_action_rss conf; /**< RSS parameters. */
238         uint8_t key[IGB_HKEY_MAX_INDEX * sizeof(uint32_t)]; /* Hash key. */
239         /* Queues indices to use. */
240         uint16_t queue[IGB_MAX_RX_QUEUE_NUM_82576];
241 };
242
243 /*
244  * Structure to store filters'info.
245  */
246 struct e1000_filter_info {
247         uint8_t ethertype_mask; /* Bit mask for every used ethertype filter */
248         /* store used ethertype filters*/
249         struct igb_ethertype_filter ethertype_filters[E1000_MAX_ETQF_FILTERS];
250         uint8_t flex_mask;      /* Bit mask for every used flex filter */
251         struct e1000_flex_filter_list flex_list;
252         /* Bit mask for every used 5tuple filter */
253         uint8_t fivetuple_mask;
254         struct e1000_5tuple_filter_list fivetuple_list;
255         /* Bit mask for every used 2tuple filter */
256         uint8_t twotuple_mask;
257         struct e1000_2tuple_filter_list twotuple_list;
258         /* store the SYN filter info */
259         uint32_t syn_info;
260         /* store the rss filter info */
261         struct igb_rte_flow_rss_conf rss_info;
262 };
263
264 /*
265  * Structure to store private data for each driver instance (for each port).
266  */
267 struct e1000_adapter {
268         struct e1000_hw         hw;
269         struct e1000_hw_stats   stats;
270         struct e1000_interrupt  intr;
271         struct e1000_vfta       shadow_vfta;
272         struct e1000_vf_info    *vfdata;
273         struct e1000_filter_info filter;
274         bool stopped;
275         struct rte_timecounter  systime_tc;
276         struct rte_timecounter  rx_tstamp_tc;
277         struct rte_timecounter  tx_tstamp_tc;
278 };
279
280 #define E1000_DEV_PRIVATE(adapter) \
281         ((struct e1000_adapter *)adapter)
282
283 #define E1000_DEV_PRIVATE_TO_HW(adapter) \
284         (&((struct e1000_adapter *)adapter)->hw)
285
286 #define E1000_DEV_PRIVATE_TO_STATS(adapter) \
287         (&((struct e1000_adapter *)adapter)->stats)
288
289 #define E1000_DEV_PRIVATE_TO_INTR(adapter) \
290         (&((struct e1000_adapter *)adapter)->intr)
291
292 #define E1000_DEV_PRIVATE_TO_VFTA(adapter) \
293         (&((struct e1000_adapter *)adapter)->shadow_vfta)
294
295 #define E1000_DEV_PRIVATE_TO_P_VFDATA(adapter) \
296         (&((struct e1000_adapter *)adapter)->vfdata)
297
298 #define E1000_DEV_PRIVATE_TO_FILTER_INFO(adapter) \
299         (&((struct e1000_adapter *)adapter)->filter)
300
301 struct rte_flow {
302         enum rte_filter_type filter_type;
303         void *rule;
304 };
305
306 /* ntuple filter list structure */
307 struct igb_ntuple_filter_ele {
308         TAILQ_ENTRY(igb_ntuple_filter_ele) entries;
309         struct rte_eth_ntuple_filter filter_info;
310 };
311
312 /* ethertype filter list structure */
313 struct igb_ethertype_filter_ele {
314         TAILQ_ENTRY(igb_ethertype_filter_ele) entries;
315         struct rte_eth_ethertype_filter filter_info;
316 };
317
318 /* syn filter list structure */
319 struct igb_eth_syn_filter_ele {
320         TAILQ_ENTRY(igb_eth_syn_filter_ele) entries;
321         struct rte_eth_syn_filter filter_info;
322 };
323
324 /* flex filter list structure */
325 struct igb_flex_filter_ele {
326         TAILQ_ENTRY(igb_flex_filter_ele) entries;
327         struct rte_eth_flex_filter filter_info;
328 };
329
330 /* rss filter  list structure */
331 struct igb_rss_conf_ele {
332         TAILQ_ENTRY(igb_rss_conf_ele) entries;
333         struct igb_rte_flow_rss_conf filter_info;
334 };
335
336 /* igb_flow memory list structure */
337 struct igb_flow_mem {
338         TAILQ_ENTRY(igb_flow_mem) entries;
339         struct rte_flow *flow;
340         struct rte_eth_dev *dev;
341 };
342
343 TAILQ_HEAD(igb_ntuple_filter_list, igb_ntuple_filter_ele);
344 struct igb_ntuple_filter_list igb_filter_ntuple_list;
345 TAILQ_HEAD(igb_ethertype_filter_list, igb_ethertype_filter_ele);
346 struct igb_ethertype_filter_list igb_filter_ethertype_list;
347 TAILQ_HEAD(igb_syn_filter_list, igb_eth_syn_filter_ele);
348 struct igb_syn_filter_list igb_filter_syn_list;
349 TAILQ_HEAD(igb_flex_filter_list, igb_flex_filter_ele);
350 struct igb_flex_filter_list igb_filter_flex_list;
351 TAILQ_HEAD(igb_rss_filter_list, igb_rss_conf_ele);
352 struct igb_rss_filter_list igb_filter_rss_list;
353 TAILQ_HEAD(igb_flow_mem_list, igb_flow_mem);
354 struct igb_flow_mem_list igb_flow_list;
355
356 extern const struct rte_flow_ops igb_flow_ops;
357
358 /*
359  * RX/TX IGB function prototypes
360  */
361 void eth_igb_tx_queue_release(void *txq);
362 void eth_igb_rx_queue_release(void *rxq);
363 void igb_dev_clear_queues(struct rte_eth_dev *dev);
364 void igb_dev_free_queues(struct rte_eth_dev *dev);
365
366 uint64_t igb_get_rx_port_offloads_capa(struct rte_eth_dev *dev);
367 uint64_t igb_get_rx_queue_offloads_capa(struct rte_eth_dev *dev);
368
369 int eth_igb_rx_queue_setup(struct rte_eth_dev *dev, uint16_t rx_queue_id,
370                 uint16_t nb_rx_desc, unsigned int socket_id,
371                 const struct rte_eth_rxconf *rx_conf,
372                 struct rte_mempool *mb_pool);
373
374 uint32_t eth_igb_rx_queue_count(struct rte_eth_dev *dev,
375                 uint16_t rx_queue_id);
376
377 int eth_igb_rx_descriptor_done(void *rx_queue, uint16_t offset);
378
379 int eth_igb_rx_descriptor_status(void *rx_queue, uint16_t offset);
380 int eth_igb_tx_descriptor_status(void *tx_queue, uint16_t offset);
381
382 uint64_t igb_get_tx_port_offloads_capa(struct rte_eth_dev *dev);
383 uint64_t igb_get_tx_queue_offloads_capa(struct rte_eth_dev *dev);
384
385 int eth_igb_tx_queue_setup(struct rte_eth_dev *dev, uint16_t tx_queue_id,
386                 uint16_t nb_tx_desc, unsigned int socket_id,
387                 const struct rte_eth_txconf *tx_conf);
388
389 int eth_igb_tx_done_cleanup(void *txq, uint32_t free_cnt);
390
391 int eth_igb_rx_init(struct rte_eth_dev *dev);
392
393 void eth_igb_tx_init(struct rte_eth_dev *dev);
394
395 uint16_t eth_igb_xmit_pkts(void *txq, struct rte_mbuf **tx_pkts,
396                 uint16_t nb_pkts);
397
398 uint16_t eth_igb_prep_pkts(void *txq, struct rte_mbuf **tx_pkts,
399                 uint16_t nb_pkts);
400
401 uint16_t eth_igb_recv_pkts(void *rxq, struct rte_mbuf **rx_pkts,
402                 uint16_t nb_pkts);
403
404 uint16_t eth_igb_recv_scattered_pkts(void *rxq,
405                 struct rte_mbuf **rx_pkts, uint16_t nb_pkts);
406
407 int eth_igb_rss_hash_update(struct rte_eth_dev *dev,
408                             struct rte_eth_rss_conf *rss_conf);
409
410 int eth_igb_rss_hash_conf_get(struct rte_eth_dev *dev,
411                               struct rte_eth_rss_conf *rss_conf);
412
413 int eth_igbvf_rx_init(struct rte_eth_dev *dev);
414
415 void eth_igbvf_tx_init(struct rte_eth_dev *dev);
416
417 /*
418  * misc function prototypes
419  */
420 void igb_pf_host_init(struct rte_eth_dev *eth_dev);
421
422 void igb_pf_mbx_process(struct rte_eth_dev *eth_dev);
423
424 int igb_pf_host_configure(struct rte_eth_dev *eth_dev);
425
426 void igb_rxq_info_get(struct rte_eth_dev *dev, uint16_t queue_id,
427         struct rte_eth_rxq_info *qinfo);
428
429 void igb_txq_info_get(struct rte_eth_dev *dev, uint16_t queue_id,
430         struct rte_eth_txq_info *qinfo);
431
432 uint32_t em_get_max_pktlen(struct rte_eth_dev *dev);
433
434 /*
435  * RX/TX EM function prototypes
436  */
437 void eth_em_tx_queue_release(void *txq);
438 void eth_em_rx_queue_release(void *rxq);
439
440 void em_dev_clear_queues(struct rte_eth_dev *dev);
441 void em_dev_free_queues(struct rte_eth_dev *dev);
442
443 uint64_t em_get_rx_port_offloads_capa(struct rte_eth_dev *dev);
444 uint64_t em_get_rx_queue_offloads_capa(struct rte_eth_dev *dev);
445
446 int eth_em_rx_queue_setup(struct rte_eth_dev *dev, uint16_t rx_queue_id,
447                 uint16_t nb_rx_desc, unsigned int socket_id,
448                 const struct rte_eth_rxconf *rx_conf,
449                 struct rte_mempool *mb_pool);
450
451 uint32_t eth_em_rx_queue_count(struct rte_eth_dev *dev,
452                 uint16_t rx_queue_id);
453
454 int eth_em_rx_descriptor_done(void *rx_queue, uint16_t offset);
455
456 int eth_em_rx_descriptor_status(void *rx_queue, uint16_t offset);
457 int eth_em_tx_descriptor_status(void *tx_queue, uint16_t offset);
458
459 uint64_t em_get_tx_port_offloads_capa(struct rte_eth_dev *dev);
460 uint64_t em_get_tx_queue_offloads_capa(struct rte_eth_dev *dev);
461
462 int eth_em_tx_queue_setup(struct rte_eth_dev *dev, uint16_t tx_queue_id,
463                 uint16_t nb_tx_desc, unsigned int socket_id,
464                 const struct rte_eth_txconf *tx_conf);
465
466 int eth_em_rx_init(struct rte_eth_dev *dev);
467
468 void eth_em_tx_init(struct rte_eth_dev *dev);
469
470 uint16_t eth_em_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts,
471                 uint16_t nb_pkts);
472
473 uint16_t eth_em_prep_pkts(void *txq, struct rte_mbuf **tx_pkts,
474                 uint16_t nb_pkts);
475
476 uint16_t eth_em_recv_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,
477                 uint16_t nb_pkts);
478
479 uint16_t eth_em_recv_scattered_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,
480                 uint16_t nb_pkts);
481
482 void em_rxq_info_get(struct rte_eth_dev *dev, uint16_t queue_id,
483         struct rte_eth_rxq_info *qinfo);
484
485 void em_txq_info_get(struct rte_eth_dev *dev, uint16_t queue_id,
486         struct rte_eth_txq_info *qinfo);
487
488 void igb_pf_host_uninit(struct rte_eth_dev *dev);
489
490 void igb_filterlist_flush(struct rte_eth_dev *dev);
491 int igb_delete_5tuple_filter_82576(struct rte_eth_dev *dev,
492                 struct e1000_5tuple_filter *filter);
493 int igb_delete_2tuple_filter(struct rte_eth_dev *dev,
494                 struct e1000_2tuple_filter *filter);
495 void igb_remove_flex_filter(struct rte_eth_dev *dev,
496                         struct e1000_flex_filter *filter);
497 int igb_ethertype_filter_remove(struct e1000_filter_info *filter_info,
498         uint8_t idx);
499 int igb_add_del_ntuple_filter(struct rte_eth_dev *dev,
500                 struct rte_eth_ntuple_filter *ntuple_filter, bool add);
501 int igb_add_del_ethertype_filter(struct rte_eth_dev *dev,
502                         struct rte_eth_ethertype_filter *filter,
503                         bool add);
504 int eth_igb_syn_filter_set(struct rte_eth_dev *dev,
505                         struct rte_eth_syn_filter *filter,
506                         bool add);
507 int eth_igb_add_del_flex_filter(struct rte_eth_dev *dev,
508                         struct rte_eth_flex_filter *filter,
509                         bool add);
510 int igb_rss_conf_init(struct rte_eth_dev *dev,
511                       struct igb_rte_flow_rss_conf *out,
512                       const struct rte_flow_action_rss *in);
513 int igb_action_rss_same(const struct rte_flow_action_rss *comp,
514                         const struct rte_flow_action_rss *with);
515 int igb_config_rss_filter(struct rte_eth_dev *dev,
516                         struct igb_rte_flow_rss_conf *conf,
517                         bool add);
518
519 #endif /* _E1000_ETHDEV_H_ */