dpdk: interface capabilities cleanup
[vpp.git] / src / plugins / dpdk / device / common.c
1 /*
2  * Copyright (c) 2017 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 #include <vnet/vnet.h>
17 #include <vppinfra/vec.h>
18 #include <vppinfra/format.h>
19 #include <vppinfra/file.h>
20 #include <vlib/unix/unix.h>
21 #include <assert.h>
22
23 #include <vnet/ip/ip.h>
24 #include <vnet/ethernet/ethernet.h>
25 #include <vnet/ethernet/arp_packet.h>
26 #include <vnet/interface/rx_queue_funcs.h>
27 #include <dpdk/buffer.h>
28 #include <dpdk/device/dpdk.h>
29 #include <dpdk/device/dpdk_priv.h>
30 #include <vppinfra/error.h>
31
32 /* DPDK TX offload to vnet hw interface caps mapppings */
33 static struct
34 {
35   u64 offload;
36   vnet_hw_if_caps_t caps;
37 } tx_off_caps_map[] = {
38   { DEV_TX_OFFLOAD_IPV4_CKSUM, VNET_HW_IF_CAP_TX_IP4_CKSUM },
39   { DEV_TX_OFFLOAD_TCP_CKSUM, VNET_HW_IF_CAP_TX_TCP_CKSUM },
40   { DEV_TX_OFFLOAD_UDP_CKSUM, VNET_HW_IF_CAP_TX_UDP_CKSUM },
41   { DEV_TX_OFFLOAD_OUTER_IPV4_CKSUM, VNET_HW_IF_CAP_TX_IP4_OUTER_CKSUM },
42   { DEV_TX_OFFLOAD_OUTER_UDP_CKSUM, VNET_HW_IF_CAP_TX_UDP_OUTER_CKSUM },
43   { DEV_TX_OFFLOAD_TCP_TSO, VNET_HW_IF_CAP_TCP_GSO },
44   { DEV_TX_OFFLOAD_VXLAN_TNL_TSO, VNET_HW_IF_CAP_VXLAN_TNL_GSO }
45 };
46
47 void
48 dpdk_device_error (dpdk_device_t * xd, char *str, int rv)
49 {
50   dpdk_log_err ("Interface %U error %d: %s",
51                 format_dpdk_device_name, xd->port_id, rv, rte_strerror (rv));
52   xd->errors = clib_error_return (xd->errors, "%s[port:%d, errno:%d]: %s",
53                                   str, xd->port_id, rv, rte_strerror (rv));
54 }
55
56 void
57 dpdk_device_setup (dpdk_device_t * xd)
58 {
59   vlib_main_t *vm = vlib_get_main ();
60   vnet_main_t *vnm = vnet_get_main ();
61   vlib_thread_main_t *tm = vlib_get_thread_main ();
62   vnet_sw_interface_t *sw = vnet_get_sw_interface (vnm, xd->sw_if_index);
63   vnet_hw_interface_t *hi = vnet_get_hw_interface (vnm, xd->hw_if_index);
64   vnet_hw_if_caps_change_t caps = {};
65   struct rte_eth_dev_info dev_info;
66   u64 bitmap;
67   u64 rxo, txo;
68   u16 mtu;
69   int rv;
70   int j;
71
72   ASSERT (vlib_get_thread_index () == 0);
73
74   clib_error_free (xd->errors);
75   sw->flags &= ~VNET_SW_INTERFACE_FLAG_ERROR;
76
77   if (xd->flags & DPDK_DEVICE_FLAG_ADMIN_UP)
78     {
79       vnet_hw_interface_set_flags (vnm, xd->hw_if_index, 0);
80       dpdk_device_stop (xd);
81     }
82
83   /* Enable flow director when flows exist */
84   if (xd->pmd == VNET_DPDK_PMD_I40E)
85     {
86       if ((xd->flags & DPDK_DEVICE_FLAG_RX_FLOW_OFFLOAD) != 0)
87         xd->port_conf.fdir_conf.mode = RTE_FDIR_MODE_PERFECT;
88       else
89         xd->port_conf.fdir_conf.mode = RTE_FDIR_MODE_NONE;
90     }
91
92   rte_eth_dev_info_get (xd->port_id, &dev_info);
93
94   bitmap = xd->port_conf.txmode.offloads & ~dev_info.tx_offload_capa;
95   if (bitmap)
96     {
97       dpdk_log_warn ("unsupported tx offloads requested on port %u: %U",
98                      xd->port_id, format_dpdk_tx_offload_caps, bitmap);
99       xd->port_conf.txmode.offloads ^= bitmap;
100     }
101
102   bitmap = xd->port_conf.rxmode.offloads & ~dev_info.rx_offload_capa;
103   if (bitmap)
104     {
105       dpdk_log_warn ("unsupported rx offloads requested on port %u: %U",
106                      xd->port_id, format_dpdk_rx_offload_caps, bitmap);
107       xd->port_conf.rxmode.offloads ^= bitmap;
108     }
109
110   rxo = xd->port_conf.rxmode.offloads;
111   txo = xd->port_conf.txmode.offloads;
112
113   if (rxo & DEV_RX_OFFLOAD_JUMBO_FRAME)
114     xd->port_conf.rxmode.max_rx_pkt_len =
115       clib_min (ETHERNET_MAX_PACKET_BYTES, dev_info.max_rx_pktlen);
116   else
117     xd->port_conf.rxmode.max_rx_pkt_len = 0;
118
119   rv = rte_eth_dev_configure (xd->port_id, xd->conf.n_rx_queues,
120                               xd->conf.n_tx_queues, &xd->port_conf);
121
122   if (rv < 0)
123     {
124       dpdk_device_error (xd, "rte_eth_dev_configure", rv);
125       goto error;
126     }
127
128   rte_eth_dev_get_mtu (xd->port_id, &mtu);
129   dpdk_log_debug ("[%u] device default mtu %u", xd->port_id, mtu);
130
131   hi->max_supported_packet_bytes = mtu;
132   if (hi->max_packet_bytes > mtu)
133     {
134       vnet_hw_interface_set_mtu (vnm, xd->hw_if_index, mtu);
135     }
136   else
137     {
138       rte_eth_dev_set_mtu (xd->port_id, hi->max_packet_bytes);
139       dpdk_log_debug ("[%u] port mtu set to %u", xd->port_id,
140                       hi->max_packet_bytes);
141     }
142
143   vec_validate_aligned (xd->tx_queues, xd->conf.n_tx_queues - 1,
144                         CLIB_CACHE_LINE_BYTES);
145   for (j = 0; j < xd->conf.n_tx_queues; j++)
146     {
147       rv = rte_eth_tx_queue_setup (xd->port_id, j, xd->conf.n_tx_desc,
148                                    xd->cpu_socket, 0);
149
150       /* retry with any other CPU socket */
151       if (rv < 0)
152         rv = rte_eth_tx_queue_setup (xd->port_id, j, xd->conf.n_tx_desc,
153                                      SOCKET_ID_ANY, 0);
154       if (rv < 0)
155         dpdk_device_error (xd, "rte_eth_tx_queue_setup", rv);
156
157       if (xd->conf.n_tx_queues < tm->n_vlib_mains)
158         clib_spinlock_init (&vec_elt (xd->tx_queues, j).lock);
159     }
160
161   vec_validate_aligned (xd->rx_queues, xd->conf.n_rx_queues - 1,
162                         CLIB_CACHE_LINE_BYTES);
163
164   for (j = 0; j < xd->conf.n_rx_queues; j++)
165     {
166       dpdk_rx_queue_t *rxq = vec_elt_at_index (xd->rx_queues, j);
167       u8 bpidx = vlib_buffer_pool_get_default_for_numa (
168         vm, vnet_hw_if_get_rx_queue_numa_node (vnm, rxq->queue_index));
169       vlib_buffer_pool_t *bp = vlib_get_buffer_pool (vm, bpidx);
170       struct rte_mempool *mp = dpdk_mempool_by_buffer_pool_index[bpidx];
171
172       rv = rte_eth_rx_queue_setup (xd->port_id, j, xd->conf.n_rx_desc,
173                                    xd->cpu_socket, 0, mp);
174
175       /* retry with any other CPU socket */
176       if (rv < 0)
177         rv = rte_eth_rx_queue_setup (xd->port_id, j, xd->conf.n_rx_desc,
178                                      SOCKET_ID_ANY, 0, mp);
179
180       rxq->buffer_pool_index = bp->index;
181
182       if (rv < 0)
183         dpdk_device_error (xd, "rte_eth_rx_queue_setup", rv);
184     }
185
186   if (vec_len (xd->errors))
187     goto error;
188
189   xd->buffer_flags =
190     (VLIB_BUFFER_TOTAL_LENGTH_VALID | VLIB_BUFFER_EXT_HDR_VALID);
191
192   if ((rxo & (DEV_RX_OFFLOAD_TCP_CKSUM | DEV_RX_OFFLOAD_UDP_CKSUM)) ==
193       (DEV_RX_OFFLOAD_TCP_CKSUM | DEV_RX_OFFLOAD_UDP_CKSUM))
194     xd->buffer_flags |=
195       (VNET_BUFFER_F_L4_CHECKSUM_COMPUTED | VNET_BUFFER_F_L4_CHECKSUM_CORRECT);
196
197   /* unconditionally set mac filtering cap */
198   caps.val = caps.mask = VNET_HW_IF_CAP_MAC_FILTER;
199
200   ethernet_set_flags (vnm, xd->hw_if_index,
201                       ETHERNET_INTERFACE_FLAG_DEFAULT_L3);
202
203   for (int i = 0; i < ARRAY_LEN (tx_off_caps_map); i++)
204     {
205       __typeof__ (tx_off_caps_map[0]) *v = tx_off_caps_map + i;
206       caps.mask |= v->caps;
207       if ((v->offload & txo) == v->offload)
208         caps.val |= v->caps;
209     }
210
211   vnet_hw_if_change_caps (vnm, xd->hw_if_index, &caps);
212   xd->enabled_rx_off = rxo;
213   xd->enabled_tx_off = txo;
214
215   if (xd->flags & DPDK_DEVICE_FLAG_ADMIN_UP)
216     dpdk_device_start (xd);
217
218   if (vec_len (xd->errors))
219     goto error;
220
221   return;
222
223 error:
224   xd->flags |= DPDK_DEVICE_FLAG_PMD_INIT_FAIL;
225   sw->flags |= VNET_SW_INTERFACE_FLAG_ERROR;
226 }
227
228 static clib_error_t *
229 dpdk_rx_read_ready (clib_file_t *uf)
230 {
231   vnet_main_t *vnm = vnet_get_main ();
232   dpdk_main_t *dm = &dpdk_main;
233   u32 qidx = uf->private_data;
234   vnet_hw_if_rx_queue_t *rxq = vnet_hw_if_get_rx_queue (vnm, qidx);
235   dpdk_device_t *xd = vec_elt_at_index (dm->devices, rxq->dev_instance);
236
237   u64 b;
238   CLIB_UNUSED (ssize_t size) = read (uf->file_descriptor, &b, sizeof (b));
239   if (rxq->mode != VNET_HW_IF_RX_MODE_POLLING)
240     {
241       vnet_hw_if_rx_queue_set_int_pending (vnm, uf->private_data);
242       rte_eth_dev_rx_intr_enable (xd->port_id, rxq->queue_id);
243     }
244
245   return 0;
246 }
247
248 static void
249 dpdk_setup_interrupts (dpdk_device_t *xd)
250 {
251   vnet_main_t *vnm = vnet_get_main ();
252   vnet_hw_interface_t *hi = vnet_get_hw_interface (vnm, xd->hw_if_index);
253   int int_mode = 0;
254   if (!hi)
255     return;
256
257   if (!xd->port_conf.intr_conf.rxq)
258     return;
259
260   /* Probe for interrupt support */
261   if (rte_eth_dev_rx_intr_enable (xd->port_id, 0))
262     {
263       dpdk_log_info ("probe for interrupt mode for device %U. Failed.\n",
264                      format_dpdk_device_name, xd->port_id);
265     }
266   else
267     {
268       xd->flags |= DPDK_DEVICE_FLAG_INT_SUPPORTED;
269       if (!(xd->flags & DPDK_DEVICE_FLAG_INT_UNMASKABLE))
270         rte_eth_dev_rx_intr_disable (xd->port_id, 0);
271       dpdk_log_info ("Probe for interrupt mode for device %U. Success.\n",
272                      format_dpdk_device_name, xd->port_id);
273     }
274
275   if (xd->flags & DPDK_DEVICE_FLAG_INT_SUPPORTED)
276     {
277       int_mode = 1;
278       for (int q = 0; q < xd->conf.n_rx_queues; q++)
279         {
280           dpdk_rx_queue_t *rxq = vec_elt_at_index (xd->rx_queues, q);
281           clib_file_t f = { 0 };
282           rxq->efd = rte_eth_dev_rx_intr_ctl_q_get_fd (xd->port_id, q);
283           if (rxq->efd < 0)
284             {
285               xd->flags &= ~DPDK_DEVICE_FLAG_INT_SUPPORTED;
286               int_mode = 0;
287               break;
288             }
289           f.read_function = dpdk_rx_read_ready;
290           f.flags = UNIX_FILE_EVENT_EDGE_TRIGGERED;
291           f.file_descriptor = rxq->efd;
292           f.private_data = rxq->queue_index;
293           f.description =
294             format (0, "%U queue %u", format_dpdk_device_name, xd->port_id, q);
295           rxq->clib_file_index = clib_file_add (&file_main, &f);
296           vnet_hw_if_set_rx_queue_file_index (vnm, rxq->queue_index,
297                                               rxq->clib_file_index);
298           if (xd->flags & DPDK_DEVICE_FLAG_INT_UNMASKABLE)
299             {
300               clib_file_main_t *fm = &file_main;
301               clib_file_t *f =
302                 pool_elt_at_index (fm->file_pool, rxq->clib_file_index);
303               fm->file_update (f, UNIX_FILE_UPDATE_DELETE);
304             }
305         }
306     }
307
308   if (int_mode)
309     vnet_hw_if_set_caps (vnm, hi->hw_if_index, VNET_HW_IF_CAP_INT_MODE);
310   else
311     vnet_hw_if_unset_caps (vnm, hi->hw_if_index, VNET_HW_IF_CAP_INT_MODE);
312   vnet_hw_if_update_runtime_data (vnm, xd->hw_if_index);
313 }
314
315 void
316 dpdk_device_start (dpdk_device_t * xd)
317 {
318   int rv;
319
320   if (xd->flags & DPDK_DEVICE_FLAG_PMD_INIT_FAIL)
321     return;
322
323   rv = rte_eth_dev_start (xd->port_id);
324
325   if (rv)
326     {
327       dpdk_device_error (xd, "rte_eth_dev_start", rv);
328       return;
329     }
330
331   dpdk_setup_interrupts (xd);
332
333   if (xd->default_mac_address)
334     rv = rte_eth_dev_default_mac_addr_set (xd->port_id,
335                                            (void *) xd->default_mac_address);
336
337   if (rv)
338     dpdk_device_error (xd, "rte_eth_dev_default_mac_addr_set", rv);
339
340   if (xd->flags & DPDK_DEVICE_FLAG_PROMISC)
341     rte_eth_promiscuous_enable (xd->port_id);
342   else
343     rte_eth_promiscuous_disable (xd->port_id);
344
345   rte_eth_allmulticast_enable (xd->port_id);
346
347   dpdk_log_info ("Interface %U started",
348                  format_dpdk_device_name, xd->port_id);
349 }
350
351 void
352 dpdk_device_stop (dpdk_device_t * xd)
353 {
354   if (xd->flags & DPDK_DEVICE_FLAG_PMD_INIT_FAIL)
355     return;
356
357   rte_eth_allmulticast_disable (xd->port_id);
358   rte_eth_dev_stop (xd->port_id);
359   clib_memset (&xd->link, 0, sizeof (struct rte_eth_link));
360
361   dpdk_log_info ("Interface %U stopped",
362                  format_dpdk_device_name, xd->port_id);
363 }
364
365 void vl_api_force_rpc_call_main_thread (void *fp, u8 * data, u32 data_length);
366
367 always_inline int
368 dpdk_port_state_callback_inline (dpdk_portid_t port_id,
369                                  enum rte_eth_event_type type, void *param)
370 {
371   struct rte_eth_link link;
372
373   RTE_SET_USED (param);
374   if (type != RTE_ETH_EVENT_INTR_LSC)
375     {
376       dpdk_log_info ("Unknown event %d received for port %d", type, port_id);
377       return -1;
378     }
379
380   rte_eth_link_get_nowait (port_id, &link);
381   u8 link_up = link.link_status;
382   if (link_up)
383     dpdk_log_info ("Port %d Link Up - speed %u Mbps - %s",
384                    port_id, (unsigned) link.link_speed,
385                    (link.link_duplex == ETH_LINK_FULL_DUPLEX) ?
386                    "full-duplex" : "half-duplex");
387   else
388     dpdk_log_info ("Port %d Link Down\n\n", port_id);
389
390   return 0;
391 }
392
393 int
394 dpdk_port_state_callback (dpdk_portid_t port_id,
395                           enum rte_eth_event_type type,
396                           void *param,
397                           void *ret_param __attribute__ ((unused)))
398 {
399   return dpdk_port_state_callback_inline (port_id, type, param);
400 }
401
402 /* If this device is PCI return pointer to info, otherwise NULL */
403 struct rte_pci_device *
404 dpdk_get_pci_device (const struct rte_eth_dev_info *info)
405 {
406   const struct rte_bus *bus;
407
408   bus = rte_bus_find_by_device (info->device);
409   if (bus && !strcmp (bus->name, "pci"))
410     return RTE_DEV_TO_PCI (info->device);
411   else
412     return NULL;
413 }
414
415 /* If this device is VMBUS return pointer to info, otherwise NULL */
416 struct rte_vmbus_device *
417 dpdk_get_vmbus_device (const struct rte_eth_dev_info *info)
418 {
419   const struct rte_bus *bus;
420
421   bus = rte_bus_find_by_device (info->device);
422   if (bus && !strcmp (bus->name, "vmbus"))
423     return container_of (info->device, struct rte_vmbus_device, device);
424   else
425     return NULL;
426 }
427
428 /*
429  * fd.io coding-style-patch-verification: ON
430  *
431  * Local Variables:
432  * eval: (c-set-style "gnu")
433  * End:
434  */