dpdk: cleanup MTU handling
[vpp.git] / src / plugins / dpdk / device / common.c
1 /*
2  * Copyright (c) 2017 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 #include <vnet/vnet.h>
17 #include <vppinfra/vec.h>
18 #include <vppinfra/format.h>
19 #include <vppinfra/file.h>
20 #include <vlib/unix/unix.h>
21 #include <assert.h>
22
23 #include <vnet/ip/ip.h>
24 #include <vnet/ethernet/ethernet.h>
25 #include <vnet/ethernet/arp_packet.h>
26 #include <vnet/interface/rx_queue_funcs.h>
27 #include <dpdk/buffer.h>
28 #include <dpdk/device/dpdk.h>
29 #include <dpdk/device/dpdk_priv.h>
30 #include <vppinfra/error.h>
31
32 void
33 dpdk_device_error (dpdk_device_t * xd, char *str, int rv)
34 {
35   dpdk_log_err ("Interface %U error %d: %s",
36                 format_dpdk_device_name, xd->port_id, rv, rte_strerror (rv));
37   xd->errors = clib_error_return (xd->errors, "%s[port:%d, errno:%d]: %s",
38                                   str, xd->port_id, rv, rte_strerror (rv));
39 }
40
41 void
42 dpdk_device_setup (dpdk_device_t * xd)
43 {
44   vlib_main_t *vm = vlib_get_main ();
45   vnet_main_t *vnm = vnet_get_main ();
46   vlib_thread_main_t *tm = vlib_get_thread_main ();
47   vnet_sw_interface_t *sw = vnet_get_sw_interface (vnm, xd->sw_if_index);
48   vnet_hw_interface_t *hi = vnet_get_hw_interface (vnm, xd->hw_if_index);
49   struct rte_eth_dev_info dev_info;
50   u64 bitmap;
51   u16 mtu;
52   int rv;
53   int j;
54
55   ASSERT (vlib_get_thread_index () == 0);
56
57   clib_error_free (xd->errors);
58   sw->flags &= ~VNET_SW_INTERFACE_FLAG_ERROR;
59
60   if (xd->flags & DPDK_DEVICE_FLAG_ADMIN_UP)
61     {
62       vnet_hw_interface_set_flags (vnm, xd->hw_if_index, 0);
63       dpdk_device_stop (xd);
64     }
65
66   /* Enable flow director when flows exist */
67   if (xd->pmd == VNET_DPDK_PMD_I40E)
68     {
69       if ((xd->flags & DPDK_DEVICE_FLAG_RX_FLOW_OFFLOAD) != 0)
70         xd->port_conf.fdir_conf.mode = RTE_FDIR_MODE_PERFECT;
71       else
72         xd->port_conf.fdir_conf.mode = RTE_FDIR_MODE_NONE;
73     }
74
75   rte_eth_dev_info_get (xd->port_id, &dev_info);
76
77   bitmap = xd->port_conf.txmode.offloads & ~dev_info.tx_offload_capa;
78   if (bitmap)
79     {
80       dpdk_log_warn ("unsupported tx offloads requested on port %u: %U",
81                      xd->port_id, format_dpdk_tx_offload_caps, bitmap);
82       xd->port_conf.txmode.offloads ^= bitmap;
83     }
84
85   bitmap = xd->port_conf.rxmode.offloads & ~dev_info.rx_offload_capa;
86   if (bitmap)
87     {
88       dpdk_log_warn ("unsupported rx offloads requested on port %u: %U",
89                      xd->port_id, format_dpdk_rx_offload_caps, bitmap);
90       xd->port_conf.rxmode.offloads ^= bitmap;
91     }
92
93   if (xd->port_conf.rxmode.offloads & DEV_RX_OFFLOAD_JUMBO_FRAME)
94     xd->port_conf.rxmode.max_rx_pkt_len =
95       clib_min (ETHERNET_MAX_PACKET_BYTES, dev_info.max_rx_pktlen);
96   else
97     xd->port_conf.rxmode.max_rx_pkt_len = 0;
98
99   rv = rte_eth_dev_configure (xd->port_id, xd->conf.n_rx_queues,
100                               xd->conf.n_tx_queues, &xd->port_conf);
101
102   if (rv < 0)
103     {
104       dpdk_device_error (xd, "rte_eth_dev_configure", rv);
105       goto error;
106     }
107
108   rte_eth_dev_get_mtu (xd->port_id, &mtu);
109   dpdk_log_debug ("[%u] device default mtu %u", xd->port_id, mtu);
110
111   hi->max_supported_packet_bytes = mtu;
112   if (hi->max_packet_bytes > mtu)
113     {
114       vnet_hw_interface_set_mtu (vnm, xd->hw_if_index, mtu);
115     }
116   else
117     {
118       rte_eth_dev_set_mtu (xd->port_id, hi->max_packet_bytes);
119       dpdk_log_debug ("[%u] port mtu set to %u", xd->port_id,
120                       hi->max_packet_bytes);
121     }
122
123   vec_validate_aligned (xd->tx_queues, xd->conf.n_tx_queues - 1,
124                         CLIB_CACHE_LINE_BYTES);
125   for (j = 0; j < xd->conf.n_tx_queues; j++)
126     {
127       rv = rte_eth_tx_queue_setup (xd->port_id, j, xd->conf.n_tx_desc,
128                                    xd->cpu_socket, 0);
129
130       /* retry with any other CPU socket */
131       if (rv < 0)
132         rv = rte_eth_tx_queue_setup (xd->port_id, j, xd->conf.n_tx_desc,
133                                      SOCKET_ID_ANY, 0);
134       if (rv < 0)
135         dpdk_device_error (xd, "rte_eth_tx_queue_setup", rv);
136
137       if (xd->conf.n_tx_queues < tm->n_vlib_mains)
138         clib_spinlock_init (&vec_elt (xd->tx_queues, j).lock);
139     }
140
141   vec_validate_aligned (xd->rx_queues, xd->conf.n_rx_queues - 1,
142                         CLIB_CACHE_LINE_BYTES);
143
144   for (j = 0; j < xd->conf.n_rx_queues; j++)
145     {
146       dpdk_rx_queue_t *rxq = vec_elt_at_index (xd->rx_queues, j);
147       u8 bpidx = vlib_buffer_pool_get_default_for_numa (
148         vm, vnet_hw_if_get_rx_queue_numa_node (vnm, rxq->queue_index));
149       vlib_buffer_pool_t *bp = vlib_get_buffer_pool (vm, bpidx);
150       struct rte_mempool *mp = dpdk_mempool_by_buffer_pool_index[bpidx];
151
152       rv = rte_eth_rx_queue_setup (xd->port_id, j, xd->conf.n_rx_desc,
153                                    xd->cpu_socket, 0, mp);
154
155       /* retry with any other CPU socket */
156       if (rv < 0)
157         rv = rte_eth_rx_queue_setup (xd->port_id, j, xd->conf.n_rx_desc,
158                                      SOCKET_ID_ANY, 0, mp);
159
160       rxq->buffer_pool_index = bp->index;
161
162       if (rv < 0)
163         dpdk_device_error (xd, "rte_eth_rx_queue_setup", rv);
164     }
165
166   if (vec_len (xd->errors))
167     goto error;
168
169   xd->buffer_flags =
170     (VLIB_BUFFER_TOTAL_LENGTH_VALID | VLIB_BUFFER_EXT_HDR_VALID);
171
172   if ((xd->port_conf.rxmode.offloads &
173        (DEV_RX_OFFLOAD_TCP_CKSUM | DEV_RX_OFFLOAD_UDP_CKSUM)) ==
174       (DEV_RX_OFFLOAD_TCP_CKSUM | DEV_RX_OFFLOAD_UDP_CKSUM))
175     xd->buffer_flags |=
176       (VNET_BUFFER_F_L4_CHECKSUM_COMPUTED | VNET_BUFFER_F_L4_CHECKSUM_CORRECT);
177
178   if (xd->flags & DPDK_DEVICE_FLAG_ADMIN_UP)
179     dpdk_device_start (xd);
180
181   if (vec_len (xd->errors))
182     goto error;
183
184   return;
185
186 error:
187   xd->flags |= DPDK_DEVICE_FLAG_PMD_INIT_FAIL;
188   sw->flags |= VNET_SW_INTERFACE_FLAG_ERROR;
189 }
190
191 static clib_error_t *
192 dpdk_rx_read_ready (clib_file_t *uf)
193 {
194   vnet_main_t *vnm = vnet_get_main ();
195   dpdk_main_t *dm = &dpdk_main;
196   u32 qidx = uf->private_data;
197   vnet_hw_if_rx_queue_t *rxq = vnet_hw_if_get_rx_queue (vnm, qidx);
198   dpdk_device_t *xd = vec_elt_at_index (dm->devices, rxq->dev_instance);
199
200   u64 b;
201   CLIB_UNUSED (ssize_t size) = read (uf->file_descriptor, &b, sizeof (b));
202   if (rxq->mode != VNET_HW_IF_RX_MODE_POLLING)
203     {
204       vnet_hw_if_rx_queue_set_int_pending (vnm, uf->private_data);
205       rte_eth_dev_rx_intr_enable (xd->port_id, rxq->queue_id);
206     }
207
208   return 0;
209 }
210
211 static void
212 dpdk_setup_interrupts (dpdk_device_t *xd)
213 {
214   vnet_main_t *vnm = vnet_get_main ();
215   vnet_hw_interface_t *hi = vnet_get_hw_interface (vnm, xd->hw_if_index);
216   if (!hi)
217     return;
218
219   if (!xd->port_conf.intr_conf.rxq)
220     return;
221
222   /* Probe for interrupt support */
223   if (rte_eth_dev_rx_intr_enable (xd->port_id, 0))
224     {
225       dpdk_log_info ("probe for interrupt mode for device %U. Failed.\n",
226                      format_dpdk_device_name, xd->port_id);
227     }
228   else
229     {
230       xd->flags |= DPDK_DEVICE_FLAG_INT_SUPPORTED;
231       if (!(xd->flags & DPDK_DEVICE_FLAG_INT_UNMASKABLE))
232         rte_eth_dev_rx_intr_disable (xd->port_id, 0);
233       dpdk_log_info ("Probe for interrupt mode for device %U. Success.\n",
234                      format_dpdk_device_name, xd->port_id);
235     }
236
237   if (xd->flags & DPDK_DEVICE_FLAG_INT_SUPPORTED)
238     {
239       hi->caps |= VNET_HW_IF_CAP_INT_MODE;
240       for (int q = 0; q < xd->conf.n_rx_queues; q++)
241         {
242           dpdk_rx_queue_t *rxq = vec_elt_at_index (xd->rx_queues, q);
243           clib_file_t f = { 0 };
244           rxq->efd = rte_eth_dev_rx_intr_ctl_q_get_fd (xd->port_id, q);
245           if (rxq->efd < 0)
246             {
247               xd->flags &= ~DPDK_DEVICE_FLAG_INT_SUPPORTED;
248               hi->caps &= ~VNET_HW_IF_CAP_INT_MODE;
249               break;
250             }
251           f.read_function = dpdk_rx_read_ready;
252           f.flags = UNIX_FILE_EVENT_EDGE_TRIGGERED;
253           f.file_descriptor = rxq->efd;
254           f.private_data = rxq->queue_index;
255           f.description =
256             format (0, "%U queue %u", format_dpdk_device_name, xd->port_id, q);
257           rxq->clib_file_index = clib_file_add (&file_main, &f);
258           vnet_hw_if_set_rx_queue_file_index (vnm, rxq->queue_index,
259                                               rxq->clib_file_index);
260           if (xd->flags & DPDK_DEVICE_FLAG_INT_UNMASKABLE)
261             {
262               clib_file_main_t *fm = &file_main;
263               clib_file_t *f =
264                 pool_elt_at_index (fm->file_pool, rxq->clib_file_index);
265               fm->file_update (f, UNIX_FILE_UPDATE_DELETE);
266             }
267         }
268     }
269   vnet_hw_if_update_runtime_data (vnm, xd->hw_if_index);
270 }
271
272 void
273 dpdk_device_start (dpdk_device_t * xd)
274 {
275   int rv;
276
277   if (xd->flags & DPDK_DEVICE_FLAG_PMD_INIT_FAIL)
278     return;
279
280   rv = rte_eth_dev_start (xd->port_id);
281
282   if (rv)
283     {
284       dpdk_device_error (xd, "rte_eth_dev_start", rv);
285       return;
286     }
287
288   dpdk_setup_interrupts (xd);
289
290   if (xd->default_mac_address)
291     rv = rte_eth_dev_default_mac_addr_set (xd->port_id,
292                                            (void *) xd->default_mac_address);
293
294   if (rv)
295     dpdk_device_error (xd, "rte_eth_dev_default_mac_addr_set", rv);
296
297   if (xd->flags & DPDK_DEVICE_FLAG_PROMISC)
298     rte_eth_promiscuous_enable (xd->port_id);
299   else
300     rte_eth_promiscuous_disable (xd->port_id);
301
302   rte_eth_allmulticast_enable (xd->port_id);
303
304   dpdk_log_info ("Interface %U started",
305                  format_dpdk_device_name, xd->port_id);
306 }
307
308 void
309 dpdk_device_stop (dpdk_device_t * xd)
310 {
311   if (xd->flags & DPDK_DEVICE_FLAG_PMD_INIT_FAIL)
312     return;
313
314   rte_eth_allmulticast_disable (xd->port_id);
315   rte_eth_dev_stop (xd->port_id);
316   clib_memset (&xd->link, 0, sizeof (struct rte_eth_link));
317
318   dpdk_log_info ("Interface %U stopped",
319                  format_dpdk_device_name, xd->port_id);
320 }
321
322 void vl_api_force_rpc_call_main_thread (void *fp, u8 * data, u32 data_length);
323
324 always_inline int
325 dpdk_port_state_callback_inline (dpdk_portid_t port_id,
326                                  enum rte_eth_event_type type, void *param)
327 {
328   struct rte_eth_link link;
329
330   RTE_SET_USED (param);
331   if (type != RTE_ETH_EVENT_INTR_LSC)
332     {
333       dpdk_log_info ("Unknown event %d received for port %d", type, port_id);
334       return -1;
335     }
336
337   rte_eth_link_get_nowait (port_id, &link);
338   u8 link_up = link.link_status;
339   if (link_up)
340     dpdk_log_info ("Port %d Link Up - speed %u Mbps - %s",
341                    port_id, (unsigned) link.link_speed,
342                    (link.link_duplex == ETH_LINK_FULL_DUPLEX) ?
343                    "full-duplex" : "half-duplex");
344   else
345     dpdk_log_info ("Port %d Link Down\n\n", port_id);
346
347   return 0;
348 }
349
350 int
351 dpdk_port_state_callback (dpdk_portid_t port_id,
352                           enum rte_eth_event_type type,
353                           void *param,
354                           void *ret_param __attribute__ ((unused)))
355 {
356   return dpdk_port_state_callback_inline (port_id, type, param);
357 }
358
359 /* If this device is PCI return pointer to info, otherwise NULL */
360 struct rte_pci_device *
361 dpdk_get_pci_device (const struct rte_eth_dev_info *info)
362 {
363   const struct rte_bus *bus;
364
365   bus = rte_bus_find_by_device (info->device);
366   if (bus && !strcmp (bus->name, "pci"))
367     return RTE_DEV_TO_PCI (info->device);
368   else
369     return NULL;
370 }
371
372 /* If this device is VMBUS return pointer to info, otherwise NULL */
373 struct rte_vmbus_device *
374 dpdk_get_vmbus_device (const struct rte_eth_dev_info *info)
375 {
376   const struct rte_bus *bus;
377
378   bus = rte_bus_find_by_device (info->device);
379   if (bus && !strcmp (bus->name, "vmbus"))
380     return container_of (info->device, struct rte_vmbus_device, device);
381   else
382     return NULL;
383 }
384
385 /*
386  * fd.io coding-style-patch-verification: ON
387  *
388  * Local Variables:
389  * eval: (c-set-style "gnu")
390  * End:
391  */