dpdk: implement interrupt mode
[vpp.git] / src / plugins / dpdk / device / common.c
1 /*
2  * Copyright (c) 2017 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 #include <vnet/vnet.h>
17 #include <vppinfra/vec.h>
18 #include <vppinfra/format.h>
19 #include <vppinfra/file.h>
20 #include <vlib/unix/unix.h>
21 #include <assert.h>
22
23 #include <vnet/ip/ip.h>
24 #include <vnet/ethernet/ethernet.h>
25 #include <vnet/ethernet/arp_packet.h>
26 #include <vnet/interface/rx_queue_funcs.h>
27 #include <dpdk/buffer.h>
28 #include <dpdk/device/dpdk.h>
29 #include <dpdk/device/dpdk_priv.h>
30 #include <vppinfra/error.h>
31
32 void
33 dpdk_device_error (dpdk_device_t * xd, char *str, int rv)
34 {
35   dpdk_log_err ("Interface %U error %d: %s",
36                 format_dpdk_device_name, xd->port_id, rv, rte_strerror (rv));
37   xd->errors = clib_error_return (xd->errors, "%s[port:%d, errno:%d]: %s",
38                                   str, xd->port_id, rv, rte_strerror (rv));
39 }
40
41 void
42 dpdk_device_setup (dpdk_device_t * xd)
43 {
44   dpdk_main_t *dm = &dpdk_main;
45   vlib_main_t *vm = vlib_get_main ();
46   vnet_main_t *vnm = vnet_get_main ();
47   vlib_thread_main_t *tm = vlib_get_thread_main ();
48   vnet_sw_interface_t *sw = vnet_get_sw_interface (vnm, xd->sw_if_index);
49   vnet_hw_interface_t *hi = vnet_get_hw_interface (vnm, xd->hw_if_index);
50   struct rte_eth_dev_info dev_info;
51   u64 bitmap;
52   int rv;
53   int j;
54
55   ASSERT (vlib_get_thread_index () == 0);
56
57   clib_error_free (xd->errors);
58   sw->flags &= ~VNET_SW_INTERFACE_FLAG_ERROR;
59
60   if (xd->flags & DPDK_DEVICE_FLAG_ADMIN_UP)
61     {
62       vnet_hw_interface_set_flags (dm->vnet_main, xd->hw_if_index, 0);
63       dpdk_device_stop (xd);
64     }
65
66   /* Enable flow director when flows exist */
67   if (xd->pmd == VNET_DPDK_PMD_I40E)
68     {
69       if ((xd->flags & DPDK_DEVICE_FLAG_RX_FLOW_OFFLOAD) != 0)
70         xd->port_conf.fdir_conf.mode = RTE_FDIR_MODE_PERFECT;
71       else
72         xd->port_conf.fdir_conf.mode = RTE_FDIR_MODE_NONE;
73     }
74
75   rte_eth_dev_info_get (xd->port_id, &dev_info);
76
77   bitmap = xd->port_conf.txmode.offloads & ~dev_info.tx_offload_capa;
78   if (bitmap)
79     {
80       dpdk_log_warn ("unsupported tx offloads requested on port %u: %U",
81                      xd->port_id, format_dpdk_tx_offload_caps, bitmap);
82       xd->port_conf.txmode.offloads ^= bitmap;
83     }
84
85   bitmap = xd->port_conf.rxmode.offloads & ~dev_info.rx_offload_capa;
86   if (bitmap)
87     {
88       dpdk_log_warn ("unsupported rx offloads requested on port %u: %U",
89                      xd->port_id, format_dpdk_rx_offload_caps, bitmap);
90       xd->port_conf.rxmode.offloads ^= bitmap;
91     }
92
93   rv = rte_eth_dev_configure (xd->port_id, xd->rx_q_used,
94                               xd->tx_q_used, &xd->port_conf);
95
96   if (rv < 0)
97     {
98       dpdk_device_error (xd, "rte_eth_dev_configure", rv);
99       goto error;
100     }
101
102   vec_validate_aligned (xd->tx_queues, xd->tx_q_used - 1,
103                         CLIB_CACHE_LINE_BYTES);
104   for (j = 0; j < xd->tx_q_used; j++)
105     {
106       rv =
107         rte_eth_tx_queue_setup (xd->port_id, j, xd->nb_tx_desc,
108                                 xd->cpu_socket, &xd->tx_conf);
109
110       /* retry with any other CPU socket */
111       if (rv < 0)
112         rv =
113           rte_eth_tx_queue_setup (xd->port_id, j,
114                                   xd->nb_tx_desc, SOCKET_ID_ANY,
115                                   &xd->tx_conf);
116       if (rv < 0)
117         dpdk_device_error (xd, "rte_eth_tx_queue_setup", rv);
118
119       if (xd->tx_q_used < tm->n_vlib_mains)
120         clib_spinlock_init (&vec_elt (xd->tx_queues, j).lock);
121     }
122
123   vec_validate_aligned (xd->rx_queues, xd->rx_q_used - 1,
124                         CLIB_CACHE_LINE_BYTES);
125   for (j = 0; j < xd->rx_q_used; j++)
126     {
127       dpdk_rx_queue_t *rxq = vec_elt_at_index (xd->rx_queues, j);
128       u8 bpidx = vlib_buffer_pool_get_default_for_numa (
129         vm, vnet_hw_if_get_rx_queue_numa_node (vnm, rxq->queue_index));
130       vlib_buffer_pool_t *bp = vlib_get_buffer_pool (vm, bpidx);
131       struct rte_mempool *mp = dpdk_mempool_by_buffer_pool_index[bpidx];
132
133       rv = rte_eth_rx_queue_setup (xd->port_id, j, xd->nb_rx_desc,
134                                    xd->cpu_socket, 0, mp);
135
136       /* retry with any other CPU socket */
137       if (rv < 0)
138         rv = rte_eth_rx_queue_setup (xd->port_id, j, xd->nb_rx_desc,
139                                      SOCKET_ID_ANY, 0, mp);
140
141       rxq->buffer_pool_index = bp->index;
142
143       if (rv < 0)
144         dpdk_device_error (xd, "rte_eth_rx_queue_setup", rv);
145     }
146
147   if (vec_len (xd->errors))
148     goto error;
149
150   rte_eth_dev_set_mtu (xd->port_id, hi->max_packet_bytes);
151
152   if (xd->flags & DPDK_DEVICE_FLAG_ADMIN_UP)
153     dpdk_device_start (xd);
154
155   if (vec_len (xd->errors))
156     goto error;
157
158   return;
159
160 error:
161   xd->flags |= DPDK_DEVICE_FLAG_PMD_INIT_FAIL;
162   sw->flags |= VNET_SW_INTERFACE_FLAG_ERROR;
163 }
164
165 static clib_error_t *
166 dpdk_rx_read_ready (clib_file_t *uf)
167 {
168   vnet_main_t *vnm = vnet_get_main ();
169   dpdk_main_t *dm = &dpdk_main;
170   u32 qidx = uf->private_data;
171   vnet_hw_if_rx_queue_t *rxq = vnet_hw_if_get_rx_queue (vnm, qidx);
172   dpdk_device_t *xd = vec_elt_at_index (dm->devices, rxq->dev_instance);
173
174   u64 b;
175   CLIB_UNUSED (ssize_t size) = read (uf->file_descriptor, &b, sizeof (b));
176   if (rxq->mode != VNET_HW_IF_RX_MODE_POLLING)
177     {
178       vnet_hw_if_rx_queue_set_int_pending (vnm, uf->private_data);
179       rte_eth_dev_rx_intr_enable (xd->port_id, rxq->queue_id);
180     }
181
182   return 0;
183 }
184
185 static void
186 dpdk_setup_interrupts (dpdk_device_t *xd)
187 {
188   vnet_main_t *vnm = vnet_get_main ();
189   vnet_hw_interface_t *hi = vnet_get_hw_interface (vnm, xd->hw_if_index);
190   if (!hi)
191     return;
192
193   if (!xd->port_conf.intr_conf.rxq)
194     return;
195
196   /* Probe for interrupt support */
197   if (rte_eth_dev_rx_intr_enable (xd->port_id, 0))
198     {
199       dpdk_log_info ("probe for interrupt mode for device %U. Failed.\n",
200                      format_dpdk_device_name, xd->port_id);
201     }
202   else
203     {
204       xd->flags |= DPDK_DEVICE_FLAG_INT_SUPPORTED;
205       rte_eth_dev_rx_intr_disable (xd->port_id, 0);
206       dpdk_log_info ("Probe for interrupt mode for device %U. Success.\n",
207                      format_dpdk_device_name, xd->port_id);
208     }
209
210   if (xd->flags & DPDK_DEVICE_FLAG_INT_SUPPORTED)
211     {
212       hi->flags |= VNET_HW_INTERFACE_FLAG_SUPPORTS_INT_MODE;
213       for (int q = 0; q < xd->rx_q_used; q++)
214         {
215           dpdk_rx_queue_t *rxq = vec_elt_at_index (xd->rx_queues, q);
216           clib_file_t f = { 0 };
217           rxq->efd = rte_eth_dev_rx_intr_ctl_q_get_fd (xd->port_id, q);
218           if (rxq->efd < 0)
219             {
220               xd->flags &= ~DPDK_DEVICE_FLAG_INT_SUPPORTED;
221               hi->flags &= ~VNET_HW_INTERFACE_FLAG_SUPPORTS_INT_MODE;
222               break;
223             }
224           f.read_function = dpdk_rx_read_ready;
225           f.flags = UNIX_FILE_EVENT_EDGE_TRIGGERED;
226           f.file_descriptor = rxq->efd;
227           f.private_data = rxq->queue_index;
228           f.description =
229             format (0, "%U queue %u", format_dpdk_device_name, xd->port_id, q);
230           rxq->clib_file_index = clib_file_add (&file_main, &f);
231           vnet_hw_if_set_rx_queue_file_index (vnm, rxq->queue_index,
232                                               rxq->clib_file_index);
233         }
234     }
235   vnet_hw_if_update_runtime_data (vnm, xd->hw_if_index);
236 }
237
238 void
239 dpdk_device_start (dpdk_device_t * xd)
240 {
241   int rv;
242
243   if (xd->flags & DPDK_DEVICE_FLAG_PMD_INIT_FAIL)
244     return;
245
246   rv = rte_eth_dev_start (xd->port_id);
247
248   if (rv)
249     {
250       dpdk_device_error (xd, "rte_eth_dev_start", rv);
251       return;
252     }
253
254   dpdk_setup_interrupts (xd);
255
256   if (xd->default_mac_address)
257     rv = rte_eth_dev_default_mac_addr_set (xd->port_id,
258                                            (void *) xd->default_mac_address);
259
260   if (rv)
261     dpdk_device_error (xd, "rte_eth_dev_default_mac_addr_set", rv);
262
263   if (xd->flags & DPDK_DEVICE_FLAG_PROMISC)
264     rte_eth_promiscuous_enable (xd->port_id);
265   else
266     rte_eth_promiscuous_disable (xd->port_id);
267
268   rte_eth_allmulticast_enable (xd->port_id);
269
270   dpdk_log_info ("Interface %U started",
271                  format_dpdk_device_name, xd->port_id);
272 }
273
274 void
275 dpdk_device_stop (dpdk_device_t * xd)
276 {
277   if (xd->flags & DPDK_DEVICE_FLAG_PMD_INIT_FAIL)
278     return;
279
280   rte_eth_allmulticast_disable (xd->port_id);
281   rte_eth_dev_stop (xd->port_id);
282   clib_memset (&xd->link, 0, sizeof (struct rte_eth_link));
283
284   dpdk_log_info ("Interface %U stopped",
285                  format_dpdk_device_name, xd->port_id);
286 }
287
288 void vl_api_force_rpc_call_main_thread (void *fp, u8 * data, u32 data_length);
289
290 always_inline int
291 dpdk_port_state_callback_inline (dpdk_portid_t port_id,
292                                  enum rte_eth_event_type type, void *param)
293 {
294   struct rte_eth_link link;
295
296   RTE_SET_USED (param);
297   if (type != RTE_ETH_EVENT_INTR_LSC)
298     {
299       dpdk_log_info ("Unknown event %d received for port %d", type, port_id);
300       return -1;
301     }
302
303   rte_eth_link_get_nowait (port_id, &link);
304   u8 link_up = link.link_status;
305   if (link_up)
306     dpdk_log_info ("Port %d Link Up - speed %u Mbps - %s",
307                    port_id, (unsigned) link.link_speed,
308                    (link.link_duplex == ETH_LINK_FULL_DUPLEX) ?
309                    "full-duplex" : "half-duplex");
310   else
311     dpdk_log_info ("Port %d Link Down\n\n", port_id);
312
313   return 0;
314 }
315
316 int
317 dpdk_port_state_callback (dpdk_portid_t port_id,
318                           enum rte_eth_event_type type,
319                           void *param,
320                           void *ret_param __attribute__ ((unused)))
321 {
322   return dpdk_port_state_callback_inline (port_id, type, param);
323 }
324
325 /* If this device is PCI return pointer to info, otherwise NULL */
326 struct rte_pci_device *
327 dpdk_get_pci_device (const struct rte_eth_dev_info *info)
328 {
329   const struct rte_bus *bus;
330
331   bus = rte_bus_find_by_device (info->device);
332   if (bus && !strcmp (bus->name, "pci"))
333     return RTE_DEV_TO_PCI (info->device);
334   else
335     return NULL;
336 }
337
338 /* If this device is VMBUS return pointer to info, otherwise NULL */
339 struct rte_vmbus_device *
340 dpdk_get_vmbus_device (const struct rte_eth_dev_info *info)
341 {
342   const struct rte_bus *bus;
343
344   bus = rte_bus_find_by_device (info->device);
345   if (bus && !strcmp (bus->name, "vmbus"))
346     return container_of (info->device, struct rte_vmbus_device, device);
347   else
348     return NULL;
349 }
350
351 /*
352  * fd.io coding-style-patch-verification: ON
353  *
354  * Local Variables:
355  * eval: (c-set-style "gnu")
356  * End:
357  */