tap: crash in multi-thread environment
[vpp.git] / src / vnet / devices / virtio / virtio.c
1 /*
2  *------------------------------------------------------------------
3  * Copyright (c) 2017 Cisco and/or its affiliates.
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  *------------------------------------------------------------------
16  */
17
18 #include <sys/types.h>
19 #include <sys/stat.h>
20 #include <fcntl.h>
21 #include <net/if.h>
22 #include <linux/if_tun.h>
23 #include <sys/ioctl.h>
24 #include <linux/virtio_net.h>
25 #include <linux/vhost.h>
26 #include <sys/eventfd.h>
27
28 #include <vlib/vlib.h>
29 #include <vlib/pci/pci.h>
30 #include <vlib/unix/unix.h>
31 #include <vnet/ethernet/ethernet.h>
32 #include <vnet/ip/ip4_packet.h>
33 #include <vnet/ip/ip6_packet.h>
34 #include <vnet/devices/virtio/virtio.h>
35 #include <vnet/devices/virtio/pci.h>
36
37 virtio_main_t virtio_main;
38
39 #define _IOCTL(fd,a,...) \
40   if (ioctl (fd, a, __VA_ARGS__) < 0) \
41     { \
42       err = clib_error_return_unix (0, "ioctl(" #a ")"); \
43       goto error; \
44     }
45
46 static clib_error_t *
47 call_read_ready (clib_file_t * uf)
48 {
49   virtio_main_t *nm = &virtio_main;
50   vnet_main_t *vnm = vnet_get_main ();
51   u16 qid = uf->private_data & 0xFFFF;
52   virtio_if_t *vif =
53     vec_elt_at_index (nm->interfaces, uf->private_data >> 16);
54   u64 b;
55
56   CLIB_UNUSED (ssize_t size) = read (uf->file_descriptor, &b, sizeof (b));
57   if ((qid & 1) == 0)
58     vnet_device_input_set_interrupt_pending (vnm, vif->hw_if_index, qid);
59
60   return 0;
61 }
62
63
64 clib_error_t *
65 virtio_vring_init (vlib_main_t * vm, virtio_if_t * vif, u16 idx, u16 sz)
66 {
67   clib_error_t *err = 0;
68   virtio_vring_t *vring;
69   struct vhost_vring_state state = { 0 };
70   struct vhost_vring_addr addr = { 0 };
71   struct vhost_vring_file file = { 0 };
72   clib_file_t t = { 0 };
73   int i;
74
75   if (!is_pow2 (sz))
76     return clib_error_return (0, "ring size must be power of 2");
77
78   if (sz > 32768)
79     return clib_error_return (0, "ring size must be 32768 or lower");
80
81   if (sz == 0)
82     sz = 256;
83
84   if (idx % 2)
85     {
86       vlib_thread_main_t *thm = vlib_get_thread_main ();
87       vec_validate_aligned (vif->txq_vrings, TX_QUEUE_ACCESS (idx),
88                             CLIB_CACHE_LINE_BYTES);
89       vring = vec_elt_at_index (vif->txq_vrings, TX_QUEUE_ACCESS (idx));
90       if (thm->n_vlib_mains > 1)
91         clib_spinlock_init (&vring->lockp);
92     }
93   else
94     {
95       vec_validate_aligned (vif->rxq_vrings, RX_QUEUE_ACCESS (idx),
96                             CLIB_CACHE_LINE_BYTES);
97       vring = vec_elt_at_index (vif->rxq_vrings, RX_QUEUE_ACCESS (idx));
98     }
99   i = sizeof (struct vring_desc) * sz;
100   i = round_pow2 (i, CLIB_CACHE_LINE_BYTES);
101   vring->desc = clib_mem_alloc_aligned (i, CLIB_CACHE_LINE_BYTES);
102   clib_memset (vring->desc, 0, i);
103
104   i = sizeof (struct vring_avail) + sz * sizeof (vring->avail->ring[0]);
105   i = round_pow2 (i, CLIB_CACHE_LINE_BYTES);
106   vring->avail = clib_mem_alloc_aligned (i, CLIB_CACHE_LINE_BYTES);
107   clib_memset (vring->avail, 0, i);
108   // tell kernel that we don't need interrupt
109   vring->avail->flags = VIRTIO_RING_FLAG_MASK_INT;
110
111   i = sizeof (struct vring_used) + sz * sizeof (struct vring_used_elem);
112   i = round_pow2 (i, CLIB_CACHE_LINE_BYTES);
113   vring->used = clib_mem_alloc_aligned (i, CLIB_CACHE_LINE_BYTES);
114   clib_memset (vring->used, 0, i);
115
116   vring->queue_id = idx;
117   ASSERT (vring->buffers == 0);
118   vec_validate_aligned (vring->buffers, sz, CLIB_CACHE_LINE_BYTES);
119
120   vring->size = sz;
121   vring->call_fd = eventfd (0, EFD_NONBLOCK | EFD_CLOEXEC);
122   vring->kick_fd = eventfd (0, EFD_CLOEXEC);
123
124   t.read_function = call_read_ready;
125   t.file_descriptor = vring->call_fd;
126   t.private_data = vif->dev_instance << 16 | idx;
127   t.description = format (0, "%U vring %u", format_virtio_device_name,
128                           vif->dev_instance, idx);
129   vring->call_file_index = clib_file_add (&file_main, &t);
130
131   state.index = idx;
132   state.num = sz;
133   _IOCTL (vif->fd, VHOST_SET_VRING_NUM, &state);
134
135   addr.index = idx;
136   addr.flags = 0;
137   addr.desc_user_addr = pointer_to_uword (vring->desc);
138   addr.avail_user_addr = pointer_to_uword (vring->avail);
139   addr.used_user_addr = pointer_to_uword (vring->used);
140   _IOCTL (vif->fd, VHOST_SET_VRING_ADDR, &addr);
141
142   file.index = idx;
143   file.fd = vring->kick_fd;
144   _IOCTL (vif->fd, VHOST_SET_VRING_KICK, &file);
145   file.fd = vring->call_fd;
146   _IOCTL (vif->fd, VHOST_SET_VRING_CALL, &file);
147   file.fd = vif->tap_fd;
148   _IOCTL (vif->fd, VHOST_NET_SET_BACKEND, &file);
149
150 error:
151   return err;
152 }
153
154 inline void
155 virtio_free_rx_buffers (vlib_main_t * vm, virtio_vring_t * vring)
156 {
157   u16 used = vring->desc_in_use;
158   u16 last = vring->last_used_idx;
159   u16 mask = vring->size - 1;
160
161   while (used)
162     {
163       vlib_buffer_free (vm, &vring->buffers[last & mask], 1);
164       last++;
165       used--;
166     }
167 }
168
169 clib_error_t *
170 virtio_vring_free_rx (vlib_main_t * vm, virtio_if_t * vif, u32 idx)
171 {
172   virtio_vring_t *vring =
173     vec_elt_at_index (vif->rxq_vrings, RX_QUEUE_ACCESS (idx));
174
175   clib_file_del_by_index (&file_main, vring->call_file_index);
176   close (vring->kick_fd);
177   close (vring->call_fd);
178   if (vring->used)
179     {
180       virtio_free_rx_buffers (vm, vring);
181       clib_mem_free (vring->used);
182     }
183   if (vring->desc)
184     clib_mem_free (vring->desc);
185   if (vring->avail)
186     clib_mem_free (vring->avail);
187   vec_free (vring->buffers);
188   return 0;
189 }
190
191 inline void
192 virtio_free_used_desc (vlib_main_t * vm, virtio_vring_t * vring)
193 {
194   u16 used = vring->desc_in_use;
195   u16 sz = vring->size;
196   u16 mask = sz - 1;
197   u16 last = vring->last_used_idx;
198   u16 n_left = vring->used->idx - last;
199
200   if (n_left == 0)
201     return;
202
203   while (n_left)
204     {
205       struct vring_used_elem *e = &vring->used->ring[last & mask];
206       u16 slot = e->id;
207
208       vlib_buffer_free (vm, &vring->buffers[slot], 1);
209       used--;
210       last++;
211       n_left--;
212     }
213   vring->desc_in_use = used;
214   vring->last_used_idx = last;
215 }
216
217 clib_error_t *
218 virtio_vring_free_tx (vlib_main_t * vm, virtio_if_t * vif, u32 idx)
219 {
220   virtio_vring_t *vring =
221     vec_elt_at_index (vif->txq_vrings, TX_QUEUE_ACCESS (idx));
222
223   clib_file_del_by_index (&file_main, vring->call_file_index);
224   close (vring->kick_fd);
225   close (vring->call_fd);
226   if (vring->used)
227     {
228       virtio_free_used_desc (vm, vring);
229       clib_mem_free (vring->used);
230     }
231   if (vring->desc)
232     clib_mem_free (vring->desc);
233   if (vring->avail)
234     clib_mem_free (vring->avail);
235   vec_free (vring->buffers);
236   clib_spinlock_free (&vring->lockp);
237   return 0;
238 }
239
240 void
241 virtio_vring_set_numa_node (vlib_main_t * vm, virtio_if_t * vif, u32 idx)
242 {
243   vnet_main_t *vnm = vnet_get_main ();
244   u32 thread_index;
245   virtio_vring_t *vring =
246     vec_elt_at_index (vif->rxq_vrings, RX_QUEUE_ACCESS (idx));
247   thread_index =
248     vnet_get_device_input_thread_index (vnm, vif->hw_if_index,
249                                         RX_QUEUE_ACCESS (idx));
250   vring->buffer_pool_index =
251     vlib_buffer_pool_get_default_for_numa (vm,
252                                            vlib_mains
253                                            [thread_index]->numa_node);
254 }
255
256 inline void
257 virtio_set_net_hdr_size (virtio_if_t * vif)
258 {
259   if (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_MRG_RXBUF) ||
260       vif->features & VIRTIO_FEATURE (VIRTIO_F_VERSION_1))
261     vif->virtio_net_hdr_sz = sizeof (struct virtio_net_hdr_v1);
262   else
263     vif->virtio_net_hdr_sz = sizeof (struct virtio_net_hdr);
264 }
265
266 inline void
267 virtio_show (vlib_main_t * vm, u32 * hw_if_indices, u8 show_descr, u32 type)
268 {
269   u32 i, j, hw_if_index;
270   virtio_if_t *vif;
271   vnet_main_t *vnm = &vnet_main;
272   virtio_main_t *mm = &virtio_main;
273   virtio_vring_t *vring;
274   struct feat_struct
275   {
276     u8 bit;
277     char *str;
278   };
279   struct feat_struct *feat_entry;
280
281   static struct feat_struct feat_array[] = {
282 #define _(s,b) { .str = #s, .bit = b, },
283     foreach_virtio_net_features
284 #undef _
285     {.str = NULL}
286   };
287
288   struct feat_struct *flag_entry;
289   static struct feat_struct flags_array[] = {
290 #define _(b,e,s) { .bit = b, .str = s, },
291     foreach_virtio_if_flag
292 #undef _
293     {.str = NULL}
294   };
295
296   if (!hw_if_indices)
297     return;
298
299   for (hw_if_index = 0; hw_if_index < vec_len (hw_if_indices); hw_if_index++)
300     {
301       vnet_hw_interface_t *hi =
302         vnet_get_hw_interface (vnm, hw_if_indices[hw_if_index]);
303       vif = pool_elt_at_index (mm->interfaces, hi->dev_instance);
304       if (vif->type != type)
305         continue;
306       vlib_cli_output (vm, "Interface: %U (ifindex %d)",
307                        format_vnet_hw_if_index_name, vnm,
308                        hw_if_indices[hw_if_index], vif->hw_if_index);
309       if (type == VIRTIO_IF_TYPE_PCI)
310         {
311           vlib_cli_output (vm, "  PCI Address: %U", format_vlib_pci_addr,
312                            &vif->pci_addr);
313         }
314       if (type == VIRTIO_IF_TYPE_TAP)
315         {
316           if (vif->host_if_name)
317             vlib_cli_output (vm, "  name \"%s\"", vif->host_if_name);
318           if (vif->net_ns)
319             vlib_cli_output (vm, "  host-ns \"%s\"", vif->net_ns);
320           vlib_cli_output (vm, "  fd %d", vif->fd);
321           vlib_cli_output (vm, "  tap-fd %d", vif->tap_fd);
322           vlib_cli_output (vm, "  gso-enabled %d", vif->gso_enabled);
323         }
324       vlib_cli_output (vm, "  Mac Address: %U", format_ethernet_address,
325                        vif->mac_addr);
326       vlib_cli_output (vm, "  Device instance: %u", vif->dev_instance);
327       vlib_cli_output (vm, "  flags 0x%x", vif->flags);
328       flag_entry = (struct feat_struct *) &flags_array;
329       while (flag_entry->str)
330         {
331           if (vif->flags & (1ULL << flag_entry->bit))
332             vlib_cli_output (vm, "    %s (%d)", flag_entry->str,
333                              flag_entry->bit);
334           flag_entry++;
335         }
336       if (type == VIRTIO_IF_TYPE_PCI)
337         {
338           device_status (vm, vif);
339         }
340       vlib_cli_output (vm, "  features 0x%lx", vif->features);
341       feat_entry = (struct feat_struct *) &feat_array;
342       while (feat_entry->str)
343         {
344           if (vif->features & (1ULL << feat_entry->bit))
345             vlib_cli_output (vm, "    %s (%d)", feat_entry->str,
346                              feat_entry->bit);
347           feat_entry++;
348         }
349       vlib_cli_output (vm, "  remote-features 0x%lx", vif->remote_features);
350       feat_entry = (struct feat_struct *) &feat_array;
351       while (feat_entry->str)
352         {
353           if (vif->remote_features & (1ULL << feat_entry->bit))
354             vlib_cli_output (vm, "    %s (%d)", feat_entry->str,
355                              feat_entry->bit);
356           feat_entry++;
357         }
358       vlib_cli_output (vm, "  Number of RX Virtqueue  %u", vif->num_rxqs);
359       vlib_cli_output (vm, "  Number of TX Virtqueue  %u", vif->num_txqs);
360       if (vif->cxq_vring != NULL
361           && vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_CTRL_VQ))
362         vlib_cli_output (vm, "  Number of CTRL Virtqueue 1");
363       vec_foreach_index (i, vif->rxq_vrings)
364       {
365         vring = vec_elt_at_index (vif->rxq_vrings, i);
366         vlib_cli_output (vm, "  Virtqueue (RX) %d", vring->queue_id);
367         vlib_cli_output (vm,
368                          "    qsz %d, last_used_idx %d, desc_next %d, desc_in_use %d",
369                          vring->size, vring->last_used_idx, vring->desc_next,
370                          vring->desc_in_use);
371         vlib_cli_output (vm,
372                          "    avail.flags 0x%x avail.idx %d used.flags 0x%x used.idx %d",
373                          vring->avail->flags, vring->avail->idx,
374                          vring->used->flags, vring->used->idx);
375         if (type == VIRTIO_IF_TYPE_TAP)
376           {
377             vlib_cli_output (vm, "    kickfd %d, callfd %d", vring->kick_fd,
378                              vring->call_fd);
379           }
380         if (show_descr)
381           {
382             vlib_cli_output (vm, "\n  descriptor table:\n");
383             vlib_cli_output (vm,
384                              "   id          addr         len  flags  next      user_addr\n");
385             vlib_cli_output (vm,
386                              "  ===== ================== ===== ====== ===== ==================\n");
387             for (j = 0; j < vring->size; j++)
388               {
389                 struct vring_desc *desc = &vring->desc[j];
390                 vlib_cli_output (vm,
391                                  "  %-5d 0x%016lx %-5d 0x%04x %-5d 0x%016lx\n",
392                                  j, desc->addr,
393                                  desc->len,
394                                  desc->flags, desc->next, desc->addr);
395               }
396           }
397       }
398       vec_foreach_index (i, vif->txq_vrings)
399       {
400         vring = vec_elt_at_index (vif->txq_vrings, i);
401         vlib_cli_output (vm, "  Virtqueue (TX) %d", vring->queue_id);
402         vlib_cli_output (vm,
403                          "    qsz %d, last_used_idx %d, desc_next %d, desc_in_use %d",
404                          vring->size, vring->last_used_idx, vring->desc_next,
405                          vring->desc_in_use);
406         vlib_cli_output (vm,
407                          "    avail.flags 0x%x avail.idx %d used.flags 0x%x used.idx %d",
408                          vring->avail->flags, vring->avail->idx,
409                          vring->used->flags, vring->used->idx);
410         if (type == VIRTIO_IF_TYPE_TAP)
411           {
412             vlib_cli_output (vm, "    kickfd %d, callfd %d", vring->kick_fd,
413                              vring->call_fd);
414           }
415         if (show_descr)
416           {
417             vlib_cli_output (vm, "\n  descriptor table:\n");
418             vlib_cli_output (vm,
419                              "   id          addr         len  flags  next      user_addr\n");
420             vlib_cli_output (vm,
421                              "  ===== ================== ===== ====== ===== ==================\n");
422             for (j = 0; j < vring->size; j++)
423               {
424                 struct vring_desc *desc = &vring->desc[j];
425                 vlib_cli_output (vm,
426                                  "  %-5d 0x%016lx %-5d 0x%04x %-5d 0x%016lx\n",
427                                  j, desc->addr,
428                                  desc->len,
429                                  desc->flags, desc->next, desc->addr);
430               }
431           }
432       }
433       if (vif->cxq_vring != NULL
434           && vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_CTRL_VQ))
435         {
436           vring = vif->cxq_vring;
437           vlib_cli_output (vm, "  Virtqueue (CTRL) %d", vring->queue_id);
438           vlib_cli_output (vm,
439                            "    qsz %d, last_used_idx %d, desc_next %d, desc_in_use %d",
440                            vring->size, vring->last_used_idx,
441                            vring->desc_next, vring->desc_in_use);
442           vlib_cli_output (vm,
443                            "    avail.flags 0x%x avail.idx %d used.flags 0x%x used.idx %d",
444                            vring->avail->flags, vring->avail->idx,
445                            vring->used->flags, vring->used->idx);
446           if (type == VIRTIO_IF_TYPE_TAP)
447             {
448               vlib_cli_output (vm, "    kickfd %d, callfd %d", vring->kick_fd,
449                                vring->call_fd);
450             }
451           if (show_descr)
452             {
453               vlib_cli_output (vm, "\n  descriptor table:\n");
454               vlib_cli_output (vm,
455                                "   id          addr         len  flags  next      user_addr\n");
456               vlib_cli_output (vm,
457                                "  ===== ================== ===== ====== ===== ==================\n");
458               for (j = 0; j < vring->size; j++)
459                 {
460                   struct vring_desc *desc = &vring->desc[j];
461                   vlib_cli_output (vm,
462                                    "  %-5d 0x%016lx %-5d 0x%04x %-5d 0x%016lx\n",
463                                    j, desc->addr,
464                                    desc->len,
465                                    desc->flags, desc->next, desc->addr);
466                 }
467             }
468         }
469
470     }
471
472 }
473
474 /*
475  * fd.io coding-style-patch-verification: ON
476  *
477  * Local Variables:
478  * eval: (c-set-style "gnu")
479  * End:
480  */