virtio: fix the error return
[vpp.git] / src / vnet / devices / virtio / pci.c
1 /*
2  * Copyright (c) 2018 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 #include <fcntl.h>
17 #include <sys/ioctl.h>
18
19 #include <vppinfra/types.h>
20 #include <vlib/vlib.h>
21 #include <vlib/pci/pci.h>
22 #include <vnet/ethernet/ethernet.h>
23 #include <vnet/ip/ip4_packet.h>
24 #include <vnet/ip/ip6_packet.h>
25 #include <vnet/devices/virtio/virtio.h>
26 #include <vnet/devices/virtio/pci.h>
27
28 #define PCI_VENDOR_ID_VIRTIO                            0x1af4
29 #define PCI_DEVICE_ID_VIRTIO_NIC                        0x1000
30 /* Doesn't support modern device */
31 #define PCI_DEVICE_ID_VIRTIO_NIC_MODERN                 0x1041
32
33 #define PCI_CAPABILITY_LIST     0x34
34 #define PCI_CAP_ID_VNDR         0x09
35 #define PCI_CAP_ID_MSIX         0x11
36
37 #define PCI_MSIX_ENABLE 0x8000
38
39 static pci_device_id_t virtio_pci_device_ids[] = {
40   {
41    .vendor_id = PCI_VENDOR_ID_VIRTIO,
42    .device_id = PCI_DEVICE_ID_VIRTIO_NIC},
43   {
44    .vendor_id = PCI_VENDOR_ID_VIRTIO,
45    .device_id = PCI_DEVICE_ID_VIRTIO_NIC_MODERN},
46   {0},
47 };
48
49 static u32
50 virtio_pci_flag_change (vnet_main_t * vnm, vnet_hw_interface_t * hw,
51                         u32 flags)
52 {
53   return 0;
54 }
55
56 static clib_error_t *
57 virtio_pci_get_max_virtqueue_pairs (vlib_main_t * vm, virtio_if_t * vif)
58 {
59   clib_error_t *error = 0;
60   u16 max_queue_pairs = 1;
61
62   if (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_MQ))
63     {
64       max_queue_pairs = vif->virtio_pci_func->get_max_queue_pairs (vm, vif);
65     }
66
67   virtio_log_debug (vif, "max queue pair is %x", max_queue_pairs);
68   if (max_queue_pairs < 1 || max_queue_pairs > 0x8000)
69     return clib_error_return (error, "max queue pair is %x,"
70                               " should be in range [1, 0x8000]",
71                               max_queue_pairs);
72
73   vif->max_queue_pairs = max_queue_pairs;
74   return error;
75 }
76
77 static void
78 virtio_pci_set_mac (vlib_main_t * vm, virtio_if_t * vif)
79 {
80   if (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_MAC))
81     vif->virtio_pci_func->set_mac (vm, vif);
82 }
83
84 static u32
85 virtio_pci_get_mac (vlib_main_t * vm, virtio_if_t * vif)
86 {
87   if (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_MAC))
88     {
89       vif->virtio_pci_func->get_mac (vm, vif);
90       return 0;
91     }
92   return 1;
93 }
94
95 static u16
96 virtio_pci_is_link_up (vlib_main_t * vm, virtio_if_t * vif)
97 {
98   /*
99    * Minimal driver: assumes link is up
100    */
101   u16 status = 1;
102   if (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_STATUS))
103     status = vif->virtio_pci_func->get_device_status (vm, vif);
104   return status;
105 }
106
107 static void
108 virtio_pci_irq_queue_handler (vlib_main_t * vm, vlib_pci_dev_handle_t h,
109                               u16 line)
110 {
111   vnet_main_t *vnm = vnet_get_main ();
112   virtio_main_t *vim = &virtio_main;
113   uword pd = vlib_pci_get_private_data (vm, h);
114   virtio_if_t *vif = pool_elt_at_index (vim->interfaces, pd);
115   line--;
116   u16 qid = line;
117
118   vnet_device_input_set_interrupt_pending (vnm, vif->hw_if_index, qid);
119 }
120
121 static void
122 virtio_pci_irq_config_handler (vlib_main_t * vm, vlib_pci_dev_handle_t h,
123                                u16 line)
124 {
125   vnet_main_t *vnm = vnet_get_main ();
126   virtio_main_t *vim = &virtio_main;
127   uword pd = vlib_pci_get_private_data (vm, h);
128   virtio_if_t *vif = pool_elt_at_index (vim->interfaces, pd);
129
130   if (virtio_pci_is_link_up (vm, vif) & VIRTIO_NET_S_LINK_UP)
131     {
132       vif->flags |= VIRTIO_IF_FLAG_ADMIN_UP;
133       vnet_hw_interface_set_flags (vnm, vif->hw_if_index,
134                                    VNET_HW_INTERFACE_FLAG_LINK_UP);
135     }
136   else
137     {
138       vif->flags &= ~VIRTIO_IF_FLAG_ADMIN_UP;
139       vnet_hw_interface_set_flags (vnm, vif->hw_if_index, 0);
140     }
141 }
142
143 static void
144 virtio_pci_irq_handler (vlib_main_t * vm, vlib_pci_dev_handle_t h)
145 {
146   virtio_main_t *vim = &virtio_main;
147   uword pd = vlib_pci_get_private_data (vm, h);
148   virtio_if_t *vif = pool_elt_at_index (vim->interfaces, pd);
149   u8 isr = 0;
150   u16 line = 0;
151
152   isr = vif->virtio_pci_func->get_isr (vm, vif);
153
154   /*
155    * If the lower bit is set: look through the used rings of
156    * all virtqueues for the device, to see if any progress has
157    * been made by the device which requires servicing.
158    */
159   if (isr & VIRTIO_PCI_ISR_INTR)
160     {
161       for (; line < vif->num_rxqs; line++)
162         virtio_pci_irq_queue_handler (vm, h, (line + 1));
163     }
164
165   if (isr & VIRTIO_PCI_ISR_CONFIG)
166     virtio_pci_irq_config_handler (vm, h, line);
167 }
168
169 inline void
170 device_status (vlib_main_t * vm, virtio_if_t * vif)
171 {
172   struct status_struct
173   {
174     u8 bit;
175     char *str;
176   };
177   struct status_struct *status_entry;
178   static struct status_struct status_array[] = {
179 #define _(s,b) { .str = #s, .bit = b, },
180     foreach_virtio_config_status_flags
181 #undef _
182     {.str = NULL}
183   };
184
185   vlib_cli_output (vm, "  status 0x%x", vif->status);
186
187   status_entry = (struct status_struct *) &status_array;
188   while (status_entry->str)
189     {
190       if (vif->status & status_entry->bit)
191         vlib_cli_output (vm, "    %s (%x)", status_entry->str,
192                          status_entry->bit);
193       status_entry++;
194     }
195 }
196
197 struct virtio_ctrl_msg
198 {
199   struct virtio_net_ctrl_hdr ctrl;
200   virtio_net_ctrl_ack status;
201   u8 data[1024];
202 };
203
204 static int
205 virtio_pci_send_ctrl_msg (vlib_main_t * vm, virtio_if_t * vif,
206                           struct virtio_ctrl_msg *data, u32 len)
207 {
208   virtio_vring_t *vring = vif->cxq_vring;
209   virtio_net_ctrl_ack status = VIRTIO_NET_ERR;
210   struct virtio_ctrl_msg result;
211   u32 buffer_index;
212   vlib_buffer_t *b;
213   u16 used, next, avail;
214   u16 sz = vring->size;
215   u16 mask = sz - 1;
216
217   used = vring->desc_in_use;
218   next = vring->desc_next;
219   avail = vring->avail->idx;
220   struct vring_desc *d = &vring->desc[next];
221
222   if (vlib_buffer_alloc (vm, &buffer_index, 1))
223     b = vlib_get_buffer (vm, buffer_index);
224   else
225     return VIRTIO_NET_ERR;
226   /*
227    * current_data may not be initialized with 0 and may contain
228    * previous offset.
229    */
230   b->current_data = 0;
231   clib_memcpy (vlib_buffer_get_current (b), data,
232                sizeof (struct virtio_ctrl_msg));
233   d->flags = VRING_DESC_F_NEXT;
234   d->addr = vlib_buffer_get_current_pa (vm, b);
235   d->len = sizeof (struct virtio_net_ctrl_hdr);
236   vring->avail->ring[avail & mask] = next;
237   avail++;
238   next = (next + 1) & mask;
239   d->next = next;
240   used++;
241
242   d = &vring->desc[next];
243   d->flags = VRING_DESC_F_NEXT;
244   d->addr = vlib_buffer_get_current_pa (vm, b) +
245     STRUCT_OFFSET_OF (struct virtio_ctrl_msg, data);
246   d->len = len;
247   next = (next + 1) & mask;
248   d->next = next;
249   used++;
250
251   d = &vring->desc[next];
252   d->flags = VRING_DESC_F_WRITE;
253   d->addr = vlib_buffer_get_current_pa (vm, b) +
254     STRUCT_OFFSET_OF (struct virtio_ctrl_msg, status);
255   d->len = sizeof (data->status);
256   next = (next + 1) & mask;
257   used++;
258
259   CLIB_MEMORY_STORE_BARRIER ();
260   vring->avail->idx = avail;
261   vring->desc_next = next;
262   vring->desc_in_use = used;
263
264   if ((vring->used->flags & VIRTIO_RING_FLAG_MASK_INT) == 0)
265     {
266       virtio_kick (vm, vring, vif);
267     }
268
269   u16 last = vring->last_used_idx, n_left = 0;
270   n_left = vring->used->idx - last;
271
272   while (n_left)
273     {
274       struct vring_used_elem *e = &vring->used->ring[last & mask];
275       u16 slot = e->id;
276
277       d = &vring->desc[slot];
278       while (d->flags & VRING_DESC_F_NEXT)
279         {
280           used--;
281           slot = d->next;
282           d = &vring->desc[slot];
283         }
284       used--;
285       last++;
286       n_left--;
287     }
288   vring->desc_in_use = used;
289   vring->last_used_idx = last;
290
291   CLIB_MEMORY_BARRIER ();
292   clib_memcpy (&result, vlib_buffer_get_current (b),
293                sizeof (struct virtio_ctrl_msg));
294   virtio_log_debug (vif, "ctrl-queue: status %u", result.status);
295   status = result.status;
296   vlib_buffer_free (vm, &buffer_index, 1);
297   return status;
298 }
299
300 static int
301 virtio_pci_disable_offload (vlib_main_t * vm, virtio_if_t * vif)
302 {
303   struct virtio_ctrl_msg offload_hdr;
304   virtio_net_ctrl_ack status = VIRTIO_NET_ERR;
305
306   offload_hdr.ctrl.class = VIRTIO_NET_CTRL_GUEST_OFFLOADS;
307   offload_hdr.ctrl.cmd = VIRTIO_NET_CTRL_GUEST_OFFLOADS_SET;
308   offload_hdr.status = VIRTIO_NET_ERR;
309   u64 offloads = 0ULL;
310   clib_memcpy (offload_hdr.data, &offloads, sizeof (offloads));
311
312   status =
313     virtio_pci_send_ctrl_msg (vm, vif, &offload_hdr, sizeof (offloads));
314   virtio_log_debug (vif, "disable offloads");
315   vif->remote_features = vif->virtio_pci_func->get_device_features (vm, vif);
316   vif->virtio_pci_func->get_driver_features (vm, vif);
317   return status;
318 }
319
320 static int
321 virtio_pci_enable_checksum_offload (vlib_main_t * vm, virtio_if_t * vif)
322 {
323   struct virtio_ctrl_msg csum_offload_hdr;
324   virtio_net_ctrl_ack status = VIRTIO_NET_ERR;
325
326   csum_offload_hdr.ctrl.class = VIRTIO_NET_CTRL_GUEST_OFFLOADS;
327   csum_offload_hdr.ctrl.cmd = VIRTIO_NET_CTRL_GUEST_OFFLOADS_SET;
328   csum_offload_hdr.status = VIRTIO_NET_ERR;
329   u64 offloads = 0ULL;
330   offloads |= VIRTIO_FEATURE (VIRTIO_NET_F_GUEST_CSUM);
331   clib_memcpy (csum_offload_hdr.data, &offloads, sizeof (offloads));
332
333   status =
334     virtio_pci_send_ctrl_msg (vm, vif, &csum_offload_hdr, sizeof (offloads));
335   virtio_log_debug (vif, "enable checksum offload");
336   vif->remote_features = vif->virtio_pci_func->get_device_features (vm, vif);
337   vif->features = vif->virtio_pci_func->get_driver_features (vm, vif);
338   return status;
339 }
340
341 static int
342 virtio_pci_enable_gso (vlib_main_t * vm, virtio_if_t * vif)
343 {
344   struct virtio_ctrl_msg gso_hdr;
345   virtio_net_ctrl_ack status = VIRTIO_NET_ERR;
346
347   gso_hdr.ctrl.class = VIRTIO_NET_CTRL_GUEST_OFFLOADS;
348   gso_hdr.ctrl.cmd = VIRTIO_NET_CTRL_GUEST_OFFLOADS_SET;
349   gso_hdr.status = VIRTIO_NET_ERR;
350   u64 offloads = VIRTIO_FEATURE (VIRTIO_NET_F_GUEST_CSUM)
351     | VIRTIO_FEATURE (VIRTIO_NET_F_GUEST_TSO4)
352     | VIRTIO_FEATURE (VIRTIO_NET_F_GUEST_TSO6);
353   clib_memcpy (gso_hdr.data, &offloads, sizeof (offloads));
354
355   status = virtio_pci_send_ctrl_msg (vm, vif, &gso_hdr, sizeof (offloads));
356   virtio_log_debug (vif, "enable gso");
357   vif->remote_features = vif->virtio_pci_func->get_device_features (vm, vif);
358   vif->virtio_pci_func->get_driver_features (vm, vif);
359   return status;
360 }
361
362 static int
363 virtio_pci_offloads (vlib_main_t * vm, virtio_if_t * vif, int gso_enabled,
364                      int csum_offload_enabled)
365 {
366   vnet_main_t *vnm = vnet_get_main ();
367   vnet_hw_interface_t *hw = vnet_get_hw_interface (vnm, vif->hw_if_index);
368
369   if ((vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_CTRL_VQ)) &&
370       (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_CTRL_GUEST_OFFLOADS)))
371     {
372       if (gso_enabled
373           && (vif->features & (VIRTIO_FEATURE (VIRTIO_NET_F_HOST_TSO4) |
374                                VIRTIO_FEATURE (VIRTIO_NET_F_HOST_TSO6))))
375         {
376           if (virtio_pci_enable_gso (vm, vif))
377             {
378               virtio_log_warning (vif, "gso is not enabled");
379             }
380           else
381             {
382               vif->gso_enabled = 1;
383               vif->csum_offload_enabled = 0;
384               hw->flags |= VNET_HW_INTERFACE_FLAG_SUPPORTS_GSO |
385                 VNET_HW_INTERFACE_FLAG_SUPPORTS_TX_L4_CKSUM_OFFLOAD;
386             }
387         }
388       else if (csum_offload_enabled
389                && (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_CSUM)))
390         {
391           if (virtio_pci_enable_checksum_offload (vm, vif))
392             {
393               virtio_log_warning (vif, "checksum offload is not enabled");
394             }
395           else
396             {
397               vif->csum_offload_enabled = 1;
398               vif->gso_enabled = 0;
399               hw->flags &= ~VNET_HW_INTERFACE_FLAG_SUPPORTS_GSO;
400               hw->flags |=
401                 VNET_HW_INTERFACE_FLAG_SUPPORTS_TX_L4_CKSUM_OFFLOAD;
402             }
403         }
404       else
405         {
406           if (virtio_pci_disable_offload (vm, vif))
407             {
408               virtio_log_warning (vif, "offloads are not disabled");
409             }
410           else
411             {
412               vif->csum_offload_enabled = 0;
413               vif->gso_enabled = 0;
414               hw->flags &= ~(VNET_HW_INTERFACE_FLAG_SUPPORTS_GSO |
415                              VNET_HW_INTERFACE_FLAG_SUPPORTS_TX_L4_CKSUM_OFFLOAD);
416             }
417         }
418     }
419
420   return 0;
421 }
422
423 static int
424 virtio_pci_enable_multiqueue (vlib_main_t * vm, virtio_if_t * vif,
425                               u16 num_queues)
426 {
427   struct virtio_ctrl_msg mq_hdr;
428   virtio_net_ctrl_ack status = VIRTIO_NET_ERR;
429
430   mq_hdr.ctrl.class = VIRTIO_NET_CTRL_MQ;
431   mq_hdr.ctrl.cmd = VIRTIO_NET_CTRL_MQ_VQ_PAIRS_SET;
432   mq_hdr.status = VIRTIO_NET_ERR;
433   clib_memcpy (mq_hdr.data, &num_queues, sizeof (num_queues));
434
435   status = virtio_pci_send_ctrl_msg (vm, vif, &mq_hdr, sizeof (num_queues));
436   virtio_log_debug (vif, "multi-queue enable %u queues", num_queues);
437   return status;
438 }
439
440 static u8
441 virtio_pci_queue_size_valid (u16 qsz)
442 {
443   if (qsz < 64 || qsz > 4096)
444     return 0;
445   if ((qsz % 64) != 0)
446     return 0;
447   return 1;
448 }
449
450 clib_error_t *
451 virtio_pci_control_vring_init (vlib_main_t * vm, virtio_if_t * vif,
452                                u16 queue_num)
453 {
454   clib_error_t *error = 0;
455   u16 queue_size = 0;
456   virtio_vring_t *vring;
457   struct vring vr;
458   u32 i = 0;
459   void *ptr = NULL;
460
461   queue_size = vif->virtio_pci_func->get_queue_size (vm, vif, queue_num);
462   if (!virtio_pci_queue_size_valid (queue_size))
463     clib_warning ("queue size is not valid");
464
465   if (!is_pow2 (queue_size))
466     return clib_error_return (0, "ring size must be power of 2");
467
468   if (queue_size > 32768)
469     return clib_error_return (0, "ring size must be 32768 or lower");
470
471   if (queue_size == 0)
472     queue_size = 256;
473
474   vec_validate_aligned (vif->cxq_vring, 0, CLIB_CACHE_LINE_BYTES);
475   vring = vec_elt_at_index (vif->cxq_vring, 0);
476   i = vring_size (queue_size, VIRTIO_PCI_VRING_ALIGN);
477   i = round_pow2 (i, VIRTIO_PCI_VRING_ALIGN);
478   ptr =
479     vlib_physmem_alloc_aligned_on_numa (vm, i, VIRTIO_PCI_VRING_ALIGN,
480                                         vif->numa_node);
481   if (!ptr)
482     return vlib_physmem_last_error (vm);
483   clib_memset (ptr, 0, i);
484   vring_init (&vr, queue_size, ptr, VIRTIO_PCI_VRING_ALIGN);
485   vring->desc = vr.desc;
486   vring->avail = vr.avail;
487   vring->used = vr.used;
488   vring->queue_id = queue_num;
489   vring->avail->flags = VIRTIO_RING_FLAG_MASK_INT;
490
491   ASSERT (vring->buffers == 0);
492
493   vring->size = queue_size;
494   virtio_log_debug (vif, "control-queue: number %u, size %u", queue_num,
495                     queue_size);
496   vif->virtio_pci_func->setup_queue (vm, vif, queue_num, ptr);
497   vring->kick_fd = -1;
498
499   return error;
500 }
501
502 clib_error_t *
503 virtio_pci_vring_init (vlib_main_t * vm, virtio_if_t * vif, u16 queue_num)
504 {
505   clib_error_t *error = 0;
506   u16 queue_size = 0;
507   virtio_vring_t *vring;
508   struct vring vr;
509   u32 i = 0;
510   void *ptr = NULL;
511
512   queue_size = vif->virtio_pci_func->get_queue_size (vm, vif, queue_num);
513   if (!virtio_pci_queue_size_valid (queue_size))
514     clib_warning ("queue size is not valid");
515
516   if (!is_pow2 (queue_size))
517     return clib_error_return (0, "ring size must be power of 2");
518
519   if (queue_size > 32768)
520     return clib_error_return (0, "ring size must be 32768 or lower");
521
522   if (queue_size == 0)
523     queue_size = 256;
524
525   if (queue_num % 2)
526     {
527       vec_validate_aligned (vif->txq_vrings, TX_QUEUE_ACCESS (queue_num),
528                             CLIB_CACHE_LINE_BYTES);
529       vring = vec_elt_at_index (vif->txq_vrings, TX_QUEUE_ACCESS (queue_num));
530       clib_spinlock_init (&vring->lockp);
531     }
532   else
533     {
534       vec_validate_aligned (vif->rxq_vrings, RX_QUEUE_ACCESS (queue_num),
535                             CLIB_CACHE_LINE_BYTES);
536       vring = vec_elt_at_index (vif->rxq_vrings, RX_QUEUE_ACCESS (queue_num));
537     }
538   i = vring_size (queue_size, VIRTIO_PCI_VRING_ALIGN);
539   i = round_pow2 (i, VIRTIO_PCI_VRING_ALIGN);
540   ptr =
541     vlib_physmem_alloc_aligned_on_numa (vm, i, VIRTIO_PCI_VRING_ALIGN,
542                                         vif->numa_node);
543   if (!ptr)
544     return vlib_physmem_last_error (vm);
545   clib_memset (ptr, 0, i);
546   vring_init (&vr, queue_size, ptr, VIRTIO_PCI_VRING_ALIGN);
547   vring->desc = vr.desc;
548   vring->avail = vr.avail;
549   vring->used = vr.used;
550   vring->queue_id = queue_num;
551   vring->avail->flags = VIRTIO_RING_FLAG_MASK_INT;
552   vring->flow_table = 0;
553
554   ASSERT (vring->buffers == 0);
555   vec_validate_aligned (vring->buffers, queue_size, CLIB_CACHE_LINE_BYTES);
556   if (queue_num % 2)
557     {
558       virtio_log_debug (vif, "tx-queue: number %u, size %u", queue_num,
559                         queue_size);
560       clib_memset_u32 (vring->buffers, ~0, queue_size);
561     }
562   else
563     {
564       virtio_log_debug (vif, "rx-queue: number %u, size %u", queue_num,
565                         queue_size);
566     }
567   vring->size = queue_size;
568   if (vif->virtio_pci_func->setup_queue (vm, vif, queue_num, ptr))
569     return clib_error_return (0, "error in queue address setup");
570
571   vring->kick_fd = -1;
572   return error;
573 }
574
575 static void
576 virtio_negotiate_features (vlib_main_t * vm, virtio_if_t * vif,
577                            u64 req_features)
578 {
579   /*
580    * if features are not requested
581    * default: all supported features
582    */
583   u64 supported_features = VIRTIO_FEATURE (VIRTIO_NET_F_CSUM)
584     | VIRTIO_FEATURE (VIRTIO_NET_F_GUEST_CSUM)
585     | VIRTIO_FEATURE (VIRTIO_NET_F_CTRL_GUEST_OFFLOADS)
586     | VIRTIO_FEATURE (VIRTIO_NET_F_MTU)
587     | VIRTIO_FEATURE (VIRTIO_NET_F_MAC)
588     | VIRTIO_FEATURE (VIRTIO_NET_F_GSO)
589     | VIRTIO_FEATURE (VIRTIO_NET_F_GUEST_TSO4)
590     | VIRTIO_FEATURE (VIRTIO_NET_F_GUEST_TSO6)
591     | VIRTIO_FEATURE (VIRTIO_NET_F_GUEST_UFO)
592     | VIRTIO_FEATURE (VIRTIO_NET_F_HOST_TSO4)
593     | VIRTIO_FEATURE (VIRTIO_NET_F_HOST_TSO6)
594     | VIRTIO_FEATURE (VIRTIO_NET_F_HOST_UFO)
595     | VIRTIO_FEATURE (VIRTIO_NET_F_MRG_RXBUF)
596     | VIRTIO_FEATURE (VIRTIO_NET_F_STATUS)
597     | VIRTIO_FEATURE (VIRTIO_NET_F_CTRL_VQ)
598     | VIRTIO_FEATURE (VIRTIO_NET_F_MQ)
599     | VIRTIO_FEATURE (VIRTIO_F_NOTIFY_ON_EMPTY)
600     | VIRTIO_FEATURE (VIRTIO_F_ANY_LAYOUT)
601     | VIRTIO_FEATURE (VIRTIO_RING_F_INDIRECT_DESC);
602
603   if (vif->is_modern)
604     supported_features |= VIRTIO_FEATURE (VIRTIO_F_VERSION_1);
605
606   if (req_features == 0)
607     {
608       req_features = supported_features;
609     }
610
611   vif->features = req_features & vif->remote_features & supported_features;
612
613   if (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_MTU))
614     {
615       u16 mtu = 0;
616       mtu = vif->virtio_pci_func->get_mtu (vm, vif);
617
618       if (mtu < 64)
619         vif->features &= ~VIRTIO_FEATURE (VIRTIO_NET_F_MTU);
620     }
621
622   vif->virtio_pci_func->set_driver_features (vm, vif, vif->features);
623   vif->features = vif->virtio_pci_func->get_driver_features (vm, vif);
624 }
625
626 void
627 virtio_pci_read_device_feature (vlib_main_t * vm, virtio_if_t * vif)
628 {
629   vif->remote_features = vif->virtio_pci_func->get_device_features (vm, vif);
630 }
631
632 int
633 virtio_pci_reset_device (vlib_main_t * vm, virtio_if_t * vif)
634 {
635   u8 status = 0;
636
637   /*
638    * Reset the device
639    */
640   status = vif->virtio_pci_func->device_reset (vm, vif);
641
642   /*
643    * Set the Acknowledge status bit
644    */
645   vif->virtio_pci_func->set_status (vm, vif, VIRTIO_CONFIG_STATUS_ACK);
646
647   /*
648    * Set the Driver status bit
649    */
650   vif->virtio_pci_func->set_status (vm, vif, VIRTIO_CONFIG_STATUS_DRIVER);
651
652   /*
653    * Read the status and verify it
654    */
655   status = vif->virtio_pci_func->get_status (vm, vif);
656   if ((status & VIRTIO_CONFIG_STATUS_ACK)
657       && (status & VIRTIO_CONFIG_STATUS_DRIVER))
658     vif->status = status;
659   else
660     return -1;
661
662   return 0;
663 }
664
665 clib_error_t *
666 virtio_pci_read_caps (vlib_main_t * vm, virtio_if_t * vif, void **bar)
667 {
668   clib_error_t *error = 0;
669   struct virtio_pci_cap cap;
670   u8 pos, common_cfg = 0, notify = 0, dev_cfg = 0, isr = 0, pci_cfg = 0;
671   vlib_pci_dev_handle_t h = vif->pci_dev_handle;
672
673   if ((error = vlib_pci_read_config_u8 (vm, h, PCI_CAPABILITY_LIST, &pos)))
674     {
675       virtio_log_error (vif, "error in reading capabilty list position");
676       return clib_error_return (error,
677                                 "error in reading capabilty list position");
678     }
679   while (pos)
680     {
681       if ((error =
682            vlib_pci_read_write_config (vm, h, VLIB_READ, pos, &cap,
683                                        sizeof (cap))))
684         {
685           virtio_log_error (vif, "%s [%2x]",
686                             "error in reading the capability at", pos);
687           return clib_error_return (error,
688                                     "error in reading the capability at [%2x]",
689                                     pos);
690         }
691
692       if (cap.cap_vndr == PCI_CAP_ID_MSIX)
693         {
694           u16 flags, table_size, table_size_mask = 0x07FF;
695
696           if ((error =
697                vlib_pci_read_write_config (vm, h, VLIB_READ, pos + 2, &flags,
698                                            sizeof (flags))))
699             return clib_error_return (error,
700                                       "error in reading the capability at [%2x]",
701                                       pos + 2);
702
703           table_size = flags & table_size_mask;
704           virtio_log_debug (vif, "flags:0x%x %s 0x%x", flags,
705                             "msix interrupt vector table-size", table_size);
706
707           if (flags & PCI_MSIX_ENABLE)
708             {
709               virtio_log_debug (vif, "msix interrupt enabled");
710               vif->msix_enabled = VIRTIO_MSIX_ENABLED;
711               vif->msix_table_size = table_size;
712             }
713           else
714             {
715               virtio_log_debug (vif, "msix interrupt disabled");
716               vif->msix_enabled = VIRTIO_MSIX_DISABLED;
717               vif->msix_table_size = 0;
718             }
719         }
720
721       if (cap.cap_vndr != PCI_CAP_ID_VNDR)
722         {
723           virtio_log_debug (vif, "[%2x] %s %2x ", pos,
724                             "skipping non VNDR cap id:", cap.cap_vndr);
725           goto next;
726         }
727
728       virtio_log_debug (vif,
729                         "[%4x] cfg type: %u, bar: %u, offset: %04x, len: %u",
730                         pos, cap.cfg_type, cap.bar, cap.offset, cap.length);
731
732       if (cap.bar >= 1 && cap.bar <= 5)
733         {
734           vif->bar = bar[cap.bar];
735           vif->bar_id = cap.bar;
736         }
737       else
738         return clib_error_return (error, "invalid bar %u", cap.bar);
739
740       switch (cap.cfg_type)
741         {
742         case VIRTIO_PCI_CAP_COMMON_CFG:
743           vif->common_offset = cap.offset;
744           common_cfg = 1;
745           break;
746         case VIRTIO_PCI_CAP_NOTIFY_CFG:
747           if ((error =
748                vlib_pci_read_write_config (vm, h, VLIB_READ,
749                                            pos + sizeof (cap),
750                                            &vif->notify_off_multiplier,
751                                            sizeof
752                                            (vif->notify_off_multiplier))))
753             {
754               virtio_log_error (vif, "notify off multiplier is not given");
755             }
756           else
757             {
758               virtio_log_debug (vif, "notify off multiplier is %u",
759                                 vif->notify_off_multiplier);
760               vif->notify_offset = cap.offset;
761               notify = 1;
762             }
763           break;
764         case VIRTIO_PCI_CAP_DEVICE_CFG:
765           vif->device_offset = cap.offset;
766           dev_cfg = 1;
767           break;
768         case VIRTIO_PCI_CAP_ISR_CFG:
769           vif->isr_offset = cap.offset;
770           isr = 1;
771           break;
772         case VIRTIO_PCI_CAP_PCI_CFG:
773           if (cap.bar == 0)
774             pci_cfg = 1;
775           break;
776         }
777     next:
778       pos = cap.cap_next;
779     }
780
781   if (common_cfg == 0 || notify == 0 || dev_cfg == 0 || isr == 0)
782     {
783       vif->virtio_pci_func = &virtio_pci_legacy_func;
784       virtio_log_debug (vif, "legacy virtio pci device found");
785       return error;
786     }
787
788   vif->is_modern = 1;
789   vif->virtio_pci_func = &virtio_pci_modern_func;
790
791   if (!pci_cfg)
792     virtio_log_debug (vif, "modern virtio pci device found");
793
794   virtio_log_debug (vif, "transitional virtio pci device found");
795   return error;
796 }
797
798 static clib_error_t *
799 virtio_pci_device_init (vlib_main_t * vm, virtio_if_t * vif,
800                         virtio_pci_create_if_args_t * args, void **bar)
801 {
802   clib_error_t *error = 0;
803   vlib_thread_main_t *vtm = vlib_get_thread_main ();
804   u8 status = 0;
805
806   if ((error = virtio_pci_read_caps (vm, vif, bar)))
807     {
808       args->rv = VNET_API_ERROR_UNSUPPORTED;
809       virtio_log_error (vif, "Device is not supported");
810       return clib_error_return (error, "Device is not supported");
811     }
812
813   if (virtio_pci_reset_device (vm, vif) < 0)
814     {
815       args->rv = VNET_API_ERROR_INIT_FAILED;
816       virtio_log_error (vif, "Failed to reset the device");
817       return clib_error_return (error, "Failed to reset the device");
818     }
819   /*
820    * read device features and negotiate (user) requested features
821    */
822   virtio_pci_read_device_feature (vm, vif);
823   if ((vif->remote_features & VIRTIO_FEATURE (VIRTIO_RING_F_INDIRECT_DESC)) ==
824       0)
825     {
826       virtio_log_warning (vif, "error encountered: vhost-net backend doesn't "
827                           "support VIRTIO_RING_F_INDIRECT_DESC features");
828     }
829   if ((vif->remote_features & VIRTIO_FEATURE (VIRTIO_NET_F_MRG_RXBUF)) == 0)
830     {
831       virtio_log_warning (vif, "error encountered: vhost-net backend doesn't "
832                           "support VIRTIO_NET_F_MRG_RXBUF features");
833     }
834   virtio_negotiate_features (vm, vif, args->features);
835
836   /*
837    * After FEATURE_OK, driver should not accept new feature bits
838    */
839   vif->virtio_pci_func->set_status (vm, vif,
840                                     VIRTIO_CONFIG_STATUS_FEATURES_OK);
841   status = vif->virtio_pci_func->get_status (vm, vif);
842   if (!(status & VIRTIO_CONFIG_STATUS_FEATURES_OK))
843     {
844       args->rv = VNET_API_ERROR_UNSUPPORTED;
845       virtio_log_error (vif,
846                         "error encountered: Device doesn't support requested features");
847       return clib_error_return (error,
848                                 "Device doesn't support requested features");
849     }
850   vif->status = status;
851
852   /*
853    * get or set the mac address
854    */
855   if (virtio_pci_get_mac (vm, vif))
856     {
857       f64 now = vlib_time_now (vm);
858       u32 rnd;
859       rnd = (u32) (now * 1e6);
860       rnd = random_u32 (&rnd);
861
862       memcpy (vif->mac_addr + 2, &rnd, sizeof (rnd));
863       vif->mac_addr[0] = 2;
864       vif->mac_addr[1] = 0xfe;
865       virtio_pci_set_mac (vm, vif);
866     }
867
868   virtio_set_net_hdr_size (vif);
869
870   /*
871    * Initialize the virtqueues
872    */
873   if ((error = virtio_pci_get_max_virtqueue_pairs (vm, vif)))
874     {
875       args->rv = VNET_API_ERROR_EXCEEDED_NUMBER_OF_RANGES_CAPACITY;
876       goto err;
877     }
878
879   if (vif->msix_enabled == VIRTIO_MSIX_ENABLED)
880     {
881       if (vif->msix_table_size <= vif->max_queue_pairs)
882         {
883           virtio_log_error (vif,
884                             "error MSIX lines (%u) <= Number of RXQs (%u)",
885                             vif->msix_table_size, vif->max_queue_pairs);
886           return clib_error_return (error,
887                                     "error MSIX lines (%u) <= Number of RXQs (%u)",
888                                     vif->msix_table_size,
889                                     vif->max_queue_pairs);
890         }
891     }
892
893   for (int i = 0; i < vif->max_queue_pairs; i++)
894     {
895       if ((error = virtio_pci_vring_init (vm, vif, RX_QUEUE (i))))
896         {
897           args->rv = VNET_API_ERROR_INIT_FAILED;
898           virtio_log_error (vif, "%s (%u) %s", "error in rxq-queue",
899                             RX_QUEUE (i), "initialization");
900           error =
901             clib_error_return (error, "%s (%u) %s", "error in rxq-queue",
902                                RX_QUEUE (i), "initialization");
903           goto err;
904         }
905       else
906         {
907           vif->num_rxqs++;
908         }
909
910       if (i >= vtm->n_vlib_mains)
911         {
912           /*
913            * There is 1:1 mapping between tx queue and vpp worker thread.
914            * tx queue 0 is bind with thread index 0, tx queue 1 on thread
915            * index 1 and so on.
916            * Multiple worker threads can poll same tx queue when number of
917            * workers are more than tx queues. In this case, 1:N mapping
918            * between tx queue and vpp worker thread.
919            */
920           virtio_log_debug (vif, "%s %u, %s", "tx-queue: number",
921                             TX_QUEUE (i),
922                             "no VPP worker thread is available");
923           continue;
924         }
925
926       if ((error = virtio_pci_vring_init (vm, vif, TX_QUEUE (i))))
927         {
928           args->rv = VNET_API_ERROR_INIT_FAILED;
929           virtio_log_error (vif, "%s (%u) %s", "error in txq-queue",
930                             TX_QUEUE (i), "initialization");
931           error =
932             clib_error_return (error, "%s (%u) %s", "error in txq-queue",
933                                TX_QUEUE (i), "initialization");
934           goto err;
935         }
936       else
937         {
938           vif->num_txqs++;
939         }
940     }
941
942   if (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_CTRL_VQ))
943     {
944       if ((error =
945            virtio_pci_control_vring_init (vm, vif, vif->max_queue_pairs * 2)))
946         {
947           virtio_log_warning (vif, "%s (%u) %s", "error in control-queue",
948                               vif->max_queue_pairs * 2, "initialization");
949           if (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_MQ))
950             vif->features &= ~VIRTIO_FEATURE (VIRTIO_NET_F_MQ);
951         }
952     }
953   else
954     {
955       virtio_log_debug (vif, "control queue is not available");
956       vif->cxq_vring = NULL;
957     }
958
959   /*
960    * set the msix interrupts
961    */
962   if (vif->msix_enabled == VIRTIO_MSIX_ENABLED)
963     {
964       int i, j;
965       if (vif->virtio_pci_func->set_config_irq (vm, vif, 0) ==
966           VIRTIO_MSI_NO_VECTOR)
967         {
968           virtio_log_warning (vif, "config vector 0 is not set");
969         }
970       else
971         {
972           virtio_log_debug (vif, "config msix vector is set at 0");
973         }
974       for (i = 0, j = 1; i < vif->max_queue_pairs; i++, j++)
975         {
976           if (vif->virtio_pci_func->set_queue_irq (vm, vif, j,
977                                                    RX_QUEUE (i)) ==
978               VIRTIO_MSI_NO_VECTOR)
979             {
980               virtio_log_warning (vif, "queue (%u) vector is not set at %u",
981                                   RX_QUEUE (i), j);
982             }
983           else
984             {
985               virtio_log_debug (vif, "%s (%u) %s %u", "queue",
986                                 RX_QUEUE (i), "msix vector is set at", j);
987             }
988         }
989     }
990
991   /*
992    * set the driver status OK
993    */
994   vif->virtio_pci_func->set_status (vm, vif, VIRTIO_CONFIG_STATUS_DRIVER_OK);
995   vif->status = vif->virtio_pci_func->get_status (vm, vif);
996 err:
997   return error;
998 }
999
1000 void
1001 virtio_pci_create_if (vlib_main_t * vm, virtio_pci_create_if_args_t * args)
1002 {
1003   vnet_main_t *vnm = vnet_get_main ();
1004   virtio_main_t *vim = &virtio_main;
1005   virtio_if_t *vif;
1006   vlib_pci_dev_handle_t h;
1007   clib_error_t *error = 0;
1008   u32 interrupt_count = 0;
1009
1010   /* *INDENT-OFF* */
1011   pool_foreach (vif, vim->interfaces, ({
1012     if (vif->pci_addr.as_u32 == args->addr)
1013       {
1014         args->rv = VNET_API_ERROR_ADDRESS_IN_USE;
1015         args->error =
1016           clib_error_return (error, "PCI address in use");
1017           vlib_log (VLIB_LOG_LEVEL_ERR, vim->log_default, "%U: %s",
1018                 format_vlib_pci_addr, &args->addr,
1019                 " PCI address in use");
1020         return;
1021       }
1022   }));
1023   /* *INDENT-ON* */
1024
1025   pool_get (vim->interfaces, vif);
1026   vif->dev_instance = vif - vim->interfaces;
1027   vif->per_interface_next_index = ~0;
1028   vif->pci_addr.as_u32 = args->addr;
1029
1030   if ((error =
1031        vlib_pci_device_open (vm, (vlib_pci_addr_t *) & vif->pci_addr,
1032                              virtio_pci_device_ids, &h)))
1033     {
1034       args->rv = VNET_API_ERROR_INVALID_INTERFACE;
1035       args->error =
1036         clib_error_return (error, "pci-addr %U", format_vlib_pci_addr,
1037                            &vif->pci_addr);
1038       vlib_log (VLIB_LOG_LEVEL_ERR, vim->log_default, "%U: %s",
1039                 format_vlib_pci_addr, &vif->pci_addr,
1040                 "error encountered on pci device open");
1041       pool_put (vim->interfaces, vif);
1042       return;
1043     }
1044   vif->pci_dev_handle = h;
1045   vlib_pci_set_private_data (vm, h, vif->dev_instance);
1046   vif->numa_node = vlib_pci_get_numa_node (vm, h);
1047   vif->type = VIRTIO_IF_TYPE_PCI;
1048
1049   if ((error = vlib_pci_bus_master_enable (vm, h)))
1050     {
1051       virtio_log_error (vif, "error encountered on pci bus master enable");
1052       goto error;
1053     }
1054
1055   void *bar[6];
1056   for (u32 i = 0; i <= 5; i++)
1057     {
1058
1059       if ((error = vlib_pci_map_region (vm, h, i, &bar[i])))
1060         {
1061           virtio_log_debug (vif, "no pci map region for bar %u", i);
1062         }
1063       else
1064         {
1065           virtio_log_debug (vif, "pci map region for bar %u at %p", i,
1066                             bar[i]);
1067         }
1068     }
1069
1070   if ((error = vlib_pci_io_region (vm, h, 0)))
1071     {
1072       virtio_log_error (vif, "error encountered on pci io region");
1073       goto error;
1074     }
1075
1076   interrupt_count = vlib_pci_get_num_msix_interrupts (vm, h);
1077   if (interrupt_count > 1)
1078     {
1079       if ((error = vlib_pci_register_msix_handler (vm, h, 0, 1,
1080                                                    &virtio_pci_irq_config_handler)))
1081         {
1082           args->rv = VNET_API_ERROR_INVALID_REGISTRATION;
1083           virtio_log_error (vif,
1084                             "error encountered on pci register msix handler 0");
1085           goto error;
1086         }
1087
1088       if ((error =
1089            vlib_pci_register_msix_handler (vm, h, 1, (interrupt_count - 1),
1090                                            &virtio_pci_irq_queue_handler)))
1091         {
1092           args->rv = VNET_API_ERROR_INVALID_REGISTRATION;
1093           virtio_log_error (vif,
1094                             "error encountered on pci register msix handler 1");
1095           goto error;
1096         }
1097
1098       if ((error = vlib_pci_enable_msix_irq (vm, h, 0, interrupt_count)))
1099         {
1100           virtio_log_error (vif, "error encountered on pci enable msix irq");
1101           goto error;
1102         }
1103       vif->support_int_mode = 1;
1104       virtio_log_debug (vif, "device supports msix interrupts");
1105     }
1106   else if (interrupt_count == 1)
1107     {
1108       /*
1109        * if msix table-size is 1, fall back to intX.
1110        */
1111       if ((error =
1112            vlib_pci_register_intx_handler (vm, h, &virtio_pci_irq_handler)))
1113         {
1114           virtio_log_error (vif,
1115                             "error encountered on pci register interrupt handler");
1116           goto error;
1117         }
1118       vif->support_int_mode = 1;
1119       virtio_log_debug (vif, "pci register interrupt handler");
1120     }
1121   else
1122     {
1123       /*
1124        * WARN: intX is showing some weird behaviour.
1125        * Please don't use interrupt mode with UIO driver.
1126        */
1127       vif->support_int_mode = 0;
1128       virtio_log_debug (vif, "driver is configured in poll mode only");
1129     }
1130
1131   if ((error = vlib_pci_intr_enable (vm, h)))
1132     {
1133       virtio_log_error (vif, "error encountered on pci interrupt enable");
1134       goto error;
1135     }
1136
1137   if ((error = virtio_pci_device_init (vm, vif, args, bar)))
1138     {
1139       virtio_log_error (vif, "error encountered on device init");
1140       goto error;
1141     }
1142
1143   /* create interface */
1144   error = ethernet_register_interface (vnm, virtio_device_class.index,
1145                                        vif->dev_instance, vif->mac_addr,
1146                                        &vif->hw_if_index,
1147                                        virtio_pci_flag_change);
1148
1149   if (error)
1150     {
1151       args->rv = VNET_API_ERROR_INVALID_REGISTRATION;
1152       virtio_log_error (vif,
1153                         "error encountered on ethernet register interface");
1154       goto error;
1155     }
1156
1157   vnet_sw_interface_t *sw = vnet_get_hw_sw_interface (vnm, vif->hw_if_index);
1158   vif->sw_if_index = sw->sw_if_index;
1159   args->sw_if_index = sw->sw_if_index;
1160
1161   vnet_hw_interface_t *hw = vnet_get_hw_interface (vnm, vif->hw_if_index);
1162   hw->flags |= VNET_HW_INTERFACE_FLAG_SUPPORTS_INT_MODE;
1163   vnet_hw_interface_set_input_node (vnm, vif->hw_if_index,
1164                                     virtio_input_node.index);
1165   u32 i = 0;
1166   vec_foreach_index (i, vif->rxq_vrings)
1167   {
1168     vnet_hw_interface_assign_rx_thread (vnm, vif->hw_if_index, i, ~0);
1169     virtio_vring_set_numa_node (vm, vif, RX_QUEUE (i));
1170     /* Set default rx mode to POLLING */
1171     vnet_hw_interface_set_rx_mode (vnm, vif->hw_if_index, i,
1172                                    VNET_HW_INTERFACE_RX_MODE_POLLING);
1173   }
1174   if (virtio_pci_is_link_up (vm, vif) & VIRTIO_NET_S_LINK_UP)
1175     {
1176       vif->flags |= VIRTIO_IF_FLAG_ADMIN_UP;
1177       vnet_hw_interface_set_flags (vnm, vif->hw_if_index,
1178                                    VNET_HW_INTERFACE_FLAG_LINK_UP);
1179     }
1180   else
1181     vnet_hw_interface_set_flags (vnm, vif->hw_if_index, 0);
1182
1183   virtio_pci_offloads (vm, vif, args->gso_enabled,
1184                        args->checksum_offload_enabled);
1185
1186   if ((vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_CTRL_VQ)) &&
1187       (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_MQ)))
1188     {
1189       if (virtio_pci_enable_multiqueue (vm, vif, vif->max_queue_pairs))
1190         virtio_log_warning (vif, "multiqueue is not set");
1191     }
1192   return;
1193
1194 error:
1195   virtio_pci_delete_if (vm, vif);
1196   if (args->rv == 0)
1197     args->rv = VNET_API_ERROR_INVALID_INTERFACE;
1198   args->error = error;
1199 }
1200
1201 int
1202 virtio_pci_delete_if (vlib_main_t * vm, virtio_if_t * vif)
1203 {
1204   vnet_main_t *vnm = vnet_get_main ();
1205   virtio_main_t *vim = &virtio_main;
1206   u32 i = 0;
1207
1208   if (vif->type != VIRTIO_IF_TYPE_PCI)
1209     return VNET_API_ERROR_INVALID_INTERFACE;
1210
1211   vlib_pci_intr_disable (vm, vif->pci_dev_handle);
1212
1213   for (i = 0; i < vif->max_queue_pairs; i++)
1214     {
1215       vif->virtio_pci_func->del_queue (vm, vif, RX_QUEUE (i));
1216       vif->virtio_pci_func->del_queue (vm, vif, TX_QUEUE (i));
1217     }
1218
1219   if (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_CTRL_VQ))
1220     vif->virtio_pci_func->del_queue (vm, vif, vif->max_queue_pairs * 2);
1221
1222   vif->virtio_pci_func->device_reset (vm, vif);
1223
1224   if (vif->hw_if_index)
1225     {
1226       vnet_hw_interface_set_flags (vnm, vif->hw_if_index, 0);
1227       vec_foreach_index (i, vif->rxq_vrings)
1228       {
1229         vnet_hw_interface_unassign_rx_thread (vnm, vif->hw_if_index, i);
1230       }
1231       ethernet_delete_interface (vnm, vif->hw_if_index);
1232     }
1233
1234   vlib_pci_device_close (vm, vif->pci_dev_handle);
1235
1236   vec_foreach_index (i, vif->rxq_vrings)
1237   {
1238     virtio_vring_t *vring = vec_elt_at_index (vif->rxq_vrings, i);
1239     if (vring->kick_fd != -1)
1240       close (vring->kick_fd);
1241     if (vring->used)
1242       {
1243         virtio_free_rx_buffers (vm, vring);
1244       }
1245     vec_free (vring->buffers);
1246     vlib_physmem_free (vm, vring->desc);
1247   }
1248
1249   vec_foreach_index (i, vif->txq_vrings)
1250   {
1251     virtio_vring_t *vring = vec_elt_at_index (vif->txq_vrings, i);
1252     if (vring->kick_fd != -1)
1253       close (vring->kick_fd);
1254     if (vring->used)
1255       {
1256         virtio_free_used_desc (vm, vring);
1257       }
1258     vec_free (vring->buffers);
1259     clib_spinlock_free (&vring->lockp);
1260     vlib_physmem_free (vm, vring->desc);
1261   }
1262
1263   if (vif->cxq_vring != NULL)
1264     {
1265       u16 last = vif->cxq_vring->last_used_idx;
1266       u16 n_left = vif->cxq_vring->used->idx - last;
1267       while (n_left)
1268         {
1269           last++;
1270           n_left--;
1271         }
1272
1273       vif->cxq_vring->last_used_idx = last;
1274       vlib_physmem_free (vm, vif->cxq_vring->desc);
1275     }
1276
1277   vec_free (vif->rxq_vrings);
1278   vec_free (vif->txq_vrings);
1279   vec_free (vif->cxq_vring);
1280
1281   clib_error_free (vif->error);
1282   memset (vif, 0, sizeof (*vif));
1283   pool_put (vim->interfaces, vif);
1284
1285   return 0;
1286 }
1287
1288 int
1289 virtio_pci_enable_disable_offloads (vlib_main_t * vm, virtio_if_t * vif,
1290                                     int gso_enabled,
1291                                     int checksum_offload_enabled,
1292                                     int offloads_disabled)
1293 {
1294   if (vif->type != VIRTIO_IF_TYPE_PCI)
1295     return VNET_API_ERROR_INVALID_INTERFACE;
1296
1297   if (gso_enabled)
1298     virtio_pci_offloads (vm, vif, 1, 0);
1299   else if (checksum_offload_enabled)
1300     virtio_pci_offloads (vm, vif, 0, 1);
1301   else if (offloads_disabled)
1302     virtio_pci_offloads (vm, vif, 0, 0);
1303
1304   return 0;
1305 }
1306
1307 /*
1308  * fd.io coding-style-patch-verification: ON
1309  *
1310  * Local Variables:
1311  * eval: (c-set-style "gnu")
1312  * End:
1313  */