virtio: add support for per queue packet counter
[vpp.git] / src / vnet / devices / virtio / virtio.c
1 /*
2  *------------------------------------------------------------------
3  * Copyright (c) 2017 Cisco and/or its affiliates.
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  *------------------------------------------------------------------
16  */
17
18 #include <sys/types.h>
19 #include <sys/stat.h>
20 #include <fcntl.h>
21 #include <net/if.h>
22 #include <linux/if_tun.h>
23 #include <sys/ioctl.h>
24 #include <sys/eventfd.h>
25
26 #include <vlib/vlib.h>
27 #include <vlib/pci/pci.h>
28 #include <vlib/unix/unix.h>
29 #include <vnet/ethernet/ethernet.h>
30 #include <vnet/ip/ip4_packet.h>
31 #include <vnet/ip/ip6_packet.h>
32 #include <vnet/devices/virtio/virtio.h>
33 #include <vnet/devices/virtio/virtio_inline.h>
34 #include <vnet/devices/virtio/pci.h>
35 #include <vnet/interface/rx_queue_funcs.h>
36 #include <vnet/interface/tx_queue_funcs.h>
37
38 virtio_main_t virtio_main;
39
40 #define _IOCTL(fd,a,...) \
41   if (ioctl (fd, a, __VA_ARGS__) < 0) \
42     { \
43       err = clib_error_return_unix (0, "ioctl(" #a ")"); \
44       goto error; \
45     }
46
47 static clib_error_t *
48 call_read_ready (clib_file_t * uf)
49 {
50   vnet_main_t *vnm = vnet_get_main ();
51   u64 b;
52
53   CLIB_UNUSED (ssize_t size) = read (uf->file_descriptor, &b, sizeof (b));
54   vnet_hw_if_rx_queue_set_int_pending (vnm, uf->private_data);
55
56   return 0;
57 }
58
59
60 clib_error_t *
61 virtio_vring_init (vlib_main_t * vm, virtio_if_t * vif, u16 idx, u16 sz)
62 {
63   vnet_virtio_vring_t *vring;
64   int i;
65
66   if (!is_pow2 (sz))
67     return clib_error_return (0, "ring size must be power of 2");
68
69   if (sz > 32768)
70     return clib_error_return (0, "ring size must be 32768 or lower");
71
72   if (sz == 0)
73     sz = 256;
74
75   if (idx % 2)
76     {
77       vec_validate_aligned (vif->txq_vrings, TX_QUEUE_ACCESS (idx),
78                             CLIB_CACHE_LINE_BYTES);
79       vring = vec_elt_at_index (vif->txq_vrings, TX_QUEUE_ACCESS (idx));
80       clib_spinlock_init (&vring->lockp);
81     }
82   else
83     {
84       vec_validate_aligned (vif->rxq_vrings, RX_QUEUE_ACCESS (idx),
85                             CLIB_CACHE_LINE_BYTES);
86       vring = vec_elt_at_index (vif->rxq_vrings, RX_QUEUE_ACCESS (idx));
87     }
88   i = sizeof (vnet_virtio_vring_desc_t) * sz;
89   i = round_pow2 (i, CLIB_CACHE_LINE_BYTES);
90   vring->desc = clib_mem_alloc_aligned (i, CLIB_CACHE_LINE_BYTES);
91   clib_memset (vring->desc, 0, i);
92
93   i = sizeof (vnet_virtio_vring_avail_t) + sz * sizeof (vring->avail->ring[0]);
94   i = round_pow2 (i, CLIB_CACHE_LINE_BYTES);
95   vring->avail = clib_mem_alloc_aligned (i, CLIB_CACHE_LINE_BYTES);
96   clib_memset (vring->avail, 0, i);
97   // tell kernel that we don't need interrupt
98   vring->avail->flags = VRING_AVAIL_F_NO_INTERRUPT;
99
100   i = sizeof (vnet_virtio_vring_used_t) +
101       sz * sizeof (vnet_virtio_vring_used_elem_t);
102   i = round_pow2 (i, CLIB_CACHE_LINE_BYTES);
103   vring->used = clib_mem_alloc_aligned (i, CLIB_CACHE_LINE_BYTES);
104   clib_memset (vring->used, 0, i);
105
106   vring->queue_id = idx;
107   ASSERT (vring->buffers == 0);
108   vec_validate_aligned (vring->buffers, sz, CLIB_CACHE_LINE_BYTES);
109
110   if (idx & 1)
111     {
112       clib_memset_u32 (vring->buffers, ~0, sz);
113       // tx path: suppress the interrupts from kernel
114       vring->call_fd = -1;
115     }
116   else
117     vring->call_fd = eventfd (0, EFD_NONBLOCK | EFD_CLOEXEC);
118
119   vring->total_packets = 0;
120   vring->queue_size = sz;
121   vring->kick_fd = eventfd (0, EFD_NONBLOCK | EFD_CLOEXEC);
122   virtio_log_debug (vif, "vring %u size %u call_fd %d kick_fd %d", idx,
123                     vring->queue_size, vring->call_fd, vring->kick_fd);
124
125   return 0;
126 }
127
128 inline void
129 virtio_free_buffers (vlib_main_t *vm, vnet_virtio_vring_t *vring)
130 {
131   u16 used = vring->desc_in_use;
132   u16 last = vring->last_used_idx;
133   u16 mask = vring->queue_size - 1;
134
135   while (used)
136     {
137       vlib_buffer_free (vm, &vring->buffers[last & mask], 1);
138       last++;
139       used--;
140     }
141 }
142
143 clib_error_t *
144 virtio_vring_free_rx (vlib_main_t * vm, virtio_if_t * vif, u32 idx)
145 {
146   vnet_virtio_vring_t *vring =
147     vec_elt_at_index (vif->rxq_vrings, RX_QUEUE_ACCESS (idx));
148
149   clib_file_del_by_index (&file_main, vring->call_file_index);
150   close (vring->kick_fd);
151   close (vring->call_fd);
152   if (vring->used)
153     {
154       virtio_free_buffers (vm, vring);
155       clib_mem_free (vring->used);
156     }
157   if (vring->desc)
158     clib_mem_free (vring->desc);
159   if (vring->avail)
160     clib_mem_free (vring->avail);
161   vec_free (vring->buffers);
162   return 0;
163 }
164
165 clib_error_t *
166 virtio_vring_free_tx (vlib_main_t * vm, virtio_if_t * vif, u32 idx)
167 {
168   vnet_virtio_vring_t *vring =
169     vec_elt_at_index (vif->txq_vrings, TX_QUEUE_ACCESS (idx));
170
171   close (vring->kick_fd);
172   if (vring->used)
173     {
174       virtio_free_buffers (vm, vring);
175       clib_mem_free (vring->used);
176     }
177   if (vring->desc)
178     clib_mem_free (vring->desc);
179   if (vring->avail)
180     clib_mem_free (vring->avail);
181   vec_free (vring->buffers);
182   gro_flow_table_free (vring->flow_table);
183   virtio_vring_buffering_free (vm, vring->buffering);
184   clib_spinlock_free (&vring->lockp);
185   return 0;
186 }
187
188 void
189 virtio_set_packet_coalesce (virtio_if_t * vif)
190 {
191   vnet_main_t *vnm = vnet_get_main ();
192   vnet_hw_interface_t *hw = vnet_get_hw_interface (vnm, vif->hw_if_index);
193   vnet_virtio_vring_t *vring;
194   vif->packet_coalesce = 1;
195   vec_foreach (vring, vif->txq_vrings)
196   {
197     gro_flow_table_init (&vring->flow_table,
198                          vif->type & (VIRTIO_IF_TYPE_TAP |
199                                       VIRTIO_IF_TYPE_PCI), hw->tx_node_index);
200   }
201 }
202
203 clib_error_t *
204 virtio_set_packet_buffering (virtio_if_t * vif, u16 buffering_size)
205 {
206   vnet_main_t *vnm = vnet_get_main ();
207   vnet_hw_interface_t *hw = vnet_get_hw_interface (vnm, vif->hw_if_index);
208   vnet_virtio_vring_t *vring;
209   clib_error_t *error = 0;
210   vif->packet_buffering = 1;
211
212   vec_foreach (vring, vif->txq_vrings)
213   {
214     if ((error =
215          virtio_vring_buffering_init (&vring->buffering, hw->tx_node_index,
216                                       buffering_size)))
217       {
218         break;
219       }
220   }
221
222   return error;
223 }
224
225 static void
226 virtio_vring_fill (vlib_main_t *vm, virtio_if_t *vif,
227                    vnet_virtio_vring_t *vring)
228 {
229   if (vif->is_packed)
230     virtio_refill_vring_packed (vm, vif, vif->type, vring,
231                                 vif->virtio_net_hdr_sz,
232                                 virtio_input_node.index);
233   else
234     virtio_refill_vring_split (vm, vif, vif->type, vring,
235                                vif->virtio_net_hdr_sz,
236                                virtio_input_node.index);
237 }
238
239 void
240 virtio_vring_set_rx_queues (vlib_main_t *vm, virtio_if_t *vif)
241 {
242   vnet_main_t *vnm = vnet_get_main ();
243   vnet_virtio_vring_t *vring;
244   u32 i = 0;
245
246   vnet_hw_if_set_input_node (vnm, vif->hw_if_index, virtio_input_node.index);
247
248   vec_foreach (vring, vif->rxq_vrings)
249     {
250       vring->queue_index = vnet_hw_if_register_rx_queue (
251         vnm, vif->hw_if_index, RX_QUEUE_ACCESS (vring->queue_id),
252         VNET_HW_IF_RXQ_THREAD_ANY);
253       vring->buffer_pool_index = vlib_buffer_pool_get_default_for_numa (
254         vm, vnet_hw_if_get_rx_queue_numa_node (vnm, vring->queue_index));
255       if (vif->type == VIRTIO_IF_TYPE_TAP || vif->type == VIRTIO_IF_TYPE_TUN)
256         {
257
258           clib_file_t f = {
259             .read_function = call_read_ready,
260             .flags = UNIX_FILE_EVENT_EDGE_TRIGGERED,
261             .file_descriptor = vring->call_fd,
262             .private_data = vring->queue_index,
263             .description = format (0, "%U vring %u", format_virtio_device_name,
264                                    vif->dev_instance, vring->queue_id),
265           };
266
267           vring->call_file_index = clib_file_add (&file_main, &f);
268           vnet_hw_if_set_rx_queue_file_index (vnm, vring->queue_index,
269                                               vring->call_file_index);
270         }
271       else if ((vif->type == VIRTIO_IF_TYPE_PCI) && (vif->support_int_mode) &&
272                (vif->msix_enabled == VIRTIO_MSIX_ENABLED))
273         {
274           u32 file_index;
275           file_index =
276             vlib_pci_get_msix_file_index (vm, vif->pci_dev_handle, i + 1);
277           vnet_hw_if_set_rx_queue_file_index (vnm, vring->queue_index,
278                                               file_index);
279           i++;
280         }
281       vnet_hw_if_set_rx_queue_mode (vnm, vring->queue_index,
282                                     VNET_HW_IF_RX_MODE_POLLING);
283       vring->mode = VNET_HW_IF_RX_MODE_POLLING;
284       virtio_vring_fill (vm, vif, vring);
285     }
286   vnet_hw_if_update_runtime_data (vnm, vif->hw_if_index);
287 }
288
289 void
290 virtio_vring_set_tx_queues (vlib_main_t *vm, virtio_if_t *vif)
291 {
292   vnet_main_t *vnm = vnet_get_main ();
293   vnet_virtio_vring_t *vring;
294
295   vec_foreach (vring, vif->txq_vrings)
296     {
297       vring->queue_index = vnet_hw_if_register_tx_queue (
298         vnm, vif->hw_if_index, TX_QUEUE_ACCESS (vring->queue_id));
299     }
300
301   if (vif->num_txqs == 0)
302     {
303       virtio_log_error (vif, "Interface %U has 0 txq",
304                         format_vnet_hw_if_index_name, vnm, vif->hw_if_index);
305       return;
306     }
307
308   for (u32 j = 0; j < vlib_get_n_threads (); j++)
309     {
310       u32 qi = vif->txq_vrings[j % vif->num_txqs].queue_index;
311       vnet_hw_if_tx_queue_assign_thread (vnm, qi, j);
312     }
313
314   vnet_hw_if_update_runtime_data (vnm, vif->hw_if_index);
315 }
316
317 inline void
318 virtio_set_net_hdr_size (virtio_if_t * vif)
319 {
320   if (vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_MRG_RXBUF) ||
321       vif->features & VIRTIO_FEATURE (VIRTIO_F_VERSION_1))
322     vif->virtio_net_hdr_sz = sizeof (vnet_virtio_net_hdr_v1_t);
323   else
324     vif->virtio_net_hdr_sz = sizeof (vnet_virtio_net_hdr_t);
325 }
326
327 inline void
328 virtio_show (vlib_main_t *vm, u32 *hw_if_indices, u8 show_descr,
329              virtio_if_type_t type)
330 {
331   u32 i, j, hw_if_index;
332   virtio_if_t *vif;
333   vnet_main_t *vnm = &vnet_main;
334   virtio_main_t *mm = &virtio_main;
335   vnet_virtio_vring_t *vring;
336   struct feat_struct
337   {
338     u8 bit;
339     char *str;
340   };
341   struct feat_struct *feat_entry;
342
343   static struct feat_struct feat_array[] = {
344 #define _(s,b) { .str = #s, .bit = b, },
345     foreach_virtio_net_features
346 #undef _
347     {.str = NULL}
348   };
349
350   struct feat_struct *flag_entry;
351   static struct feat_struct flags_array[] = {
352 #define _(b,e,s) { .bit = b, .str = s, },
353     foreach_virtio_if_flag
354 #undef _
355     {.str = NULL}
356   };
357
358   if (!hw_if_indices)
359     return;
360
361   for (hw_if_index = 0; hw_if_index < vec_len (hw_if_indices); hw_if_index++)
362     {
363       vnet_hw_interface_t *hi =
364         vnet_get_hw_interface (vnm, hw_if_indices[hw_if_index]);
365       vif = pool_elt_at_index (mm->interfaces, hi->dev_instance);
366       if (vif->type != type)
367         continue;
368       vlib_cli_output (vm, "Interface: %U (ifindex %d)",
369                        format_vnet_hw_if_index_name, vnm,
370                        hw_if_indices[hw_if_index], vif->hw_if_index);
371       if (type == VIRTIO_IF_TYPE_PCI)
372         {
373           vlib_cli_output (vm, "  PCI Address: %U", format_vlib_pci_addr,
374                            &vif->pci_addr);
375         }
376       if (type & (VIRTIO_IF_TYPE_TAP | VIRTIO_IF_TYPE_TUN))
377         {
378           u8 *str = 0;
379           if (vif->host_if_name)
380             vlib_cli_output (vm, "  name \"%s\"", vif->host_if_name);
381           if (vif->net_ns)
382             vlib_cli_output (vm, "  host-ns \"%s\"", vif->net_ns);
383           if (vif->host_mtu_size)
384             vlib_cli_output (vm, "  host-mtu-size \"%d\"",
385                              vif->host_mtu_size);
386           if (type == VIRTIO_IF_TYPE_TAP)
387             vlib_cli_output (vm, "  host-mac-addr: %U",
388                              format_ethernet_address, vif->host_mac_addr);
389           vlib_cli_output (vm, "  host-carrier-up: %u", vif->host_carrier_up);
390
391           vec_foreach_index (i, vif->vhost_fds)
392             str = format (str, " %d", vif->vhost_fds[i]);
393           vlib_cli_output (vm, "  vhost-fds%v", str);
394           vec_free (str);
395           vec_foreach_index (i, vif->tap_fds)
396             str = format (str, " %d", vif->tap_fds[i]);
397           vlib_cli_output (vm, "  tap-fds%v", str);
398           vec_free (str);
399         }
400       vlib_cli_output (vm, "  gso-enabled %d", vif->gso_enabled);
401       vlib_cli_output (vm, "  csum-enabled %d", vif->csum_offload_enabled);
402       vlib_cli_output (vm, "  packet-coalesce %d", vif->packet_coalesce);
403       vlib_cli_output (vm, "  packet-buffering %d", vif->packet_buffering);
404       if (type & (VIRTIO_IF_TYPE_TAP | VIRTIO_IF_TYPE_PCI))
405         vlib_cli_output (vm, "  Mac Address: %U", format_ethernet_address,
406                          vif->mac_addr);
407       vlib_cli_output (vm, "  Device instance: %u", vif->dev_instance);
408       vlib_cli_output (vm, "  flags 0x%x", vif->flags);
409       flag_entry = (struct feat_struct *) &flags_array;
410       while (flag_entry->str)
411         {
412           if (vif->flags & (1ULL << flag_entry->bit))
413             vlib_cli_output (vm, "    %s (%d)", flag_entry->str,
414                              flag_entry->bit);
415           flag_entry++;
416         }
417       if (type == VIRTIO_IF_TYPE_PCI)
418         {
419           device_status (vm, vif);
420         }
421       vlib_cli_output (vm, "  features 0x%lx", vif->features);
422       feat_entry = (struct feat_struct *) &feat_array;
423       while (feat_entry->str)
424         {
425           if (vif->features & (1ULL << feat_entry->bit))
426             vlib_cli_output (vm, "    %s (%d)", feat_entry->str,
427                              feat_entry->bit);
428           feat_entry++;
429         }
430       vlib_cli_output (vm, "  remote-features 0x%lx", vif->remote_features);
431       feat_entry = (struct feat_struct *) &feat_array;
432       while (feat_entry->str)
433         {
434           if (vif->remote_features & (1ULL << feat_entry->bit))
435             vlib_cli_output (vm, "    %s (%d)", feat_entry->str,
436                              feat_entry->bit);
437           feat_entry++;
438         }
439       vlib_cli_output (vm, "  Number of RX Virtqueue  %u", vif->num_rxqs);
440       vlib_cli_output (vm, "  Number of TX Virtqueue  %u", vif->num_txqs);
441       if (type == VIRTIO_IF_TYPE_PCI && vif->cxq_vring != NULL &&
442           vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_CTRL_VQ))
443         vlib_cli_output (vm, "  Number of CTRL Virtqueue 1");
444       vec_foreach_index (i, vif->rxq_vrings)
445       {
446         vring = vec_elt_at_index (vif->rxq_vrings, i);
447         vlib_cli_output (vm, "  Virtqueue (RX) %d", vring->queue_id);
448         vlib_cli_output (
449           vm, "    qsz %d, last_used_idx %d, desc_next %d, desc_in_use %d",
450           vring->queue_size, vring->last_used_idx, vring->desc_next,
451           vring->desc_in_use);
452         if (vif->is_packed)
453           {
454             vlib_cli_output (vm,
455                              "    driver_event.flags 0x%x driver_event.off_wrap %d device_event.flags 0x%x device_event.off_wrap %d",
456                              vring->driver_event->flags,
457                              vring->driver_event->off_wrap,
458                              vring->device_event->flags,
459                              vring->device_event->off_wrap);
460             vlib_cli_output (vm,
461                              "    avail wrap counter %d, used wrap counter %d",
462                              vring->avail_wrap_counter,
463                              vring->used_wrap_counter);
464           }
465         else
466           vlib_cli_output (vm,
467                            "    avail.flags 0x%x avail.idx %d used.flags 0x%x used.idx %d",
468                            vring->avail->flags, vring->avail->idx,
469                            vring->used->flags, vring->used->idx);
470         if (type & (VIRTIO_IF_TYPE_TAP | VIRTIO_IF_TYPE_TUN))
471           {
472             vlib_cli_output (vm, "    kickfd %d, callfd %d", vring->kick_fd,
473                              vring->call_fd);
474           }
475         if (show_descr)
476           {
477             vlib_cli_output (vm, "\n  descriptor table:\n");
478             vlib_cli_output (vm,
479                              "   id          addr         len  flags  next/id      user_addr\n");
480             vlib_cli_output (vm,
481                              "  ===== ================== ===== ====== ======= ==================\n");
482             for (j = 0; j < vring->queue_size; j++)
483               {
484                 if (vif->is_packed)
485                   {
486                     vnet_virtio_vring_packed_desc_t *desc =
487                       &vring->packed_desc[j];
488                     vlib_cli_output (vm,
489                                      "  %-5d 0x%016lx %-5d 0x%04x %-8d 0x%016lx\n",
490                                      j, desc->addr,
491                                      desc->len,
492                                      desc->flags, desc->id, desc->addr);
493                   }
494                 else
495                   {
496                     vnet_virtio_vring_desc_t *desc = &vring->desc[j];
497                     vlib_cli_output (vm,
498                                      "  %-5d 0x%016lx %-5d 0x%04x %-8d 0x%016lx\n",
499                                      j, desc->addr,
500                                      desc->len,
501                                      desc->flags, desc->next, desc->addr);
502                   }
503               }
504           }
505       }
506       vec_foreach_index (i, vif->txq_vrings)
507       {
508         vring = vec_elt_at_index (vif->txq_vrings, i);
509         vlib_cli_output (vm, "  Virtqueue (TX) %d", vring->queue_id);
510         vlib_cli_output (
511           vm, "    qsz %d, last_used_idx %d, desc_next %d, desc_in_use %d",
512           vring->queue_size, vring->last_used_idx, vring->desc_next,
513           vring->desc_in_use);
514         if (vif->is_packed)
515           {
516             vlib_cli_output (vm,
517                              "    driver_event.flags 0x%x driver_event.off_wrap %d device_event.flags 0x%x device_event.off_wrap %d",
518                              vring->driver_event->flags,
519                              vring->driver_event->off_wrap,
520                              vring->device_event->flags,
521                              vring->device_event->off_wrap);
522             vlib_cli_output (vm,
523                              "    avail wrap counter %d, used wrap counter %d",
524                              vring->avail_wrap_counter,
525                              vring->used_wrap_counter);
526           }
527         else
528           vlib_cli_output (vm,
529                            "    avail.flags 0x%x avail.idx %d used.flags 0x%x used.idx %d",
530                            vring->avail->flags, vring->avail->idx,
531                            vring->used->flags, vring->used->idx);
532         if (type & (VIRTIO_IF_TYPE_TAP | VIRTIO_IF_TYPE_TUN))
533           {
534             vlib_cli_output (vm, "    kickfd %d, callfd %d", vring->kick_fd,
535                              vring->call_fd);
536           }
537         if (vring->flow_table)
538           {
539             vlib_cli_output (vm, "    %U", gro_flow_table_format,
540                              vring->flow_table);
541           }
542         if (vif->packet_buffering)
543           {
544             vlib_cli_output (vm, "    %U", virtio_vring_buffering_format,
545                              vring->buffering);
546           }
547         if (show_descr)
548           {
549             vlib_cli_output (vm, "\n  descriptor table:\n");
550             vlib_cli_output (vm,
551                              "   id          addr         len  flags  next/id      user_addr\n");
552             vlib_cli_output (vm,
553                              "  ===== ================== ===== ====== ======== ==================\n");
554             for (j = 0; j < vring->queue_size; j++)
555               {
556                 if (vif->is_packed)
557                   {
558                     vnet_virtio_vring_packed_desc_t *desc =
559                       &vring->packed_desc[j];
560                     vlib_cli_output (vm,
561                                      "  %-5d 0x%016lx %-5d 0x%04x %-8d 0x%016lx\n",
562                                      j, desc->addr,
563                                      desc->len,
564                                      desc->flags, desc->id, desc->addr);
565                   }
566                 else
567                   {
568                     vnet_virtio_vring_desc_t *desc = &vring->desc[j];
569                     vlib_cli_output (vm,
570                                      "  %-5d 0x%016lx %-5d 0x%04x %-8d 0x%016lx\n",
571                                      j, desc->addr,
572                                      desc->len,
573                                      desc->flags, desc->next, desc->addr);
574                   }
575               }
576           }
577       }
578       if (type == VIRTIO_IF_TYPE_PCI && vif->cxq_vring != NULL &&
579           vif->features & VIRTIO_FEATURE (VIRTIO_NET_F_CTRL_VQ))
580         {
581           vring = vif->cxq_vring;
582           vlib_cli_output (vm, "  Virtqueue (CTRL) %d", vring->queue_id);
583           vlib_cli_output (
584             vm, "    qsz %d, last_used_idx %d, desc_next %d, desc_in_use %d",
585             vring->queue_size, vring->last_used_idx, vring->desc_next,
586             vring->desc_in_use);
587           if (vif->is_packed)
588             {
589               vlib_cli_output (vm,
590                                "    driver_event.flags 0x%x driver_event.off_wrap %d device_event.flags 0x%x device_event.off_wrap %d",
591                                vring->driver_event->flags,
592                                vring->driver_event->off_wrap,
593                                vring->device_event->flags,
594                                vring->device_event->off_wrap);
595               vlib_cli_output (vm,
596                                "    avail wrap counter %d, used wrap counter %d",
597                                vring->avail_wrap_counter,
598                                vring->used_wrap_counter);
599             }
600           else
601             {
602               vlib_cli_output (vm,
603                                "    avail.flags 0x%x avail.idx %d used.flags 0x%x used.idx %d",
604                                vring->avail->flags, vring->avail->idx,
605                                vring->used->flags, vring->used->idx);
606             }
607           if (show_descr)
608             {
609               vlib_cli_output (vm, "\n  descriptor table:\n");
610               vlib_cli_output (vm,
611                                "   id          addr         len  flags  next/id      user_addr\n");
612               vlib_cli_output (vm,
613                                "  ===== ================== ===== ====== ======== ==================\n");
614               for (j = 0; j < vring->queue_size; j++)
615                 {
616                   if (vif->is_packed)
617                     {
618                       vnet_virtio_vring_packed_desc_t *desc =
619                         &vring->packed_desc[j];
620                       vlib_cli_output (vm,
621                                        "  %-5d 0x%016lx %-5d 0x%04x %-8d 0x%016lx\n",
622                                        j, desc->addr,
623                                        desc->len,
624                                        desc->flags, desc->id, desc->addr);
625                     }
626                   else
627                     {
628                       vnet_virtio_vring_desc_t *desc = &vring->desc[j];
629                       vlib_cli_output (vm,
630                                        "  %-5d 0x%016lx %-5d 0x%04x %-8d 0x%016lx\n",
631                                        j, desc->addr,
632                                        desc->len,
633                                        desc->flags, desc->next, desc->addr);
634                     }
635                 }
636             }
637         }
638     }
639
640 }
641
642 static clib_error_t *
643 virtio_init (vlib_main_t * vm)
644 {
645   virtio_main_t *vim = &virtio_main;
646   clib_error_t *error = 0;
647
648   vim->log_default = vlib_log_register_class ("virtio", 0);
649   vlib_log_debug (vim->log_default, "initialized");
650
651   return error;
652 }
653
654 VLIB_INIT_FUNCTION (virtio_init);
655
656 /*
657  * fd.io coding-style-patch-verification: ON
658  *
659  * Local Variables:
660  * eval: (c-set-style "gnu")
661  * End:
662  */