interface: rx queue infra rework, part one
[vpp.git] / src / vnet / devices / virtio / node.c
1 /*
2  *------------------------------------------------------------------
3  * Copyright (c) 2016 Cisco and/or its affiliates.
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  *------------------------------------------------------------------
16  */
17
18 #include <sys/types.h>
19 #include <sys/stat.h>
20 #include <fcntl.h>
21 #include <net/if.h>
22 #include <linux/if_tun.h>
23 #include <sys/ioctl.h>
24 #include <sys/eventfd.h>
25
26 #include <vlib/vlib.h>
27 #include <vlib/unix/unix.h>
28 #include <vnet/ethernet/ethernet.h>
29 #include <vnet/feature/feature.h>
30 #include <vnet/gso/gro_func.h>
31 #include <vnet/interface/rx_queue_funcs.h>
32 #include <vnet/ip/ip4_packet.h>
33 #include <vnet/ip/ip6_packet.h>
34 #include <vnet/udp/udp_packet.h>
35 #include <vnet/devices/virtio/virtio.h>
36
37 #define foreach_virtio_input_error \
38   _(BUFFER_ALLOC, "buffer alloc error") \
39   _(UNKNOWN, "unknown")
40
41 typedef enum
42 {
43 #define _(f,s) VIRTIO_INPUT_ERROR_##f,
44   foreach_virtio_input_error
45 #undef _
46     VIRTIO_INPUT_N_ERROR,
47 } virtio_input_error_t;
48
49 static char *virtio_input_error_strings[] = {
50 #define _(n,s) s,
51   foreach_virtio_input_error
52 #undef _
53 };
54
55 typedef struct
56 {
57   u32 next_index;
58   u32 hw_if_index;
59   u16 ring;
60   u16 len;
61   virtio_net_hdr_v1_t hdr;
62 } virtio_input_trace_t;
63
64 static u8 *
65 format_virtio_input_trace (u8 * s, va_list * args)
66 {
67   CLIB_UNUSED (vlib_main_t * vm) = va_arg (*args, vlib_main_t *);
68   CLIB_UNUSED (vlib_node_t * node) = va_arg (*args, vlib_node_t *);
69   virtio_input_trace_t *t = va_arg (*args, virtio_input_trace_t *);
70   u32 indent = format_get_indent (s);
71
72   s = format (s, "virtio: hw_if_index %d next-index %d vring %u len %u",
73               t->hw_if_index, t->next_index, t->ring, t->len);
74   s = format (s, "\n%Uhdr: flags 0x%02x gso_type 0x%02x hdr_len %u "
75               "gso_size %u csum_start %u csum_offset %u num_buffers %u",
76               format_white_space, indent + 2,
77               t->hdr.flags, t->hdr.gso_type, t->hdr.hdr_len, t->hdr.gso_size,
78               t->hdr.csum_start, t->hdr.csum_offset, t->hdr.num_buffers);
79   return s;
80 }
81
82 static_always_inline void
83 virtio_refill_vring_split (vlib_main_t * vm, virtio_if_t * vif,
84                            virtio_if_type_t type, virtio_vring_t * vring,
85                            const int hdr_sz, u32 node_index)
86 {
87   u16 used, next, avail, n_slots, n_refill;
88   u16 sz = vring->size;
89   u16 mask = sz - 1;
90
91 more:
92   used = vring->desc_in_use;
93
94   if (sz - used < sz / 8)
95     return;
96
97   /* deliver free buffers in chunks of 64 */
98   n_refill = clib_min (sz - used, 64);
99
100   next = vring->desc_next;
101   avail = vring->avail->idx;
102   n_slots =
103     vlib_buffer_alloc_to_ring_from_pool (vm, vring->buffers, next,
104                                          vring->size, n_refill,
105                                          vring->buffer_pool_index);
106
107   if (PREDICT_FALSE (n_slots != n_refill))
108     {
109       vlib_error_count (vm, node_index,
110                         VIRTIO_INPUT_ERROR_BUFFER_ALLOC, n_refill - n_slots);
111       if (n_slots == 0)
112         return;
113     }
114
115   while (n_slots)
116     {
117       vring_desc_t *d = &vring->desc[next];;
118       vlib_buffer_t *b = vlib_get_buffer (vm, vring->buffers[next]);
119       /*
120        * current_data may not be initialized with 0 and may contain
121        * previous offset. Here we want to make sure, it should be 0
122        * initialized.
123        */
124       b->current_data = -hdr_sz;
125       memset (vlib_buffer_get_current (b), 0, hdr_sz);
126       d->addr =
127         ((type == VIRTIO_IF_TYPE_PCI) ? vlib_buffer_get_current_pa (vm,
128                                                                     b) :
129          pointer_to_uword (vlib_buffer_get_current (b)));
130       d->len = vlib_buffer_get_default_data_size (vm) + hdr_sz;
131       d->flags = VRING_DESC_F_WRITE;
132       vring->avail->ring[avail & mask] = next;
133       avail++;
134       next = (next + 1) & mask;
135       n_slots--;
136       used++;
137     }
138   CLIB_MEMORY_STORE_BARRIER ();
139   vring->avail->idx = avail;
140   vring->desc_next = next;
141   vring->desc_in_use = used;
142
143   if ((vring->used->flags & VRING_USED_F_NO_NOTIFY) == 0)
144     {
145       virtio_kick (vm, vring, vif);
146     }
147   goto more;
148 }
149
150 static_always_inline void
151 virtio_refill_vring_packed (vlib_main_t * vm, virtio_if_t * vif,
152                             virtio_if_type_t type, virtio_vring_t * vring,
153                             const int hdr_sz, u32 node_index)
154 {
155   u16 used, next, n_slots, n_refill, flags = 0, first_desc_flags;
156   u16 sz = vring->size;
157
158 more:
159   used = vring->desc_in_use;
160
161   if (sz == used)
162     return;
163
164   /* deliver free buffers in chunks of 64 */
165   n_refill = clib_min (sz - used, 64);
166
167   next = vring->desc_next;
168   first_desc_flags = vring->packed_desc[next].flags;
169   n_slots =
170     vlib_buffer_alloc_to_ring_from_pool (vm, vring->buffers, next,
171                                          sz, n_refill,
172                                          vring->buffer_pool_index);
173
174   if (PREDICT_FALSE (n_slots != n_refill))
175     {
176       vlib_error_count (vm, node_index,
177                         VIRTIO_INPUT_ERROR_BUFFER_ALLOC, n_refill - n_slots);
178       if (n_slots == 0)
179         return;
180     }
181
182   while (n_slots)
183     {
184       vring_packed_desc_t *d = &vring->packed_desc[next];
185       vlib_buffer_t *b = vlib_get_buffer (vm, vring->buffers[next]);
186       /*
187        * current_data may not be initialized with 0 and may contain
188        * previous offset. Here we want to make sure, it should be 0
189        * initialized.
190        */
191       b->current_data = -hdr_sz;
192       memset (vlib_buffer_get_current (b), 0, hdr_sz);
193       d->addr =
194         ((type == VIRTIO_IF_TYPE_PCI) ? vlib_buffer_get_current_pa (vm,
195                                                                     b) :
196          pointer_to_uword (vlib_buffer_get_current (b)));
197       d->len = vlib_buffer_get_default_data_size (vm) + hdr_sz;
198
199       if (vring->avail_wrap_counter)
200         flags = (VRING_DESC_F_AVAIL | VRING_DESC_F_WRITE);
201       else
202         flags = (VRING_DESC_F_USED | VRING_DESC_F_WRITE);
203
204       d->id = next;
205       if (vring->desc_next == next)
206         first_desc_flags = flags;
207       else
208         d->flags = flags;
209
210       next++;
211       if (next >= sz)
212         {
213           next = 0;
214           vring->avail_wrap_counter ^= 1;
215         }
216       n_slots--;
217       used++;
218     }
219   CLIB_MEMORY_STORE_BARRIER ();
220   vring->packed_desc[vring->desc_next].flags = first_desc_flags;
221   vring->desc_next = next;
222   vring->desc_in_use = used;
223   CLIB_MEMORY_BARRIER ();
224   if (vring->device_event->flags != VRING_EVENT_F_DISABLE)
225     {
226       virtio_kick (vm, vring, vif);
227     }
228
229   goto more;
230 }
231
232 static_always_inline void
233 virtio_needs_csum (vlib_buffer_t * b0, virtio_net_hdr_v1_t * hdr,
234                    u8 * l4_proto, u8 * l4_hdr_sz, virtio_if_type_t type)
235 {
236   if (hdr->flags & VIRTIO_NET_HDR_F_NEEDS_CSUM)
237     {
238       u16 ethertype = 0, l2hdr_sz = 0;
239
240       if (type == VIRTIO_IF_TYPE_TUN)
241         {
242           switch (b0->data[0] & 0xf0)
243             {
244             case 0x40:
245               ethertype = ETHERNET_TYPE_IP4;
246               break;
247             case 0x60:
248               ethertype = ETHERNET_TYPE_IP6;
249               break;
250             }
251         }
252       else
253         {
254           ethernet_header_t *eh =
255             (ethernet_header_t *) vlib_buffer_get_current (b0);
256           ethertype = clib_net_to_host_u16 (eh->type);
257           l2hdr_sz = sizeof (ethernet_header_t);
258
259           if (ethernet_frame_is_tagged (ethertype))
260             {
261               ethernet_vlan_header_t *vlan =
262                 (ethernet_vlan_header_t *) (eh + 1);
263
264               ethertype = clib_net_to_host_u16 (vlan->type);
265               l2hdr_sz += sizeof (*vlan);
266               if (ethertype == ETHERNET_TYPE_VLAN)
267                 {
268                   vlan++;
269                   ethertype = clib_net_to_host_u16 (vlan->type);
270                   l2hdr_sz += sizeof (*vlan);
271                 }
272             }
273         }
274
275       vnet_buffer (b0)->l2_hdr_offset = 0;
276       vnet_buffer (b0)->l3_hdr_offset = l2hdr_sz;
277
278       if (PREDICT_TRUE (ethertype == ETHERNET_TYPE_IP4))
279         {
280           ip4_header_t *ip4 =
281             (ip4_header_t *) (vlib_buffer_get_current (b0) + l2hdr_sz);
282           vnet_buffer (b0)->l4_hdr_offset = l2hdr_sz + ip4_header_bytes (ip4);
283           *l4_proto = ip4->protocol;
284           b0->flags |=
285             (VNET_BUFFER_F_IS_IP4 | VNET_BUFFER_F_OFFLOAD_IP_CKSUM);
286           b0->flags |=
287             (VNET_BUFFER_F_L2_HDR_OFFSET_VALID
288              | VNET_BUFFER_F_L3_HDR_OFFSET_VALID |
289              VNET_BUFFER_F_L4_HDR_OFFSET_VALID);
290         }
291       else if (PREDICT_TRUE (ethertype == ETHERNET_TYPE_IP6))
292         {
293           ip6_header_t *ip6 =
294             (ip6_header_t *) (vlib_buffer_get_current (b0) + l2hdr_sz);
295           vnet_buffer (b0)->l4_hdr_offset = l2hdr_sz + sizeof (ip6_header_t);
296           /* FIXME IPv6 EH traversal */
297           *l4_proto = ip6->protocol;
298           b0->flags |= (VNET_BUFFER_F_IS_IP6 |
299                         VNET_BUFFER_F_L2_HDR_OFFSET_VALID
300                         | VNET_BUFFER_F_L3_HDR_OFFSET_VALID |
301                         VNET_BUFFER_F_L4_HDR_OFFSET_VALID);
302         }
303       if (*l4_proto == IP_PROTOCOL_TCP)
304         {
305           b0->flags |= VNET_BUFFER_F_OFFLOAD_TCP_CKSUM;
306           tcp_header_t *tcp = (tcp_header_t *) (vlib_buffer_get_current (b0) +
307                                                 vnet_buffer
308                                                 (b0)->l4_hdr_offset);
309           *l4_hdr_sz = tcp_header_bytes (tcp);
310         }
311       else if (*l4_proto == IP_PROTOCOL_UDP)
312         {
313           b0->flags |= VNET_BUFFER_F_OFFLOAD_UDP_CKSUM;
314           udp_header_t *udp = (udp_header_t *) (vlib_buffer_get_current (b0) +
315                                                 vnet_buffer
316                                                 (b0)->l4_hdr_offset);
317           *l4_hdr_sz = sizeof (*udp);
318         }
319     }
320 }
321
322 static_always_inline void
323 fill_gso_buffer_flags (vlib_buffer_t * b0, virtio_net_hdr_v1_t * hdr,
324                        u8 l4_proto, u8 l4_hdr_sz)
325 {
326   if (hdr->gso_type == VIRTIO_NET_HDR_GSO_TCPV4)
327     {
328       ASSERT (hdr->flags & VIRTIO_NET_HDR_F_NEEDS_CSUM);
329       vnet_buffer2 (b0)->gso_size = hdr->gso_size;
330       vnet_buffer2 (b0)->gso_l4_hdr_sz = l4_hdr_sz;
331       b0->flags |= VNET_BUFFER_F_GSO | VNET_BUFFER_F_IS_IP4;
332     }
333   if (hdr->gso_type == VIRTIO_NET_HDR_GSO_TCPV6)
334     {
335       ASSERT (hdr->flags & VIRTIO_NET_HDR_F_NEEDS_CSUM);
336       vnet_buffer2 (b0)->gso_size = hdr->gso_size;
337       vnet_buffer2 (b0)->gso_l4_hdr_sz = l4_hdr_sz;
338       b0->flags |= VNET_BUFFER_F_GSO | VNET_BUFFER_F_IS_IP6;
339     }
340 }
341
342 static_always_inline u16
343 virtio_n_left_to_process (virtio_vring_t * vring, const int packed)
344 {
345   if (packed)
346     return vring->desc_in_use;
347   else
348     return vring->used->idx - vring->last_used_idx;
349 }
350
351 static_always_inline u16
352 virtio_get_slot_id (virtio_vring_t * vring, const int packed, u16 last,
353                     u16 mask)
354 {
355   if (packed)
356     return vring->packed_desc[last].id;
357   else
358     return vring->used->ring[last & mask].id;
359 }
360
361 static_always_inline u16
362 virtio_get_len (virtio_vring_t * vring, const int packed, const int hdr_sz,
363                 u16 last, u16 mask)
364 {
365   if (packed)
366     return vring->packed_desc[last].len - hdr_sz;
367   else
368     return vring->used->ring[last & mask].len - hdr_sz;
369 }
370
371 #define increment_last(last, packed, vring) \
372    do {                                     \
373          last++;                            \
374          if (packed && last >= vring->size) \
375            {                                \
376              last = 0;                      \
377              vring->used_wrap_counter ^= 1; \
378            }                                \
379     } while (0)
380
381 static_always_inline uword
382 virtio_device_input_gso_inline (vlib_main_t * vm, vlib_node_runtime_t * node,
383                                 vlib_frame_t * frame, virtio_if_t * vif,
384                                 virtio_vring_t * vring, virtio_if_type_t type,
385                                 int gso_enabled, int checksum_offload_enabled,
386                                 int packed)
387 {
388   vnet_main_t *vnm = vnet_get_main ();
389   u32 thread_index = vm->thread_index;
390   uword n_trace = vlib_get_trace_count (vm, node);
391   u32 next_index;
392   const int hdr_sz = vif->virtio_net_hdr_sz;
393   u32 *to_next = 0;
394   u32 n_rx_packets = 0;
395   u32 n_rx_bytes = 0;
396   u16 mask = vring->size - 1;
397   u16 last = vring->last_used_idx;
398   u16 n_left = virtio_n_left_to_process (vring, packed);
399   vlib_buffer_t bt;
400
401   if (n_left == 0)
402     return 0;
403
404   if (type == VIRTIO_IF_TYPE_TUN)
405     {
406       next_index = VNET_DEVICE_INPUT_NEXT_IP4_INPUT;
407     }
408   else
409     {
410       next_index = VNET_DEVICE_INPUT_NEXT_ETHERNET_INPUT;
411       if (PREDICT_FALSE (vif->per_interface_next_index != ~0))
412         next_index = vif->per_interface_next_index;
413
414       /* only for l2, redirect if feature path enabled */
415       vnet_feature_start_device_input_x1 (vif->sw_if_index, &next_index, &bt);
416     }
417
418   while (n_left)
419     {
420       u32 n_left_to_next;
421       u32 next0 = next_index;
422
423       vlib_get_next_frame (vm, node, next_index, to_next, n_left_to_next);
424
425       while (n_left && n_left_to_next)
426         {
427           if (packed)
428             {
429               vring_packed_desc_t *d = &vring->packed_desc[last];
430               u16 flags = d->flags;
431               if ((flags & VRING_DESC_F_AVAIL) !=
432                   (vring->used_wrap_counter << 7)
433                   || (flags & VRING_DESC_F_USED) !=
434                   (vring->used_wrap_counter << 15))
435                 {
436                   n_left = 0;
437                   break;
438                 }
439             }
440           u8 l4_proto = 0, l4_hdr_sz = 0;
441           u16 num_buffers = 1;
442           virtio_net_hdr_v1_t *hdr;
443           u16 slot = virtio_get_slot_id (vring, packed, last, mask);
444           u16 len = virtio_get_len (vring, packed, hdr_sz, last, mask);
445           u32 bi0 = vring->buffers[slot];
446           vlib_buffer_t *b0 = vlib_get_buffer (vm, bi0);
447           hdr = vlib_buffer_get_current (b0);
448           if (hdr_sz == sizeof (virtio_net_hdr_v1_t))
449             num_buffers = hdr->num_buffers;
450
451           b0->flags = VLIB_BUFFER_TOTAL_LENGTH_VALID;
452           b0->current_data = 0;
453           b0->current_length = len;
454
455           if (checksum_offload_enabled)
456             virtio_needs_csum (b0, hdr, &l4_proto, &l4_hdr_sz, type);
457
458           if (gso_enabled)
459             fill_gso_buffer_flags (b0, hdr, l4_proto, l4_hdr_sz);
460
461           vnet_buffer (b0)->sw_if_index[VLIB_RX] = vif->sw_if_index;
462           vnet_buffer (b0)->sw_if_index[VLIB_TX] = (u32) ~ 0;
463
464           /* if multisegment packet */
465           if (PREDICT_FALSE (num_buffers > 1))
466             {
467               vlib_buffer_t *pb, *cb;
468               pb = b0;
469               b0->total_length_not_including_first_buffer = 0;
470               while (num_buffers > 1)
471                 {
472                   increment_last (last, packed, vring);
473                   u16 cslot = virtio_get_slot_id (vring, packed, last, mask);
474                   /* hdr size is 0 after 1st packet in chain buffers */
475                   u16 clen = virtio_get_len (vring, packed, 0, last, mask);
476                   u32 cbi = vring->buffers[cslot];
477                   cb = vlib_get_buffer (vm, cbi);
478
479                   /* current buffer */
480                   cb->current_length = clen;
481
482                   /* previous buffer */
483                   pb->next_buffer = cbi;
484                   pb->flags |= VLIB_BUFFER_NEXT_PRESENT;
485
486                   /* first buffer */
487                   b0->total_length_not_including_first_buffer += clen;
488
489                   pb = cb;
490                   vring->desc_in_use--;
491                   num_buffers--;
492                   n_left--;
493                 }
494               len += b0->total_length_not_including_first_buffer;
495             }
496
497           if (type == VIRTIO_IF_TYPE_TUN)
498             {
499               switch (b0->data[0] & 0xf0)
500                 {
501                 case 0x40:
502                   next0 = VNET_DEVICE_INPUT_NEXT_IP4_INPUT;
503                   break;
504                 case 0x60:
505                   next0 = VNET_DEVICE_INPUT_NEXT_IP6_INPUT;
506                   break;
507                 default:
508                   next0 = VNET_DEVICE_INPUT_NEXT_DROP;
509                   break;
510                 }
511
512               if (PREDICT_FALSE (vif->per_interface_next_index != ~0))
513                 next0 = vif->per_interface_next_index;
514             }
515           else
516             {
517               /* copy feature arc data from template */
518               b0->current_config_index = bt.current_config_index;
519               vnet_buffer (b0)->feature_arc_index =
520                 vnet_buffer (&bt)->feature_arc_index;
521             }
522
523           /* trace */
524           VLIB_BUFFER_TRACE_TRAJECTORY_INIT (b0);
525
526           if (PREDICT_FALSE (n_trace > 0 && vlib_trace_buffer (vm, node, next0, b0,     /* follow_chain */
527                                                                1)))
528             {
529               virtio_input_trace_t *tr;
530               vlib_set_trace_count (vm, node, --n_trace);
531               tr = vlib_add_trace (vm, node, b0, sizeof (*tr));
532               tr->next_index = next0;
533               tr->hw_if_index = vif->hw_if_index;
534               tr->len = len;
535               clib_memcpy_fast (&tr->hdr, hdr, hdr_sz);
536             }
537
538           /* enqueue buffer */
539           to_next[0] = bi0;
540           vring->desc_in_use--;
541           to_next += 1;
542           n_left_to_next--;
543           n_left--;
544           increment_last (last, packed, vring);
545
546           /* only tun interfaces may have different next index */
547           if (type == VIRTIO_IF_TYPE_TUN)
548             vlib_validate_buffer_enqueue_x1 (vm, node, next_index, to_next,
549                                              n_left_to_next, bi0, next0);
550
551           /* next packet */
552           n_rx_packets++;
553           n_rx_bytes += len;
554         }
555       vlib_put_next_frame (vm, node, next_index, n_left_to_next);
556     }
557   vring->last_used_idx = last;
558
559   vlib_increment_combined_counter (vnm->interface_main.combined_sw_if_counters
560                                    + VNET_INTERFACE_COUNTER_RX, thread_index,
561                                    vif->sw_if_index, n_rx_packets,
562                                    n_rx_bytes);
563
564   return n_rx_packets;
565 }
566
567 static_always_inline uword
568 virtio_device_input_inline (vlib_main_t * vm, vlib_node_runtime_t * node,
569                             vlib_frame_t * frame, virtio_if_t * vif, u16 qid,
570                             virtio_if_type_t type)
571 {
572   virtio_vring_t *vring = vec_elt_at_index (vif->rxq_vrings, qid);
573   const int hdr_sz = vif->virtio_net_hdr_sz;
574   u16 txq_id = vm->thread_index % vif->num_txqs;
575   virtio_vring_t *txq_vring = vec_elt_at_index (vif->txq_vrings, txq_id);
576   uword rv;
577
578   if (clib_spinlock_trylock_if_init (&txq_vring->lockp))
579     {
580       if (vif->packet_coalesce)
581         vnet_gro_flow_table_schedule_node_on_dispatcher
582           (vm, txq_vring->flow_table);
583       else if (vif->packet_buffering)
584         virtio_vring_buffering_schedule_node_on_dispatcher
585           (vm, txq_vring->buffering);
586       clib_spinlock_unlock_if_init (&txq_vring->lockp);
587     }
588
589   if (vif->is_packed)
590     {
591       if (vring->device_event->flags != VRING_EVENT_F_DISABLE)
592         virtio_kick (vm, vring, vif);
593
594       if (vif->gso_enabled)
595         rv =
596           virtio_device_input_gso_inline (vm, node, frame, vif, vring, type,
597                                           1, 1, 1);
598       else if (vif->csum_offload_enabled)
599         rv =
600           virtio_device_input_gso_inline (vm, node, frame, vif, vring, type,
601                                           0, 1, 1);
602       else
603         rv =
604           virtio_device_input_gso_inline (vm, node, frame, vif, vring, type,
605                                           0, 0, 1);
606
607       virtio_refill_vring_packed (vm, vif, type, vring, hdr_sz,
608                                   node->node_index);
609     }
610   else
611     {
612       if ((vring->used->flags & VRING_USED_F_NO_NOTIFY) == 0 &&
613           vring->last_kick_avail_idx != vring->avail->idx)
614         virtio_kick (vm, vring, vif);
615
616       if (vif->gso_enabled)
617         rv =
618           virtio_device_input_gso_inline (vm, node, frame, vif, vring, type,
619                                           1, 1, 0);
620       else if (vif->csum_offload_enabled)
621         rv =
622           virtio_device_input_gso_inline (vm, node, frame, vif, vring, type,
623                                           0, 1, 0);
624       else
625         rv =
626           virtio_device_input_gso_inline (vm, node, frame, vif, vring, type,
627                                           0, 0, 0);
628
629       virtio_refill_vring_split (vm, vif, type, vring, hdr_sz,
630                                  node->node_index);
631     }
632   return rv;
633 }
634
635 VLIB_NODE_FN (virtio_input_node) (vlib_main_t * vm,
636                                   vlib_node_runtime_t * node,
637                                   vlib_frame_t * frame)
638 {
639   u32 n_rx = 0;
640   virtio_main_t *vim = &virtio_main;
641   vnet_hw_if_rxq_poll_vector_t *p,
642     *pv = vnet_hw_if_get_rxq_poll_vector (vm, node);
643
644   vec_foreach (p, pv)
645     {
646       virtio_if_t *vif;
647       vif = vec_elt_at_index (vim->interfaces, p->dev_instance);
648       if (vif->flags & VIRTIO_IF_FLAG_ADMIN_UP)
649         {
650           if (vif->type == VIRTIO_IF_TYPE_TAP)
651             n_rx += virtio_device_input_inline (
652               vm, node, frame, vif, p->queue_id, VIRTIO_IF_TYPE_TAP);
653           else if (vif->type == VIRTIO_IF_TYPE_PCI)
654             n_rx += virtio_device_input_inline (
655               vm, node, frame, vif, p->queue_id, VIRTIO_IF_TYPE_PCI);
656           else if (vif->type == VIRTIO_IF_TYPE_TUN)
657             n_rx += virtio_device_input_inline (
658               vm, node, frame, vif, p->queue_id, VIRTIO_IF_TYPE_TUN);
659         }
660     }
661
662   return n_rx;
663 }
664
665 /* *INDENT-OFF* */
666 VLIB_REGISTER_NODE (virtio_input_node) = {
667   .name = "virtio-input",
668   .sibling_of = "device-input",
669   .format_trace = format_virtio_input_trace,
670   .flags = VLIB_NODE_FLAG_TRACE_SUPPORTED,
671   .type = VLIB_NODE_TYPE_INPUT,
672   .state = VLIB_NODE_STATE_INTERRUPT,
673   .n_errors = VIRTIO_INPUT_N_ERROR,
674   .error_strings = virtio_input_error_strings,
675 };
676 /* *INDENT-ON* */
677
678 /*
679  * fd.io coding-style-patch-verification: ON
680  *
681  * Local Variables:
682  * eval: (c-set-style "gnu")
683  * End:
684  */