devices: add multi-queue support for af-packet
[vpp.git] / src / vnet / devices / af_packet / device.c
1 /*
2  *------------------------------------------------------------------
3  * af_packet.c - linux kernel packet interface
4  *
5  * Copyright (c) 2016 Cisco and/or its affiliates.
6  * Licensed under the Apache License, Version 2.0 (the "License");
7  * you may not use this file except in compliance with the License.
8  * You may obtain a copy of the License at:
9  *
10  *     http://www.apache.org/licenses/LICENSE-2.0
11  *
12  * Unless required by applicable law or agreed to in writing, software
13  * distributed under the License is distributed on an "AS IS" BASIS,
14  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
15  * See the License for the specific language governing permissions and
16  * limitations under the License.
17  *------------------------------------------------------------------
18  */
19
20 #include <linux/if_packet.h>
21 #include <sys/socket.h>
22 #include <sys/ioctl.h>
23 #include <net/if.h>
24 #include <net/if_arp.h>
25
26 #include <vlib/vlib.h>
27 #include <vlib/unix/unix.h>
28 #include <vnet/ip/ip.h>
29 #include <vnet/ethernet/ethernet.h>
30 #include <vnet/ip/ip4_packet.h>
31 #include <vnet/ip/ip6_packet.h>
32 #include <vnet/ip/ip_psh_cksum.h>
33 #include <vnet/tcp/tcp_packet.h>
34 #include <vnet/udp/udp_packet.h>
35
36 #include <vnet/devices/af_packet/af_packet.h>
37 #include <vnet/devices/virtio/virtio_std.h>
38
39 #define foreach_af_packet_tx_func_error               \
40 _(FRAME_NOT_READY, "tx frame not ready")              \
41 _(TXRING_EAGAIN,   "tx sendto temporary failure")     \
42 _(TXRING_FATAL,    "tx sendto fatal failure")         \
43 _(TXRING_OVERRUN,  "tx ring overrun")
44
45 typedef enum
46 {
47 #define _(f,s) AF_PACKET_TX_ERROR_##f,
48   foreach_af_packet_tx_func_error
49 #undef _
50     AF_PACKET_TX_N_ERROR,
51 } af_packet_tx_func_error_t;
52
53 static char *af_packet_tx_func_error_strings[] = {
54 #define _(n,s) s,
55   foreach_af_packet_tx_func_error
56 #undef _
57 };
58
59 typedef struct
60 {
61   u32 buffer_index;
62   u32 hw_if_index;
63   u16 queue_id;
64   tpacket3_hdr_t tph;
65   vnet_virtio_net_hdr_t vnet_hdr;
66   vlib_buffer_t buffer;
67 } af_packet_tx_trace_t;
68
69 #ifndef CLIB_MARCH_VARIANT
70 u8 *
71 format_af_packet_device_name (u8 * s, va_list * args)
72 {
73   u32 i = va_arg (*args, u32);
74   af_packet_main_t *apm = &af_packet_main;
75   af_packet_if_t *apif = pool_elt_at_index (apm->interfaces, i);
76
77   s = format (s, "host-%s", apif->host_if_name);
78   return s;
79 }
80 #endif /* CLIB_MARCH_VARIANT */
81
82 static u8 *
83 format_af_packet_device (u8 * s, va_list * args)
84 {
85   u32 dev_instance = va_arg (*args, u32);
86   u32 indent = format_get_indent (s);
87   int __clib_unused verbose = va_arg (*args, int);
88
89   af_packet_main_t *apm = &af_packet_main;
90   af_packet_if_t *apif = pool_elt_at_index (apm->interfaces, dev_instance);
91   af_packet_queue_t *rx_queue = 0;
92   af_packet_queue_t *tx_queue = 0;
93
94   s = format (s, "Linux PACKET socket interface");
95
96   vec_foreach (rx_queue, apif->rx_queues)
97     {
98       u32 rx_block_size = rx_queue->rx_req->tp_block_size;
99       u32 rx_frame_size = rx_queue->rx_req->tp_frame_size;
100       u32 rx_frame_nr = rx_queue->rx_req->tp_frame_nr;
101       u32 rx_block_nr = rx_queue->rx_req->tp_block_nr;
102
103       s = format (s, "\n%URX Queue %u:", format_white_space, indent,
104                   rx_queue->queue_id);
105       s = format (s, "\n%Ublock size:%d nr:%d  frame size:%d nr:%d",
106                   format_white_space, indent + 2, rx_block_size, rx_block_nr,
107                   rx_frame_size, rx_frame_nr);
108       s = format (s, " next block:%d", rx_queue->next_rx_block);
109       if (rx_queue->is_rx_pending)
110         {
111           s = format (
112             s, "\n%UPending Request: num-rx-pkts:%d next-frame-offset:%d",
113             format_white_space, indent + 2, rx_queue->num_rx_pkts,
114             rx_queue->rx_frame_offset);
115         }
116     }
117
118   vec_foreach (tx_queue, apif->tx_queues)
119     {
120       clib_spinlock_lock (&tx_queue->lockp);
121       u32 tx_block_sz = tx_queue->tx_req->tp_block_size;
122       u32 tx_frame_sz = tx_queue->tx_req->tp_frame_size;
123       u32 tx_frame_nr = tx_queue->tx_req->tp_frame_nr;
124       u32 tx_block_nr = tx_queue->tx_req->tp_block_nr;
125       int block = 0;
126       int n_send_req = 0, n_avail = 0, n_sending = 0, n_tot = 0, n_wrong = 0;
127       u8 *tx_block_start = tx_queue->tx_ring[block];
128       u32 tx_frame = tx_queue->next_tx_frame;
129       tpacket3_hdr_t *tph;
130
131       s = format (s, "\n%UTX Queue %u:", format_white_space, indent,
132                   tx_queue->queue_id);
133       s = format (s, "\n%Ublock size:%d nr:%d  frame size:%d nr:%d",
134                   format_white_space, indent + 2, tx_block_sz, tx_block_nr,
135                   tx_frame_sz, tx_frame_nr);
136       s = format (s, " next frame:%d", tx_queue->next_tx_frame);
137
138       do
139         {
140           tph = (tpacket3_hdr_t *) (tx_block_start + tx_frame * tx_frame_sz);
141           tx_frame = (tx_frame + 1) % tx_frame_nr;
142           if (tph->tp_status == 0)
143             n_avail++;
144           else if (tph->tp_status & TP_STATUS_SEND_REQUEST)
145             n_send_req++;
146           else if (tph->tp_status & TP_STATUS_SENDING)
147             n_sending++;
148           else
149             n_wrong++;
150           n_tot++;
151         }
152       while (tx_frame != tx_queue->next_tx_frame);
153       s =
154         format (s, "\n%Uavailable:%d request:%d sending:%d wrong:%d total:%d",
155                 format_white_space, indent + 2, n_avail, n_send_req, n_sending,
156                 n_wrong, n_tot);
157       clib_spinlock_unlock (&tx_queue->lockp);
158     }
159   return s;
160 }
161
162 static u8 *
163 format_af_packet_tx_trace (u8 *s, va_list *va)
164 {
165   CLIB_UNUSED (vlib_main_t * vm) = va_arg (*va, vlib_main_t *);
166   CLIB_UNUSED (vlib_node_t * node) = va_arg (*va, vlib_node_t *);
167   af_packet_tx_trace_t *t = va_arg (*va, af_packet_tx_trace_t *);
168   u32 indent = format_get_indent (s);
169
170   s = format (s, "af_packet: hw_if_index %u tx-queue %u", t->hw_if_index,
171               t->queue_id);
172
173   s =
174     format (s,
175             "\n%Utpacket3_hdr:\n%Ustatus 0x%x len %u snaplen %u mac %u net %u"
176             "\n%Usec 0x%x nsec 0x%x vlan %U"
177 #ifdef TP_STATUS_VLAN_TPID_VALID
178             " vlan_tpid %u"
179 #endif
180             ,
181             format_white_space, indent + 2, format_white_space, indent + 4,
182             t->tph.tp_status, t->tph.tp_len, t->tph.tp_snaplen, t->tph.tp_mac,
183             t->tph.tp_net, format_white_space, indent + 4, t->tph.tp_sec,
184             t->tph.tp_nsec, format_ethernet_vlan_tci, t->tph.hv1.tp_vlan_tci
185 #ifdef TP_STATUS_VLAN_TPID_VALID
186             ,
187             t->tph.hv1.tp_vlan_tpid
188 #endif
189     );
190
191   s = format (s,
192               "\n%Uvnet-hdr:\n%Uflags 0x%02x gso_type 0x%02x hdr_len %u"
193               "\n%Ugso_size %u csum_start %u csum_offset %u",
194               format_white_space, indent + 2, format_white_space, indent + 4,
195               t->vnet_hdr.flags, t->vnet_hdr.gso_type, t->vnet_hdr.hdr_len,
196               format_white_space, indent + 4, t->vnet_hdr.gso_size,
197               t->vnet_hdr.csum_start, t->vnet_hdr.csum_offset);
198
199   s = format (s, "\n%Ubuffer 0x%x:\n%U%U", format_white_space, indent + 2,
200               t->buffer_index, format_white_space, indent + 4,
201               format_vnet_buffer_no_chain, &t->buffer);
202   s = format (s, "\n%U%U", format_white_space, indent + 2,
203               format_ethernet_header_with_length, t->buffer.pre_data,
204               sizeof (t->buffer.pre_data));
205   return s;
206 }
207
208 static void
209 af_packet_tx_trace (vlib_main_t *vm, vlib_node_runtime_t *node,
210                     vlib_buffer_t *b0, u32 bi, tpacket3_hdr_t *tph,
211                     vnet_virtio_net_hdr_t *vnet_hdr, u32 hw_if_index,
212                     u16 queue_id)
213 {
214   af_packet_tx_trace_t *t;
215   t = vlib_add_trace (vm, node, b0, sizeof (t[0]));
216   t->hw_if_index = hw_if_index;
217   t->queue_id = queue_id;
218   t->buffer_index = bi;
219
220   clib_memcpy_fast (&t->tph, tph, sizeof (*tph));
221   clib_memcpy_fast (&t->vnet_hdr, vnet_hdr, sizeof (*vnet_hdr));
222   clib_memcpy_fast (&t->buffer, b0, sizeof (*b0) - sizeof (b0->pre_data));
223   clib_memcpy_fast (t->buffer.pre_data, vlib_buffer_get_current (b0),
224                     sizeof (t->buffer.pre_data));
225 }
226
227 static_always_inline void
228 fill_gso_offload (vlib_buffer_t *b0, vnet_virtio_net_hdr_t *vnet_hdr)
229 {
230   vnet_buffer_oflags_t oflags = vnet_buffer (b0)->oflags;
231   if (b0->flags & VNET_BUFFER_F_IS_IP4)
232     {
233       ip4_header_t *ip4;
234       vnet_hdr->gso_type = VIRTIO_NET_HDR_GSO_TCPV4;
235       vnet_hdr->gso_size = vnet_buffer2 (b0)->gso_size;
236       vnet_hdr->hdr_len =
237         vnet_buffer (b0)->l4_hdr_offset + vnet_buffer2 (b0)->gso_l4_hdr_sz;
238       vnet_hdr->flags = VIRTIO_NET_HDR_F_NEEDS_CSUM;
239       vnet_hdr->csum_start = vnet_buffer (b0)->l4_hdr_offset; // 0x22;
240       vnet_hdr->csum_offset = STRUCT_OFFSET_OF (tcp_header_t, checksum);
241       ip4 = (ip4_header_t *) (vlib_buffer_get_current (b0) +
242                               vnet_buffer (b0)->l3_hdr_offset);
243       if (oflags & VNET_BUFFER_OFFLOAD_F_IP_CKSUM)
244         ip4->checksum = ip4_header_checksum (ip4);
245     }
246   else if (b0->flags & VNET_BUFFER_F_IS_IP6)
247     {
248       vnet_hdr->gso_type = VIRTIO_NET_HDR_GSO_TCPV6;
249       vnet_hdr->gso_size = vnet_buffer2 (b0)->gso_size;
250       vnet_hdr->hdr_len =
251         vnet_buffer (b0)->l4_hdr_offset + vnet_buffer2 (b0)->gso_l4_hdr_sz;
252       vnet_hdr->flags = VIRTIO_NET_HDR_F_NEEDS_CSUM;
253       vnet_hdr->csum_start = vnet_buffer (b0)->l4_hdr_offset; // 0x36;
254       vnet_hdr->csum_offset = STRUCT_OFFSET_OF (tcp_header_t, checksum);
255     }
256 }
257
258 static_always_inline void
259 fill_cksum_offload (vlib_buffer_t *b0, vnet_virtio_net_hdr_t *vnet_hdr)
260 {
261   vnet_buffer_oflags_t oflags = vnet_buffer (b0)->oflags;
262   if (b0->flags & VNET_BUFFER_F_IS_IP4)
263     {
264       ip4_header_t *ip4;
265       ip4 = (ip4_header_t *) (vlib_buffer_get_current (b0) +
266                               vnet_buffer (b0)->l3_hdr_offset);
267       if (oflags & VNET_BUFFER_OFFLOAD_F_IP_CKSUM)
268         ip4->checksum = ip4_header_checksum (ip4);
269       vnet_hdr->flags = VIRTIO_NET_HDR_F_NEEDS_CSUM;
270       vnet_hdr->csum_start = 0x22;
271       if (oflags & VNET_BUFFER_OFFLOAD_F_TCP_CKSUM)
272         {
273           tcp_header_t *tcp =
274             (tcp_header_t *) (vlib_buffer_get_current (b0) +
275                               vnet_buffer (b0)->l4_hdr_offset);
276           tcp->checksum = ip4_pseudo_header_cksum (ip4);
277           vnet_hdr->csum_offset = STRUCT_OFFSET_OF (tcp_header_t, checksum);
278         }
279       else if (oflags & VNET_BUFFER_OFFLOAD_F_UDP_CKSUM)
280         {
281           udp_header_t *udp =
282             (udp_header_t *) (vlib_buffer_get_current (b0) +
283                               vnet_buffer (b0)->l4_hdr_offset);
284           udp->checksum = ip4_pseudo_header_cksum (ip4);
285           vnet_hdr->csum_offset = STRUCT_OFFSET_OF (udp_header_t, checksum);
286         }
287     }
288   else if (b0->flags & VNET_BUFFER_F_IS_IP6)
289     {
290       ip6_header_t *ip6;
291       vnet_hdr->flags = VIRTIO_NET_HDR_F_NEEDS_CSUM;
292       vnet_hdr->csum_start = 0x36;
293       ip6 = (ip6_header_t *) (vlib_buffer_get_current (b0) +
294                               vnet_buffer (b0)->l3_hdr_offset);
295       if (oflags & VNET_BUFFER_OFFLOAD_F_TCP_CKSUM)
296         {
297           tcp_header_t *tcp =
298             (tcp_header_t *) (vlib_buffer_get_current (b0) +
299                               vnet_buffer (b0)->l4_hdr_offset);
300           tcp->checksum = ip6_pseudo_header_cksum (ip6);
301           vnet_hdr->csum_offset = STRUCT_OFFSET_OF (tcp_header_t, checksum);
302         }
303       else if (oflags & VNET_BUFFER_OFFLOAD_F_UDP_CKSUM)
304         {
305           udp_header_t *udp =
306             (udp_header_t *) (vlib_buffer_get_current (b0) +
307                               vnet_buffer (b0)->l4_hdr_offset);
308           udp->checksum = ip6_pseudo_header_cksum (ip6);
309           vnet_hdr->csum_offset = STRUCT_OFFSET_OF (udp_header_t, checksum);
310         }
311     }
312 }
313
314 VNET_DEVICE_CLASS_TX_FN (af_packet_device_class) (vlib_main_t * vm,
315                                                   vlib_node_runtime_t * node,
316                                                   vlib_frame_t * frame)
317 {
318   af_packet_main_t *apm = &af_packet_main;
319   vnet_hw_if_tx_frame_t *tf = vlib_frame_scalar_args (frame);
320   u32 *buffers = vlib_frame_vector_args (frame);
321   u32 n_left = frame->n_vectors;
322   u32 n_sent = 0;
323   vnet_interface_output_runtime_t *rd = (void *) node->runtime_data;
324   af_packet_if_t *apif =
325     pool_elt_at_index (apm->interfaces, rd->dev_instance);
326   u16 queue_id = tf->queue_id;
327   af_packet_queue_t *tx_queue = vec_elt_at_index (apif->tx_queues, queue_id);
328   u32 block = 0, frame_size = 0, frame_num = 0, tx_frame = 0;
329   u8 *block_start = 0;
330   tpacket3_hdr_t *tph = 0;
331   u32 frame_not_ready = 0;
332   u8 is_cksum_gso_enabled = (apif->is_cksum_gso_enabled == 1) ? 1 : 0;
333
334   if (tf->shared_queue)
335     clib_spinlock_lock (&tx_queue->lockp);
336
337   frame_size = tx_queue->tx_req->tp_frame_size;
338   frame_num = tx_queue->tx_req->tp_frame_nr;
339   block_start = tx_queue->tx_ring[block];
340   tx_frame = tx_queue->next_tx_frame;
341
342   while (n_left)
343     {
344       u32 len;
345       vnet_virtio_net_hdr_t *vnet_hdr = 0;
346       u32 offset = 0;
347       vlib_buffer_t *b0 = 0, *b0_first = 0;
348       u32 bi, bi_first;
349
350       bi = bi_first = buffers[0];
351       n_left--;
352       buffers++;
353
354       tph = (tpacket3_hdr_t *) (block_start + tx_frame * frame_size);
355       if (PREDICT_FALSE (tph->tp_status &
356                          (TP_STATUS_SEND_REQUEST | TP_STATUS_SENDING)))
357         {
358           frame_not_ready++;
359           goto next;
360         }
361
362       b0_first = b0 = vlib_get_buffer (vm, bi);
363
364       if (PREDICT_TRUE (is_cksum_gso_enabled))
365         {
366           vnet_hdr =
367             (vnet_virtio_net_hdr_t *) ((u8 *) tph + TPACKET_ALIGN (sizeof (
368                                                       tpacket3_hdr_t)));
369
370           clib_memset_u8 (vnet_hdr, 0, sizeof (vnet_virtio_net_hdr_t));
371           offset = sizeof (vnet_virtio_net_hdr_t);
372
373           if (b0->flags & VNET_BUFFER_F_GSO)
374             fill_gso_offload (b0, vnet_hdr);
375           else if (b0->flags & VNET_BUFFER_F_OFFLOAD)
376             fill_cksum_offload (b0, vnet_hdr);
377         }
378
379       len = b0->current_length;
380       clib_memcpy_fast ((u8 *) tph + TPACKET_ALIGN (sizeof (tpacket3_hdr_t)) +
381                           offset,
382                         vlib_buffer_get_current (b0), len);
383       offset += len;
384
385       while (b0->flags & VLIB_BUFFER_NEXT_PRESENT)
386         {
387           b0 = vlib_get_buffer (vm, b0->next_buffer);
388           len = b0->current_length;
389           clib_memcpy_fast ((u8 *) tph +
390                               TPACKET_ALIGN (sizeof (tpacket3_hdr_t)) + offset,
391                             vlib_buffer_get_current (b0), len);
392           offset += len;
393         }
394
395       tph->tp_len = tph->tp_snaplen = offset;
396       tph->tp_status = TP_STATUS_SEND_REQUEST;
397       n_sent++;
398
399       if (PREDICT_FALSE (b0_first->flags & VLIB_BUFFER_IS_TRACED))
400         {
401           if (PREDICT_TRUE (is_cksum_gso_enabled))
402             af_packet_tx_trace (vm, node, b0_first, bi_first, tph, vnet_hdr,
403                                 apif->hw_if_index, queue_id);
404           else
405             {
406               vnet_virtio_net_hdr_t vnet_hdr2 = {};
407               af_packet_tx_trace (vm, node, b0_first, bi_first, tph,
408                                   &vnet_hdr2, apif->hw_if_index, queue_id);
409             }
410         }
411       tx_frame = (tx_frame + 1) % frame_num;
412
413     next:
414       /* check if we've exhausted the ring */
415       if (PREDICT_FALSE (frame_not_ready + n_sent == frame_num))
416         break;
417     }
418
419   CLIB_MEMORY_BARRIER ();
420
421   if (PREDICT_TRUE (n_sent))
422     {
423       tx_queue->next_tx_frame = tx_frame;
424
425       if (PREDICT_FALSE (
426             sendto (tx_queue->fd, NULL, 0, MSG_DONTWAIT, NULL, 0) == -1))
427         {
428           /* Uh-oh, drop & move on, but count whether it was fatal or not.
429            * Note that we have no reliable way to properly determine the
430            * disposition of the packets we just enqueued for delivery.
431            */
432           vlib_error_count (vm, node->node_index,
433                             unix_error_is_fatal (errno) ?
434                               AF_PACKET_TX_ERROR_TXRING_FATAL :
435                               AF_PACKET_TX_ERROR_TXRING_EAGAIN,
436                             n_sent);
437         }
438     }
439
440   if (tf->shared_queue)
441     clib_spinlock_unlock (&tx_queue->lockp);
442
443   if (PREDICT_FALSE (frame_not_ready))
444     vlib_error_count (vm, node->node_index,
445                       AF_PACKET_TX_ERROR_FRAME_NOT_READY, frame_not_ready);
446
447   if (PREDICT_FALSE (frame_not_ready + n_sent == frame_num))
448     vlib_error_count (vm, node->node_index, AF_PACKET_TX_ERROR_TXRING_OVERRUN,
449                       n_left);
450
451   vlib_buffer_free (vm, vlib_frame_vector_args (frame), frame->n_vectors);
452   return frame->n_vectors;
453 }
454
455 static void
456 af_packet_set_interface_next_node (vnet_main_t * vnm, u32 hw_if_index,
457                                    u32 node_index)
458 {
459   af_packet_main_t *apm = &af_packet_main;
460   vnet_hw_interface_t *hw = vnet_get_hw_interface (vnm, hw_if_index);
461   af_packet_if_t *apif =
462     pool_elt_at_index (apm->interfaces, hw->dev_instance);
463
464   /* Shut off redirection */
465   if (node_index == ~0)
466     {
467       apif->per_interface_next_index = node_index;
468       return;
469     }
470
471   apif->per_interface_next_index =
472     vlib_node_add_next (vlib_get_main (), af_packet_input_node.index,
473                         node_index);
474 }
475
476 static void
477 af_packet_clear_hw_interface_counters (u32 instance)
478 {
479   /* Nothing for now */
480 }
481
482 static clib_error_t *
483 af_packet_interface_admin_up_down (vnet_main_t * vnm, u32 hw_if_index,
484                                    u32 flags)
485 {
486   af_packet_main_t *apm = &af_packet_main;
487   vnet_hw_interface_t *hw = vnet_get_hw_interface (vnm, hw_if_index);
488   af_packet_if_t *apif =
489     pool_elt_at_index (apm->interfaces, hw->dev_instance);
490   u32 hw_flags;
491   int rv, fd = socket (AF_UNIX, SOCK_DGRAM, 0);
492   struct ifreq ifr;
493
494   if (0 > fd)
495     {
496       vlib_log_warn (apm->log_class, "af_packet_%s could not open socket",
497                      apif->host_if_name);
498       return 0;
499     }
500
501   /* if interface is a bridge ignore */
502   if (apif->host_if_index < 0)
503     goto error;                 /* no error */
504
505   /* use host_if_index in case host name has changed */
506   ifr.ifr_ifindex = apif->host_if_index;
507   if ((rv = ioctl (fd, SIOCGIFNAME, &ifr)) < 0)
508     {
509       vlib_log_warn (apm->log_class,
510                      "af_packet_%s ioctl could not retrieve eth name",
511                      apif->host_if_name);
512       goto error;
513     }
514
515   apif->is_admin_up = (flags & VNET_SW_INTERFACE_FLAG_ADMIN_UP) != 0;
516
517   if ((rv = ioctl (fd, SIOCGIFFLAGS, &ifr)) < 0)
518     {
519       vlib_log_warn (apm->log_class, "af_packet_%s error: %d",
520                      apif->is_admin_up ? "up" : "down", rv);
521       goto error;
522     }
523
524   if (apif->is_admin_up)
525     {
526       hw_flags = VNET_HW_INTERFACE_FLAG_LINK_UP;
527       ifr.ifr_flags |= IFF_UP;
528     }
529   else
530     {
531       hw_flags = 0;
532       ifr.ifr_flags &= ~IFF_UP;
533     }
534
535   if ((rv = ioctl (fd, SIOCSIFFLAGS, &ifr)) < 0)
536     {
537       vlib_log_warn (apm->log_class, "af_packet_%s error: %d",
538                      apif->is_admin_up ? "up" : "down", rv);
539       goto error;
540     }
541
542   vnet_hw_interface_set_flags (vnm, hw_if_index, hw_flags);
543
544 error:
545   if (0 <= fd)
546     close (fd);
547
548   return 0;                     /* no error */
549 }
550
551 static clib_error_t *
552 af_packet_subif_add_del_function (vnet_main_t * vnm,
553                                   u32 hw_if_index,
554                                   struct vnet_sw_interface_t *st, int is_add)
555 {
556   /* Nothing for now */
557   return 0;
558 }
559
560 static clib_error_t *af_packet_set_mac_address_function
561   (struct vnet_hw_interface_t *hi, const u8 * old_address, const u8 * address)
562 {
563   af_packet_main_t *apm = &af_packet_main;
564   af_packet_if_t *apif =
565     pool_elt_at_index (apm->interfaces, hi->dev_instance);
566   int rv, fd;
567   struct ifreq ifr;
568
569   if (apif->mode == AF_PACKET_IF_MODE_IP)
570     {
571       vlib_log_warn (apm->log_class, "af_packet_%s interface is in IP mode",
572                      apif->host_if_name);
573       return clib_error_return (0,
574                                 " MAC update failed, interface is in IP mode");
575     }
576
577   fd = socket (AF_UNIX, SOCK_DGRAM, 0);
578   if (0 > fd)
579     {
580       vlib_log_warn (apm->log_class, "af_packet_%s could not open socket",
581                      apif->host_if_name);
582       return 0;
583     }
584
585   /* if interface is a bridge ignore */
586   if (apif->host_if_index < 0)
587     goto error;                 /* no error */
588
589   /* use host_if_index in case host name has changed */
590   ifr.ifr_ifindex = apif->host_if_index;
591   if ((rv = ioctl (fd, SIOCGIFNAME, &ifr)) < 0)
592     {
593       vlib_log_warn
594         (apm->log_class,
595          "af_packet_%s ioctl could not retrieve eth name, error: %d",
596          apif->host_if_name, rv);
597       goto error;
598     }
599
600   clib_memcpy (ifr.ifr_hwaddr.sa_data, address, 6);
601   ifr.ifr_hwaddr.sa_family = ARPHRD_ETHER;
602
603   if ((rv = ioctl (fd, SIOCSIFHWADDR, &ifr)) < 0)
604     {
605       vlib_log_warn (apm->log_class,
606                      "af_packet_%s ioctl could not set mac, error: %d",
607                      apif->host_if_name, rv);
608       goto error;
609     }
610
611 error:
612
613   if (0 <= fd)
614     close (fd);
615
616   return 0;                     /* no error */
617 }
618
619 VNET_DEVICE_CLASS (af_packet_device_class) = {
620   .name = "af-packet",
621   .format_device_name = format_af_packet_device_name,
622   .format_device = format_af_packet_device,
623   .format_tx_trace = format_af_packet_tx_trace,
624   .tx_function_n_errors = AF_PACKET_TX_N_ERROR,
625   .tx_function_error_strings = af_packet_tx_func_error_strings,
626   .rx_redirect_to_node = af_packet_set_interface_next_node,
627   .clear_counters = af_packet_clear_hw_interface_counters,
628   .admin_up_down_function = af_packet_interface_admin_up_down,
629   .subif_add_del_function = af_packet_subif_add_del_function,
630   .mac_addr_change_function = af_packet_set_mac_address_function,
631 };
632
633 /*
634  * fd.io coding-style-patch-verification: ON
635  *
636  * Local Variables:
637  * eval: (c-set-style "gnu")
638  * End:
639  */