memif: avoid double buffer free
[vpp.git] / src / plugins / memif / device.c
1 /*
2  *------------------------------------------------------------------
3  * Copyright (c) 2016 Cisco and/or its affiliates.
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  *------------------------------------------------------------------
16  */
17
18 #define _GNU_SOURCE
19 #include <stdint.h>
20 #include <net/if.h>
21 #include <sys/ioctl.h>
22 #include <sys/uio.h>
23
24 #include <vlib/vlib.h>
25 #include <vlib/unix/unix.h>
26 #include <vnet/ethernet/ethernet.h>
27
28 #include <memif/memif.h>
29 #include <memif/private.h>
30
31 #define foreach_memif_tx_func_error            \
32 _(NO_FREE_SLOTS, "no free tx slots")           \
33 _(TRUNC_PACKET, "packet > buffer size -- truncated in tx ring") \
34 _(PENDING_MSGS, "pending msgs in tx ring")
35
36 typedef enum
37 {
38 #define _(f,s) MEMIF_TX_ERROR_##f,
39   foreach_memif_tx_func_error
40 #undef _
41     MEMIF_TX_N_ERROR,
42 } memif_tx_func_error_t;
43
44 static char *memif_tx_func_error_strings[] = {
45 #define _(n,s) s,
46   foreach_memif_tx_func_error
47 #undef _
48 };
49
50 u8 *
51 format_memif_device_name (u8 * s, va_list * args)
52 {
53   u32 i = va_arg (*args, u32);
54
55   s = format (s, "memif%u", i);
56   return s;
57 }
58
59 static u8 *
60 format_memif_device (u8 * s, va_list * args)
61 {
62   u32 dev_instance = va_arg (*args, u32);
63   int verbose = va_arg (*args, int);
64   uword indent = format_get_indent (s);
65
66   s = format (s, "MEMIF interface");
67   if (verbose)
68     {
69       s = format (s, "\n%U instance %u", format_white_space, indent + 2,
70                   dev_instance);
71     }
72   return s;
73 }
74
75 static u8 *
76 format_memif_tx_trace (u8 * s, va_list * args)
77 {
78   s = format (s, "Unimplemented...");
79   return s;
80 }
81
82 static_always_inline void
83 memif_prefetch_buffer_and_data (vlib_main_t * vm, u32 bi)
84 {
85   vlib_buffer_t *b = vlib_get_buffer (vm, bi);
86   vlib_prefetch_buffer_header (b, LOAD);
87   CLIB_PREFETCH (b->data, CLIB_CACHE_LINE_BYTES, LOAD);
88 }
89
90 /**
91  * @brief Copy buffer to tx ring
92  *
93  * @param * vm (in)
94  * @param * node (in)
95  * @param * mif (in) pointer to memif interface
96  * @param bi (in) vlib buffer index
97  * @param * ring (in) pointer to memif ring
98  * @param * head (in/out) ring head
99  * @param mask (in) ring size - 1
100  */
101 static_always_inline void
102 memif_copy_buffer_to_tx_ring (vlib_main_t * vm, vlib_node_runtime_t * node,
103                               memif_if_t * mif, u32 bi, memif_ring_t * ring,
104                               u16 * head, u16 mask)
105 {
106   vlib_buffer_t *b0;
107   void *mb0;
108   u32 total = 0, len;
109
110   mb0 = memif_get_buffer (mif, ring, *head);
111   ring->desc[*head].flags = 0;
112   do
113     {
114       b0 = vlib_get_buffer (vm, bi);
115       len = b0->current_length;
116       if (PREDICT_FALSE (ring->desc[*head].buffer_length < (total + len)))
117         {
118           if (PREDICT_TRUE (total))
119             {
120               ring->desc[*head].length = total;
121               total = 0;
122               ring->desc[*head].flags |= MEMIF_DESC_FLAG_NEXT;
123               *head = (*head + 1) & mask;
124               mb0 = memif_get_buffer (mif, ring, *head);
125               ring->desc[*head].flags = 0;
126             }
127         }
128       if (PREDICT_TRUE (ring->desc[*head].buffer_length >= (total + len)))
129         {
130           clib_memcpy (mb0 + total, vlib_buffer_get_current (b0),
131                        CLIB_CACHE_LINE_BYTES);
132           if (len > CLIB_CACHE_LINE_BYTES)
133             clib_memcpy (mb0 + CLIB_CACHE_LINE_BYTES + total,
134                          vlib_buffer_get_current (b0) + CLIB_CACHE_LINE_BYTES,
135                          len - CLIB_CACHE_LINE_BYTES);
136           total += len;
137         }
138       else
139         {
140           vlib_error_count (vm, node->node_index, MEMIF_TX_ERROR_TRUNC_PACKET,
141                             1);
142           break;
143         }
144     }
145   while ((bi = (b0->flags & VLIB_BUFFER_NEXT_PRESENT) ? b0->next_buffer : 0));
146
147   if (PREDICT_TRUE (total))
148     {
149       ring->desc[*head].length = total;
150       *head = (*head + 1) & mask;
151     }
152 }
153
154 static_always_inline uword
155 memif_interface_tx_inline (vlib_main_t * vm, vlib_node_runtime_t * node,
156                            vlib_frame_t * frame, memif_if_t * mif,
157                            memif_ring_type_t type)
158 {
159   u8 qid;
160   memif_ring_t *ring;
161   u32 *buffers = vlib_frame_args (frame);
162   u32 n_left = frame->n_vectors;
163   u16 ring_size, mask;
164   u16 head, tail;
165   u16 free_slots;
166   u32 thread_index = vlib_get_thread_index ();
167   u8 tx_queues = vec_len (mif->tx_queues);
168   memif_queue_t *mq;
169
170   if (tx_queues < vec_len (vlib_mains))
171     {
172       qid = thread_index % tx_queues;
173       clib_spinlock_lock_if_init (&mif->lockp);
174     }
175   else
176     {
177       qid = thread_index;
178     }
179   mq = vec_elt_at_index (mif->tx_queues, qid);
180   ring = mq->ring;
181   ring_size = 1 << mq->log2_ring_size;
182   mask = ring_size - 1;
183
184   /* free consumed buffers */
185
186   head = ring->head;
187   tail = ring->tail;
188
189   if (tail > head)
190     free_slots = tail - head;
191   else
192     free_slots = ring_size - head + tail;
193
194   while (n_left > 5 && free_slots > 1)
195     {
196       if (PREDICT_TRUE (head + 5 < ring_size))
197         {
198           CLIB_PREFETCH (memif_get_buffer (mif, ring, head + 2),
199                          CLIB_CACHE_LINE_BYTES, STORE);
200           CLIB_PREFETCH (memif_get_buffer (mif, ring, head + 3),
201                          CLIB_CACHE_LINE_BYTES, STORE);
202           CLIB_PREFETCH (&ring->desc[head + 4], CLIB_CACHE_LINE_BYTES, STORE);
203           CLIB_PREFETCH (&ring->desc[head + 5], CLIB_CACHE_LINE_BYTES, STORE);
204         }
205       else
206         {
207           CLIB_PREFETCH (memif_get_buffer (mif, ring, (head + 2) % mask),
208                          CLIB_CACHE_LINE_BYTES, STORE);
209           CLIB_PREFETCH (memif_get_buffer (mif, ring, (head + 3) % mask),
210                          CLIB_CACHE_LINE_BYTES, STORE);
211           CLIB_PREFETCH (&ring->desc[(head + 4) % mask],
212                          CLIB_CACHE_LINE_BYTES, STORE);
213           CLIB_PREFETCH (&ring->desc[(head + 5) % mask],
214                          CLIB_CACHE_LINE_BYTES, STORE);
215         }
216
217       memif_prefetch_buffer_and_data (vm, buffers[2]);
218       memif_prefetch_buffer_and_data (vm, buffers[3]);
219
220       memif_copy_buffer_to_tx_ring (vm, node, mif, buffers[0], ring, &head,
221                                     mask);
222       memif_copy_buffer_to_tx_ring (vm, node, mif, buffers[1], ring, &head,
223                                     mask);
224
225       buffers += 2;
226       n_left -= 2;
227       free_slots -= 2;
228     }
229
230   while (n_left && free_slots)
231     {
232       memif_copy_buffer_to_tx_ring (vm, node, mif, buffers[0], ring, &head,
233                                     mask);
234       buffers++;
235       n_left--;
236       free_slots--;
237     }
238
239   CLIB_MEMORY_STORE_BARRIER ();
240   ring->head = head;
241
242   clib_spinlock_unlock_if_init (&mif->lockp);
243
244   if (n_left)
245     {
246       vlib_error_count (vm, node->node_index, MEMIF_TX_ERROR_NO_FREE_SLOTS,
247                         n_left);
248     }
249
250   vlib_buffer_free (vm, vlib_frame_args (frame), frame->n_vectors);
251   if ((ring->flags & MEMIF_RING_FLAG_MASK_INT) == 0 && mq->int_fd > -1)
252     {
253       u64 b = 1;
254       CLIB_UNUSED (int r) = write (mq->int_fd, &b, sizeof (b));
255       mq->int_count++;
256     }
257
258   return frame->n_vectors;
259 }
260
261 static uword
262 memif_interface_tx (vlib_main_t * vm,
263                     vlib_node_runtime_t * node, vlib_frame_t * frame)
264 {
265   memif_main_t *nm = &memif_main;
266   vnet_interface_output_runtime_t *rund = (void *) node->runtime_data;
267   memif_if_t *mif = pool_elt_at_index (nm->interfaces, rund->dev_instance);
268
269   if (mif->flags & MEMIF_IF_FLAG_IS_SLAVE)
270     return memif_interface_tx_inline (vm, node, frame, mif, MEMIF_RING_S2M);
271   else
272     return memif_interface_tx_inline (vm, node, frame, mif, MEMIF_RING_M2S);
273 }
274
275 static void
276 memif_set_interface_next_node (vnet_main_t * vnm, u32 hw_if_index,
277                                u32 node_index)
278 {
279   memif_main_t *apm = &memif_main;
280   vnet_hw_interface_t *hw = vnet_get_hw_interface (vnm, hw_if_index);
281   memif_if_t *mif = pool_elt_at_index (apm->interfaces, hw->dev_instance);
282
283   /* Shut off redirection */
284   if (node_index == ~0)
285     {
286       mif->per_interface_next_index = node_index;
287       return;
288     }
289
290   mif->per_interface_next_index =
291     vlib_node_add_next (vlib_get_main (), memif_input_node.index, node_index);
292 }
293
294 static void
295 memif_clear_hw_interface_counters (u32 instance)
296 {
297   /* Nothing for now */
298 }
299
300 static clib_error_t *
301 memif_interface_rx_mode_change (vnet_main_t * vnm, u32 hw_if_index, u32 qid,
302                                 vnet_hw_interface_rx_mode mode)
303 {
304   memif_main_t *mm = &memif_main;
305   vnet_hw_interface_t *hw = vnet_get_hw_interface (vnm, hw_if_index);
306   memif_if_t *mif = pool_elt_at_index (mm->interfaces, hw->dev_instance);
307   memif_queue_t *mq = vec_elt_at_index (mif->rx_queues, qid);
308
309   if (mode == VNET_HW_INTERFACE_RX_MODE_POLLING)
310     mq->ring->flags |= MEMIF_RING_FLAG_MASK_INT;
311   else
312     mq->ring->flags &= ~MEMIF_RING_FLAG_MASK_INT;
313
314   return 0;
315 }
316
317 static clib_error_t *
318 memif_interface_admin_up_down (vnet_main_t * vnm, u32 hw_if_index, u32 flags)
319 {
320   memif_main_t *mm = &memif_main;
321   vnet_hw_interface_t *hw = vnet_get_hw_interface (vnm, hw_if_index);
322   memif_if_t *mif = pool_elt_at_index (mm->interfaces, hw->dev_instance);
323   static clib_error_t *error = 0;
324
325   if (flags & VNET_SW_INTERFACE_FLAG_ADMIN_UP)
326     mif->flags |= MEMIF_IF_FLAG_ADMIN_UP;
327   else
328     mif->flags &= ~MEMIF_IF_FLAG_ADMIN_UP;
329
330   return error;
331 }
332
333 static clib_error_t *
334 memif_subif_add_del_function (vnet_main_t * vnm,
335                               u32 hw_if_index,
336                               struct vnet_sw_interface_t *st, int is_add)
337 {
338   /* Nothing for now */
339   return 0;
340 }
341
342 /* *INDENT-OFF* */
343 VNET_DEVICE_CLASS (memif_device_class) = {
344   .name = "memif",
345   .tx_function = memif_interface_tx,
346   .format_device_name = format_memif_device_name,
347   .format_device = format_memif_device,
348   .format_tx_trace = format_memif_tx_trace,
349   .tx_function_n_errors = MEMIF_TX_N_ERROR,
350   .tx_function_error_strings = memif_tx_func_error_strings,
351   .rx_redirect_to_node = memif_set_interface_next_node,
352   .clear_counters = memif_clear_hw_interface_counters,
353   .admin_up_down_function = memif_interface_admin_up_down,
354   .subif_add_del_function = memif_subif_add_del_function,
355   .rx_mode_change_function = memif_interface_rx_mode_change,
356 };
357
358 VLIB_DEVICE_TX_FUNCTION_MULTIARCH(memif_device_class,
359                                   memif_interface_tx)
360 /* *INDENT-ON* */
361
362 /*
363  * fd.io coding-style-patch-verification: ON
364  *
365  * Local Variables:
366  * eval: (c-set-style "gnu")
367  * End:
368  */