vlib: vlib_buffer_free_internal optimizations
[vpp.git] / src / vlib / buffer.c
1 /*
2  * Copyright (c) 2015 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 /*
16  * buffer.c: allocate/free network buffers.
17  *
18  * Copyright (c) 2008 Eliot Dresselhaus
19  *
20  * Permission is hereby granted, free of charge, to any person obtaining
21  * a copy of this software and associated documentation files (the
22  * "Software"), to deal in the Software without restriction, including
23  * without limitation the rights to use, copy, modify, merge, publish,
24  * distribute, sublicense, and/or sell copies of the Software, and to
25  * permit persons to whom the Software is furnished to do so, subject to
26  * the following conditions:
27  *
28  * The above copyright notice and this permission notice shall be
29  * included in all copies or substantial portions of the Software.
30  *
31  *  THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
32  *  EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
33  *  MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
34  *  NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE
35  *  LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION
36  *  OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION
37  *  WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
38  */
39
40 /**
41  * @file
42  *
43  * Allocate/free network buffers.
44  */
45
46 #include <vlib/vlib.h>
47 #include <vlib/unix/unix.h>
48
49 vlib_buffer_callbacks_t *vlib_buffer_callbacks = 0;
50 static u32 vlib_buffer_physmem_sz = 32 << 20;
51
52 uword
53 vlib_buffer_length_in_chain_slow_path (vlib_main_t * vm,
54                                        vlib_buffer_t * b_first)
55 {
56   vlib_buffer_t *b = b_first;
57   uword l_first = b_first->current_length;
58   uword l = 0;
59   while (b->flags & VLIB_BUFFER_NEXT_PRESENT)
60     {
61       b = vlib_get_buffer (vm, b->next_buffer);
62       l += b->current_length;
63     }
64   b_first->total_length_not_including_first_buffer = l;
65   b_first->flags |= VLIB_BUFFER_TOTAL_LENGTH_VALID;
66   return l + l_first;
67 }
68
69 u8 *
70 format_vlib_buffer (u8 * s, va_list * args)
71 {
72   vlib_buffer_t *b = va_arg (*args, vlib_buffer_t *);
73   u32 indent = format_get_indent (s);
74   u8 *a = 0;
75
76 #define _(bit, name, v) \
77   if (v && (b->flags & VLIB_BUFFER_##name)) \
78     a = format (a, "%s ", v);
79   foreach_vlib_buffer_flag
80 #undef _
81     s = format (s, "current data %d, length %d, free-list %d, clone-count %u",
82                 b->current_data, b->current_length,
83                 vlib_buffer_get_free_list_index (b), b->n_add_refs);
84
85   if (b->flags & VLIB_BUFFER_TOTAL_LENGTH_VALID)
86     s = format (s, ", totlen-nifb %d",
87                 b->total_length_not_including_first_buffer);
88
89   if (b->flags & VLIB_BUFFER_IS_TRACED)
90     s = format (s, ", trace 0x%x", b->trace_index);
91
92   if (a)
93     s = format (s, "\n%U%v", format_white_space, indent, a);
94   vec_free (a);
95
96   while (b->flags & VLIB_BUFFER_NEXT_PRESENT)
97     {
98       vlib_main_t *vm = vlib_get_main ();
99       u32 next_buffer = b->next_buffer;
100       b = vlib_get_buffer (vm, next_buffer);
101
102       s =
103         format (s, "\n%Unext-buffer 0x%x, segment length %d, clone-count %u",
104                 format_white_space, indent, next_buffer, b->current_length,
105                 b->n_add_refs);
106     }
107
108   return s;
109 }
110
111 u8 *
112 format_vlib_buffer_and_data (u8 * s, va_list * args)
113 {
114   vlib_buffer_t *b = va_arg (*args, vlib_buffer_t *);
115
116   s = format (s, "%U, %U",
117               format_vlib_buffer, b,
118               format_hex_bytes, vlib_buffer_get_current (b), 64);
119
120   return s;
121 }
122
123 static u8 *
124 format_vlib_buffer_known_state (u8 * s, va_list * args)
125 {
126   vlib_buffer_known_state_t state = va_arg (*args, vlib_buffer_known_state_t);
127   char *t;
128
129   switch (state)
130     {
131     case VLIB_BUFFER_UNKNOWN:
132       t = "unknown";
133       break;
134
135     case VLIB_BUFFER_KNOWN_ALLOCATED:
136       t = "known-allocated";
137       break;
138
139     case VLIB_BUFFER_KNOWN_FREE:
140       t = "known-free";
141       break;
142
143     default:
144       t = "invalid";
145       break;
146     }
147
148   return format (s, "%s", t);
149 }
150
151 u8 *
152 format_vlib_buffer_contents (u8 * s, va_list * va)
153 {
154   vlib_main_t *vm = va_arg (*va, vlib_main_t *);
155   vlib_buffer_t *b = va_arg (*va, vlib_buffer_t *);
156
157   while (1)
158     {
159       vec_add (s, vlib_buffer_get_current (b), b->current_length);
160       if (!(b->flags & VLIB_BUFFER_NEXT_PRESENT))
161         break;
162       b = vlib_get_buffer (vm, b->next_buffer);
163     }
164
165   return s;
166 }
167
168 static u8 *
169 vlib_validate_buffer_helper (vlib_main_t * vm,
170                              u32 bi,
171                              uword follow_buffer_next, uword ** unique_hash)
172 {
173   vlib_buffer_t *b = vlib_get_buffer (vm, bi);
174   vlib_buffer_main_t *bm = vm->buffer_main;
175   vlib_buffer_free_list_t *fl;
176
177   if (pool_is_free_index
178       (bm->buffer_free_list_pool, vlib_buffer_get_free_list_index (b)))
179     return format (0, "unknown free list 0x%x",
180                    vlib_buffer_get_free_list_index (b));
181
182   fl =
183     pool_elt_at_index (bm->buffer_free_list_pool,
184                        vlib_buffer_get_free_list_index (b));
185
186   if ((signed) b->current_data < (signed) -VLIB_BUFFER_PRE_DATA_SIZE)
187     return format (0, "current data %d before pre-data", b->current_data);
188
189   if (b->current_data + b->current_length > fl->n_data_bytes)
190     return format (0, "%d-%d beyond end of buffer %d",
191                    b->current_data, b->current_length, fl->n_data_bytes);
192
193   if (follow_buffer_next && (b->flags & VLIB_BUFFER_NEXT_PRESENT))
194     {
195       vlib_buffer_known_state_t k;
196       u8 *msg, *result;
197
198       k = vlib_buffer_is_known (b->next_buffer);
199       if (k != VLIB_BUFFER_KNOWN_ALLOCATED)
200         return format (0, "next 0x%x: %U",
201                        b->next_buffer, format_vlib_buffer_known_state, k);
202
203       if (unique_hash)
204         {
205           if (hash_get (*unique_hash, b->next_buffer))
206             return format (0, "duplicate buffer 0x%x", b->next_buffer);
207
208           hash_set1 (*unique_hash, b->next_buffer);
209         }
210
211       msg = vlib_validate_buffer (vm, b->next_buffer, follow_buffer_next);
212       if (msg)
213         {
214           result = format (0, "next 0x%x: %v", b->next_buffer, msg);
215           vec_free (msg);
216           return result;
217         }
218     }
219
220   return 0;
221 }
222
223 u8 *
224 vlib_validate_buffer (vlib_main_t * vm, u32 bi, uword follow_buffer_next)
225 {
226   return vlib_validate_buffer_helper (vm, bi, follow_buffer_next,
227                                       /* unique_hash */ 0);
228 }
229
230 u8 *
231 vlib_validate_buffers (vlib_main_t * vm,
232                        u32 * buffers,
233                        uword next_buffer_stride,
234                        uword n_buffers,
235                        vlib_buffer_known_state_t known_state,
236                        uword follow_buffer_next)
237 {
238   uword i, *hash;
239   u32 bi, *b = buffers;
240   vlib_buffer_known_state_t k;
241   u8 *msg = 0, *result = 0;
242
243   hash = hash_create (0, 0);
244   for (i = 0; i < n_buffers; i++)
245     {
246       bi = b[0];
247       b += next_buffer_stride;
248
249       /* Buffer is not unique. */
250       if (hash_get (hash, bi))
251         {
252           msg = format (0, "not unique");
253           goto done;
254         }
255
256       k = vlib_buffer_is_known (bi);
257       if (k != known_state)
258         {
259           msg = format (0, "is %U; expected %U",
260                         format_vlib_buffer_known_state, k,
261                         format_vlib_buffer_known_state, known_state);
262           goto done;
263         }
264
265       msg = vlib_validate_buffer_helper (vm, bi, follow_buffer_next, &hash);
266       if (msg)
267         goto done;
268
269       hash_set1 (hash, bi);
270     }
271
272 done:
273   if (msg)
274     {
275       result = format (0, "0x%x: %v", bi, msg);
276       vec_free (msg);
277     }
278   hash_free (hash);
279   return result;
280 }
281
282 /*
283  * Hand-craft a static vector w/ length 1, so vec_len(vlib_mains) =1
284  * and vlib_mains[0] = &vlib_global_main from the beginning of time.
285  *
286  * The only place which should ever expand vlib_mains is start_workers()
287  * in threads.c. It knows about the bootstrap vector.
288  */
289 /* *INDENT-OFF* */
290 static struct
291 {
292   vec_header_t h;
293   vlib_main_t *vm;
294 } __attribute__ ((packed)) __bootstrap_vlib_main_vector
295   __attribute__ ((aligned (CLIB_CACHE_LINE_BYTES))) =
296 {
297   .h.len = 1,
298   .vm = &vlib_global_main,
299 };
300 /* *INDENT-ON* */
301
302 vlib_main_t **vlib_mains = &__bootstrap_vlib_main_vector.vm;
303
304
305 /* When dubugging validate that given buffers are either known allocated
306    or known free. */
307 void
308 vlib_buffer_validate_alloc_free (vlib_main_t * vm,
309                                  u32 * buffers,
310                                  uword n_buffers,
311                                  vlib_buffer_known_state_t expected_state)
312 {
313   u32 *b;
314   uword i, bi, is_free;
315
316   if (CLIB_DEBUG == 0)
317     return;
318
319   if (vlib_buffer_callbacks)
320     return;
321
322   is_free = expected_state == VLIB_BUFFER_KNOWN_ALLOCATED;
323   b = buffers;
324   for (i = 0; i < n_buffers; i++)
325     {
326       vlib_buffer_known_state_t known;
327
328       bi = b[0];
329       b += 1;
330       known = vlib_buffer_is_known (bi);
331       if (known != expected_state)
332         {
333           ASSERT (0);
334           vlib_panic_with_msg
335             (vm, "%s %U buffer 0x%x",
336              is_free ? "freeing" : "allocating",
337              format_vlib_buffer_known_state, known, bi);
338         }
339
340       vlib_buffer_set_known_state
341         (bi, is_free ? VLIB_BUFFER_KNOWN_FREE : VLIB_BUFFER_KNOWN_ALLOCATED);
342     }
343 }
344
345 void
346 vlib_buffer_merge_free_lists (vlib_buffer_free_list_t * dst,
347                               vlib_buffer_free_list_t * src)
348 {
349   uword l;
350   u32 *d;
351
352   l = vec_len (src->buffers);
353   if (l > 0)
354     {
355       vec_add2_aligned (dst->buffers, d, l, CLIB_CACHE_LINE_BYTES);
356       clib_memcpy (d, src->buffers, l * sizeof (d[0]));
357       vec_free (src->buffers);
358     }
359 }
360
361 /* Add buffer free list. */
362 static vlib_buffer_free_list_index_t
363 vlib_buffer_create_free_list_helper (vlib_main_t * vm,
364                                      u32 n_data_bytes,
365                                      u32 is_public, u32 is_default, u8 * name)
366 {
367   vlib_buffer_main_t *bm = vm->buffer_main;
368   vlib_buffer_free_list_t *f;
369   int i;
370
371   ASSERT (vlib_get_thread_index () == 0);
372
373   if (!is_default && pool_elts (bm->buffer_free_list_pool) == 0)
374     {
375       vlib_buffer_free_list_index_t default_free_free_list_index;
376
377       /* *INDENT-OFF* */
378       default_free_free_list_index =
379         vlib_buffer_create_free_list_helper
380         (vm,
381          /* default buffer size */ VLIB_BUFFER_DEFAULT_FREE_LIST_BYTES,
382          /* is_public */ 1,
383          /* is_default */ 1,
384          (u8 *) "default");
385       /* *INDENT-ON* */
386       ASSERT (default_free_free_list_index ==
387               VLIB_BUFFER_DEFAULT_FREE_LIST_INDEX);
388
389       if (n_data_bytes == VLIB_BUFFER_DEFAULT_FREE_LIST_BYTES && is_public)
390         return default_free_free_list_index;
391     }
392
393   pool_get_aligned (bm->buffer_free_list_pool, f, CLIB_CACHE_LINE_BYTES);
394
395   memset (f, 0, sizeof (f[0]));
396   f->index = f - bm->buffer_free_list_pool;
397   f->n_data_bytes = vlib_buffer_round_size (n_data_bytes);
398   f->min_n_buffers_each_physmem_alloc = VLIB_FRAME_SIZE;
399   f->name = clib_mem_is_vec (name) ? name : format (0, "%s", name);
400
401   /* Setup free buffer template. */
402   vlib_buffer_set_free_list_index (&f->buffer_init_template, f->index);
403   f->buffer_init_template.n_add_refs = 0;
404
405   if (is_public)
406     {
407       uword *p = hash_get (bm->free_list_by_size, f->n_data_bytes);
408       if (!p)
409         hash_set (bm->free_list_by_size, f->n_data_bytes, f->index);
410     }
411
412   clib_spinlock_init (&f->global_buffers_lock);
413
414   for (i = 1; i < vec_len (vlib_mains); i++)
415     {
416       vlib_buffer_main_t *wbm = vlib_mains[i]->buffer_main;
417       vlib_buffer_free_list_t *wf;
418       pool_get_aligned (wbm->buffer_free_list_pool,
419                         wf, CLIB_CACHE_LINE_BYTES);
420       ASSERT (f - bm->buffer_free_list_pool ==
421               wf - wbm->buffer_free_list_pool);
422       wf[0] = f[0];
423       wf->buffers = 0;
424       wf->n_alloc = 0;
425     }
426
427   return f->index;
428 }
429
430 vlib_buffer_free_list_index_t
431 vlib_buffer_create_free_list (vlib_main_t * vm, u32 n_data_bytes,
432                               char *fmt, ...)
433 {
434   va_list va;
435   u8 *name;
436
437   va_start (va, fmt);
438   name = va_format (0, fmt, &va);
439   va_end (va);
440
441   return vlib_buffer_create_free_list_helper (vm, n_data_bytes,
442                                               /* is_public */ 0,
443                                               /* is_default */ 0,
444                                               name);
445 }
446
447 vlib_buffer_free_list_index_t
448 vlib_buffer_get_or_create_free_list (vlib_main_t * vm, u32 n_data_bytes,
449                                      char *fmt, ...)
450 {
451   u32 i = vlib_buffer_get_free_list_with_size (vm, n_data_bytes);
452
453   if (i == ~0)
454     {
455       va_list va;
456       u8 *name;
457
458       va_start (va, fmt);
459       name = va_format (0, fmt, &va);
460       va_end (va);
461
462       i = vlib_buffer_create_free_list_helper (vm, n_data_bytes,
463                                                /* is_public */ 1,
464                                                /* is_default */ 0,
465                                                name);
466     }
467
468   return i;
469 }
470
471 static void
472 del_free_list (vlib_main_t * vm, vlib_buffer_free_list_t * f)
473 {
474   u32 i;
475
476   for (i = 0; i < vec_len (f->buffer_memory_allocated); i++)
477     vm->os_physmem_free (vm, vm->buffer_main->buffer_pools[0].physmem_region,
478                          f->buffer_memory_allocated[i]);
479   vec_free (f->name);
480   vec_free (f->buffer_memory_allocated);
481   vec_free (f->buffers);
482 }
483
484 /* Add buffer free list. */
485 void
486 vlib_buffer_delete_free_list_internal (vlib_main_t * vm,
487                                        vlib_buffer_free_list_index_t index)
488 {
489   vlib_buffer_main_t *bm = vm->buffer_main;
490   vlib_buffer_free_list_t *f;
491   vlib_buffer_free_list_index_t merge_index;
492   int i;
493
494   ASSERT (vlib_get_thread_index () == 0);
495
496   f = vlib_buffer_get_free_list (vm, index);
497
498   ASSERT (vec_len (f->buffers) == f->n_alloc);
499   merge_index = vlib_buffer_get_free_list_with_size (vm, f->n_data_bytes);
500   if (merge_index != (vlib_buffer_free_list_index_t) ~ 0
501       && merge_index != index)
502     {
503       vlib_buffer_merge_free_lists (pool_elt_at_index
504                                     (bm->buffer_free_list_pool, merge_index),
505                                     f);
506     }
507
508   del_free_list (vm, f);
509
510   /* Poison it. */
511   memset (f, 0xab, sizeof (f[0]));
512
513   pool_put (bm->buffer_free_list_pool, f);
514
515   for (i = 1; i < vec_len (vlib_mains); i++)
516     {
517       bm = vlib_mains[i]->buffer_main;
518       f = vlib_buffer_get_free_list (vlib_mains[i], index);;
519       memset (f, 0xab, sizeof (f[0]));
520       pool_put (bm->buffer_free_list_pool, f);
521     }
522 }
523
524 /* Make sure free list has at least given number of free buffers. */
525 static uword
526 vlib_buffer_fill_free_list_internal (vlib_main_t * vm,
527                                      vlib_buffer_free_list_t * fl,
528                                      uword min_free_buffers)
529 {
530   vlib_buffer_t *buffers, *b;
531   vlib_buffer_free_list_t *mfl;
532   int n, n_bytes, i;
533   u32 *bi;
534   u32 n_remaining, n_alloc, n_this_chunk;
535
536   /* Already have enough free buffers on free list? */
537   n = min_free_buffers - vec_len (fl->buffers);
538   if (n <= 0)
539     return min_free_buffers;
540
541   mfl = vlib_buffer_get_free_list (vlib_mains[0], fl->index);
542   if (vec_len (mfl->global_buffers) > 0)
543     {
544       int n_copy, n_left;
545       clib_spinlock_lock (&mfl->global_buffers_lock);
546       n_copy = clib_min (vec_len (mfl->global_buffers), n);
547       n_left = vec_len (mfl->global_buffers) - n_copy;
548       vec_add_aligned (fl->buffers, mfl->global_buffers + n_left, n_copy,
549                        CLIB_CACHE_LINE_BYTES);
550       _vec_len (mfl->global_buffers) = n_left;
551       clib_spinlock_unlock (&mfl->global_buffers_lock);
552       n = min_free_buffers - vec_len (fl->buffers);
553       if (n <= 0)
554         return min_free_buffers;
555     }
556
557   /* Always allocate round number of buffers. */
558   n = round_pow2 (n, CLIB_CACHE_LINE_BYTES / sizeof (u32));
559
560   /* Always allocate new buffers in reasonably large sized chunks. */
561   n = clib_max (n, fl->min_n_buffers_each_physmem_alloc);
562
563   n_remaining = n;
564   n_alloc = 0;
565   while (n_remaining > 0)
566     {
567       vlib_buffer_pool_t *bp = &vm->buffer_main->buffer_pools[0];
568       n_this_chunk = clib_min (n_remaining, bp->alloc_chunk_size);
569
570       n_bytes = n_this_chunk * (sizeof (b[0]) + fl->n_data_bytes);
571
572       /* drb: removed power-of-2 ASSERT */
573       buffers =
574         vm->os_physmem_alloc_aligned (vm, bp->physmem_region, n_bytes,
575                                       sizeof (vlib_buffer_t));
576       if (!buffers)
577         return n_alloc;
578
579       /* Record chunk as being allocated so we can free it later. */
580       vec_add1 (fl->buffer_memory_allocated, buffers);
581
582       fl->n_alloc += n_this_chunk;
583       n_alloc += n_this_chunk;
584       n_remaining -= n_this_chunk;
585
586       b = buffers;
587       vec_add2_aligned (fl->buffers, bi, n_this_chunk, CLIB_CACHE_LINE_BYTES);
588       for (i = 0; i < n_this_chunk; i++)
589         {
590           bi[i] = vlib_get_buffer_index (vm, b);
591
592           if (CLIB_DEBUG > 0)
593             vlib_buffer_set_known_state (bi[i], VLIB_BUFFER_KNOWN_FREE);
594           b = vlib_buffer_next_contiguous (b, fl->n_data_bytes);
595         }
596
597       memset (buffers, 0, n_bytes);
598
599       /* Initialize all new buffers. */
600       b = buffers;
601       for (i = 0; i < n_this_chunk; i++)
602         {
603           vlib_buffer_init_for_free_list (b, fl);
604           b = vlib_buffer_next_contiguous (b, fl->n_data_bytes);
605         }
606
607       if (fl->buffer_init_function)
608         fl->buffer_init_function (vm, fl, bi, n_this_chunk);
609     }
610   return n_alloc;
611 }
612
613 void *
614 vlib_set_buffer_free_callback (vlib_main_t * vm, void *fp)
615 {
616   vlib_buffer_main_t *bm = vm->buffer_main;
617   void *rv = bm->buffer_free_callback;
618
619   bm->buffer_free_callback = fp;
620   return rv;
621 }
622
623 static_always_inline void
624 recycle_or_free (vlib_main_t * vm, vlib_buffer_main_t * bm, u32 bi,
625                  vlib_buffer_t * b, u32 follow_buffer_next)
626 {
627   vlib_buffer_free_list_t *fl;
628   vlib_buffer_free_list_index_t fi;
629   fl = vlib_buffer_get_buffer_free_list (vm, b, &fi);
630
631   /* The only current use of this callback:
632    * multicast recycle */
633   if (PREDICT_FALSE (fl->buffers_added_to_freelist_function != 0))
634     {
635       int j;
636
637       vlib_buffer_add_to_free_list (vm, fl, bi,
638                                     (b->flags & VLIB_BUFFER_RECYCLE) == 0);
639       for (j = 0; j < vec_len (bm->announce_list); j++)
640         {
641           if (fl == bm->announce_list[j])
642             goto already_announced;
643         }
644       vec_add1 (bm->announce_list, fl);
645     already_announced:
646       ;
647     }
648   else
649     {
650       if (PREDICT_TRUE ((b->flags & VLIB_BUFFER_RECYCLE) == 0))
651         {
652           u32 flags, next;
653
654           do
655             {
656               vlib_buffer_t *nb = vlib_get_buffer (vm, bi);
657               flags = nb->flags;
658               next = nb->next_buffer;
659               if (nb->n_add_refs)
660                 nb->n_add_refs--;
661               else
662                 {
663                   vlib_buffer_validate_alloc_free (vm, &bi, 1,
664                                                    VLIB_BUFFER_KNOWN_ALLOCATED);
665                   vlib_buffer_add_to_free_list (vm, fl, bi, 1);
666                 }
667               bi = next;
668             }
669           while (follow_buffer_next && (flags & VLIB_BUFFER_NEXT_PRESENT));
670
671         }
672     }
673 }
674
675 static_always_inline void
676 vlib_buffer_free_inline (vlib_main_t * vm,
677                          u32 * buffers, u32 n_buffers, u32 follow_buffer_next)
678 {
679   vlib_buffer_main_t *bm = vm->buffer_main;
680   vlib_buffer_t *p, *b0, *b1, *b2, *b3;
681   int i = 0;
682   u32 (*cb) (vlib_main_t * vm, u32 * buffers, u32 n_buffers,
683              u32 follow_buffer_next);
684
685   cb = bm->buffer_free_callback;
686
687   if (PREDICT_FALSE (cb != 0))
688     n_buffers = (*cb) (vm, buffers, n_buffers, follow_buffer_next);
689
690   if (!n_buffers)
691     return;
692
693   while (i + 11 < n_buffers)
694     {
695       p = vlib_get_buffer (vm, buffers[i + 8]);
696       vlib_prefetch_buffer_header (p, LOAD);
697       p = vlib_get_buffer (vm, buffers[i + 9]);
698       vlib_prefetch_buffer_header (p, LOAD);
699       p = vlib_get_buffer (vm, buffers[i + 10]);
700       vlib_prefetch_buffer_header (p, LOAD);
701       p = vlib_get_buffer (vm, buffers[i + 11]);
702       vlib_prefetch_buffer_header (p, LOAD);
703
704       b0 = vlib_get_buffer (vm, buffers[i]);
705       b1 = vlib_get_buffer (vm, buffers[i + 1]);
706       b2 = vlib_get_buffer (vm, buffers[i + 2]);
707       b3 = vlib_get_buffer (vm, buffers[i + 3]);
708
709       VLIB_BUFFER_TRACE_TRAJECTORY_INIT (b0);
710       VLIB_BUFFER_TRACE_TRAJECTORY_INIT (b1);
711       VLIB_BUFFER_TRACE_TRAJECTORY_INIT (b2);
712       VLIB_BUFFER_TRACE_TRAJECTORY_INIT (b3);
713
714       recycle_or_free (vm, bm, buffers[i], b0, follow_buffer_next);
715       recycle_or_free (vm, bm, buffers[i + 1], b1, follow_buffer_next);
716       recycle_or_free (vm, bm, buffers[i + 2], b2, follow_buffer_next);
717       recycle_or_free (vm, bm, buffers[i + 3], b3, follow_buffer_next);
718
719       i += 4;
720     }
721
722   while (i < n_buffers)
723     {
724       b0 = vlib_get_buffer (vm, buffers[i]);
725       VLIB_BUFFER_TRACE_TRAJECTORY_INIT (b0);
726       recycle_or_free (vm, bm, buffers[i], b0, follow_buffer_next);
727       i++;
728     }
729
730   if (vec_len (bm->announce_list))
731     {
732       vlib_buffer_free_list_t *fl;
733       for (i = 0; i < vec_len (bm->announce_list); i++)
734         {
735           fl = bm->announce_list[i];
736           fl->buffers_added_to_freelist_function (vm, fl);
737         }
738       _vec_len (bm->announce_list) = 0;
739     }
740 }
741
742 static void
743 vlib_buffer_free_internal (vlib_main_t * vm, u32 * buffers, u32 n_buffers)
744 {
745   vlib_buffer_free_inline (vm, buffers, n_buffers,      /* follow_buffer_next */
746                            1);
747 }
748
749 static void
750 vlib_buffer_free_no_next_internal (vlib_main_t * vm, u32 * buffers,
751                                    u32 n_buffers)
752 {
753   vlib_buffer_free_inline (vm, buffers, n_buffers,      /* follow_buffer_next */
754                            0);
755 }
756
757 /* Copy template packet data into buffers as they are allocated. */
758 static void __attribute__ ((unused))
759 vlib_packet_template_buffer_init (vlib_main_t * vm,
760                                   vlib_buffer_free_list_t * fl,
761                                   u32 * buffers, u32 n_buffers)
762 {
763   vlib_packet_template_t *t =
764     uword_to_pointer (fl->buffer_init_function_opaque,
765                       vlib_packet_template_t *);
766   uword i;
767
768   for (i = 0; i < n_buffers; i++)
769     {
770       vlib_buffer_t *b = vlib_get_buffer (vm, buffers[i]);
771       ASSERT (b->current_length == vec_len (t->packet_data));
772       clib_memcpy (vlib_buffer_get_current (b), t->packet_data,
773                    b->current_length);
774     }
775 }
776
777 void
778 vlib_packet_template_init (vlib_main_t * vm,
779                            vlib_packet_template_t * t,
780                            void *packet_data,
781                            uword n_packet_data_bytes,
782                            uword min_n_buffers_each_physmem_alloc,
783                            char *fmt, ...)
784 {
785   vlib_buffer_main_t *bm = vm->buffer_main;
786   va_list va;
787   u8 *name;
788   vlib_buffer_free_list_t *fl;
789
790   va_start (va, fmt);
791   name = va_format (0, fmt, &va);
792   va_end (va);
793
794   if (bm->cb.vlib_packet_template_init_cb)
795     bm->cb.vlib_packet_template_init_cb (vm, (void *) t, packet_data,
796                                          n_packet_data_bytes,
797                                          min_n_buffers_each_physmem_alloc,
798                                          name);
799
800   vlib_worker_thread_barrier_sync (vm);
801
802   memset (t, 0, sizeof (t[0]));
803
804   vec_add (t->packet_data, packet_data, n_packet_data_bytes);
805   t->min_n_buffers_each_physmem_alloc = min_n_buffers_each_physmem_alloc;
806
807   t->free_list_index = vlib_buffer_create_free_list_helper
808     (vm, n_packet_data_bytes,
809      /* is_public */ 1,
810      /* is_default */ 0,
811      name);
812
813   ASSERT (t->free_list_index != 0);
814   fl = vlib_buffer_get_free_list (vm, t->free_list_index);
815   fl->min_n_buffers_each_physmem_alloc = t->min_n_buffers_each_physmem_alloc;
816
817   fl->buffer_init_function = vlib_packet_template_buffer_init;
818   fl->buffer_init_function_opaque = pointer_to_uword (t);
819
820   fl->buffer_init_template.current_data = 0;
821   fl->buffer_init_template.current_length = n_packet_data_bytes;
822   fl->buffer_init_template.flags = 0;
823   fl->buffer_init_template.n_add_refs = 0;
824   vlib_worker_thread_barrier_release (vm);
825 }
826
827 void *
828 vlib_packet_template_get_packet (vlib_main_t * vm,
829                                  vlib_packet_template_t * t, u32 * bi_result)
830 {
831   u32 bi;
832   vlib_buffer_t *b;
833
834   if (vlib_buffer_alloc (vm, &bi, 1) != 1)
835     return 0;
836
837   *bi_result = bi;
838
839   b = vlib_get_buffer (vm, bi);
840   clib_memcpy (vlib_buffer_get_current (b),
841                t->packet_data, vec_len (t->packet_data));
842   b->current_length = vec_len (t->packet_data);
843
844   return b->data;
845 }
846
847 void
848 vlib_packet_template_get_packet_helper (vlib_main_t * vm,
849                                         vlib_packet_template_t * t)
850 {
851   word n = t->min_n_buffers_each_physmem_alloc;
852   word l = vec_len (t->packet_data);
853   word n_alloc;
854
855   ASSERT (l > 0);
856   ASSERT (vec_len (t->free_buffers) == 0);
857
858   vec_validate (t->free_buffers, n - 1);
859   n_alloc = vlib_buffer_alloc_from_free_list (vm, t->free_buffers,
860                                               n, t->free_list_index);
861   _vec_len (t->free_buffers) = n_alloc;
862 }
863
864 /* Append given data to end of buffer, possibly allocating new buffers. */
865 u32
866 vlib_buffer_add_data (vlib_main_t * vm,
867                       vlib_buffer_free_list_index_t free_list_index,
868                       u32 buffer_index, void *data, u32 n_data_bytes)
869 {
870   u32 n_buffer_bytes, n_left, n_left_this_buffer, bi;
871   vlib_buffer_t *b;
872   void *d;
873
874   bi = buffer_index;
875   if (bi == 0
876       && 1 != vlib_buffer_alloc_from_free_list (vm, &bi, 1, free_list_index))
877     goto out_of_buffers;
878
879   d = data;
880   n_left = n_data_bytes;
881   n_buffer_bytes = vlib_buffer_free_list_buffer_size (vm, free_list_index);
882
883   b = vlib_get_buffer (vm, bi);
884   b->flags &= ~VLIB_BUFFER_TOTAL_LENGTH_VALID;
885
886   /* Get to the end of the chain before we try to append data... */
887   while (b->flags & VLIB_BUFFER_NEXT_PRESENT)
888     b = vlib_get_buffer (vm, b->next_buffer);
889
890   while (1)
891     {
892       u32 n;
893
894       ASSERT (n_buffer_bytes >= b->current_length);
895       n_left_this_buffer =
896         n_buffer_bytes - (b->current_data + b->current_length);
897       n = clib_min (n_left_this_buffer, n_left);
898       clib_memcpy (vlib_buffer_get_current (b) + b->current_length, d, n);
899       b->current_length += n;
900       n_left -= n;
901       if (n_left == 0)
902         break;
903
904       d += n;
905       if (1 !=
906           vlib_buffer_alloc_from_free_list (vm, &b->next_buffer, 1,
907                                             free_list_index))
908         goto out_of_buffers;
909
910       b->flags |= VLIB_BUFFER_NEXT_PRESENT;
911
912       b = vlib_get_buffer (vm, b->next_buffer);
913     }
914
915   return bi;
916
917 out_of_buffers:
918   clib_error ("out of buffers");
919   return bi;
920 }
921
922 u16
923 vlib_buffer_chain_append_data_with_alloc (vlib_main_t * vm,
924                                           vlib_buffer_free_list_index_t
925                                           free_list_index,
926                                           vlib_buffer_t * first,
927                                           vlib_buffer_t ** last, void *data,
928                                           u16 data_len)
929 {
930   vlib_buffer_t *l = *last;
931   u32 n_buffer_bytes =
932     vlib_buffer_free_list_buffer_size (vm, free_list_index);
933   u16 copied = 0;
934   ASSERT (n_buffer_bytes >= l->current_length + l->current_data);
935   while (data_len)
936     {
937       u16 max = n_buffer_bytes - l->current_length - l->current_data;
938       if (max == 0)
939         {
940           if (1 !=
941               vlib_buffer_alloc_from_free_list (vm, &l->next_buffer, 1,
942                                                 free_list_index))
943             return copied;
944           *last = l = vlib_buffer_chain_buffer (vm, first, l, l->next_buffer);
945           max = n_buffer_bytes - l->current_length - l->current_data;
946         }
947
948       u16 len = (data_len > max) ? max : data_len;
949       clib_memcpy (vlib_buffer_get_current (l) + l->current_length,
950                    data + copied, len);
951       vlib_buffer_chain_increase_length (first, l, len);
952       data_len -= len;
953       copied += len;
954     }
955   return copied;
956 }
957
958 u8
959 vlib_buffer_add_physmem_region (vlib_main_t * vm,
960                                 vlib_physmem_region_index_t pri)
961 {
962   vlib_buffer_main_t *bm = vm->buffer_main;
963   vlib_physmem_region_t *pr = vlib_physmem_get_region (vm, pri);
964   vlib_buffer_pool_t *p;
965   uword start = pointer_to_uword (pr->mem);
966   uword size = pr->size;
967
968   if (bm->buffer_mem_size == 0)
969     {
970       bm->buffer_mem_start = start;
971       bm->buffer_mem_size = size;
972     }
973   else if (start < bm->buffer_mem_start)
974     {
975       bm->buffer_mem_size += bm->buffer_mem_start - start;
976       bm->buffer_mem_start = start;
977       if (size > bm->buffer_mem_size)
978         bm->buffer_mem_size = size;
979     }
980   else if (start > bm->buffer_mem_start)
981     {
982       uword new_size = start - bm->buffer_mem_start + size;
983       if (new_size > bm->buffer_mem_size)
984         bm->buffer_mem_size = new_size;
985     }
986
987   if ((u64) bm->buffer_mem_size >
988       ((u64) 1 << (32 + CLIB_LOG2_CACHE_LINE_BYTES)))
989     {
990       clib_panic ("buffer memory size out of range!");
991     }
992
993   vec_add2 (bm->buffer_pools, p, 1);
994   p->start = start;
995   p->size = size;
996   p->physmem_region = pri;
997   p->alloc_chunk_size = (pr->log2_page_size > 18) ? 16 : 1;
998   return p - bm->buffer_pools;
999 }
1000
1001 static u8 *
1002 format_vlib_buffer_free_list (u8 * s, va_list * va)
1003 {
1004   vlib_buffer_free_list_t *f = va_arg (*va, vlib_buffer_free_list_t *);
1005   u32 threadnum = va_arg (*va, u32);
1006   uword bytes_alloc, bytes_free, n_free, size;
1007
1008   if (!f)
1009     return format (s, "%=7s%=30s%=12s%=12s%=12s%=12s%=12s%=12s",
1010                    "Thread", "Name", "Index", "Size", "Alloc", "Free",
1011                    "#Alloc", "#Free");
1012
1013   size = sizeof (vlib_buffer_t) + f->n_data_bytes;
1014   n_free = vec_len (f->buffers);
1015   bytes_alloc = size * f->n_alloc;
1016   bytes_free = size * n_free;
1017
1018   s = format (s, "%7d%30v%12d%12d%=12U%=12U%=12d%=12d", threadnum,
1019               f->name, f->index, f->n_data_bytes,
1020               format_memory_size, bytes_alloc,
1021               format_memory_size, bytes_free, f->n_alloc, n_free);
1022
1023   return s;
1024 }
1025
1026 static clib_error_t *
1027 show_buffers (vlib_main_t * vm,
1028               unformat_input_t * input, vlib_cli_command_t * cmd)
1029 {
1030   vlib_buffer_main_t *bm;
1031   vlib_buffer_free_list_t *f;
1032   vlib_main_t *curr_vm;
1033   u32 vm_index = 0;
1034
1035   vlib_cli_output (vm, "%U", format_vlib_buffer_free_list, 0, 0);
1036
1037   do
1038     {
1039       curr_vm = vlib_mains[vm_index];
1040       bm = curr_vm->buffer_main;
1041
1042     /* *INDENT-OFF* */
1043     pool_foreach (f, bm->buffer_free_list_pool, ({
1044       vlib_cli_output (vm, "%U", format_vlib_buffer_free_list, f, vm_index);
1045     }));
1046     /* *INDENT-ON* */
1047
1048       vm_index++;
1049     }
1050   while (vm_index < vec_len (vlib_mains));
1051
1052   return 0;
1053 }
1054
1055 /* *INDENT-OFF* */
1056 VLIB_CLI_COMMAND (show_buffers_command, static) = {
1057   .path = "show buffers",
1058   .short_help = "Show packet buffer allocation",
1059   .function = show_buffers,
1060 };
1061 /* *INDENT-ON* */
1062
1063 clib_error_t *
1064 vlib_buffer_main_init (struct vlib_main_t * vm)
1065 {
1066   vlib_buffer_main_t *bm;
1067   vlib_physmem_region_index_t pri;
1068   clib_error_t *error;
1069
1070   vec_validate (vm->buffer_main, 0);
1071   bm = vm->buffer_main;
1072
1073   if (vlib_buffer_callbacks)
1074     {
1075       /* external plugin has registered own buffer callbacks
1076          so we just copy them  and quit */
1077       vlib_buffer_main_t *bm = vm->buffer_main;
1078       clib_memcpy (&bm->cb, vlib_buffer_callbacks,
1079                    sizeof (vlib_buffer_callbacks_t));
1080       bm->callbacks_registered = 1;
1081       return 0;
1082     }
1083
1084   bm->cb.vlib_buffer_fill_free_list_cb = &vlib_buffer_fill_free_list_internal;
1085   bm->cb.vlib_buffer_free_cb = &vlib_buffer_free_internal;
1086   bm->cb.vlib_buffer_free_no_next_cb = &vlib_buffer_free_no_next_internal;
1087   bm->cb.vlib_buffer_delete_free_list_cb =
1088     &vlib_buffer_delete_free_list_internal;
1089   clib_spinlock_init (&bm->buffer_known_hash_lockp);
1090
1091   /* allocate default region */
1092   error = vlib_physmem_region_alloc (vm, "buffers",
1093                                      vlib_buffer_physmem_sz, 0,
1094                                      VLIB_PHYSMEM_F_SHARED |
1095                                      VLIB_PHYSMEM_F_HUGETLB |
1096                                      VLIB_PHYSMEM_F_INIT_MHEAP, &pri);
1097
1098   if (error == 0)
1099     goto done;
1100
1101   clib_error_free (error);
1102
1103   error = vlib_physmem_region_alloc (vm, "buffers",
1104                                      vlib_buffer_physmem_sz, 0,
1105                                      VLIB_PHYSMEM_F_SHARED |
1106                                      VLIB_PHYSMEM_F_INIT_MHEAP, &pri);
1107 done:
1108   if (error == 0)
1109     vlib_buffer_add_physmem_region (vm, pri);
1110   return error;
1111 }
1112
1113 static clib_error_t *
1114 vlib_buffers_configure (vlib_main_t * vm, unformat_input_t * input)
1115 {
1116   u32 size_in_mb;
1117
1118   while (unformat_check_input (input) != UNFORMAT_END_OF_INPUT)
1119     {
1120       if (unformat (input, "memory-size-in-mb %d", &size_in_mb))
1121         vlib_buffer_physmem_sz = size_in_mb << 20;
1122       else
1123         return unformat_parse_error (input);
1124     }
1125
1126   unformat_free (input);
1127   return 0;
1128 }
1129
1130 VLIB_EARLY_CONFIG_FUNCTION (vlib_buffers_configure, "buffers");
1131
1132
1133 /** @endcond */
1134 /*
1135  * fd.io coding-style-patch-verification: ON
1136  *
1137  * Local Variables:
1138  * eval: (c-set-style "gnu")
1139  * End:
1140  */