buffers: reinitialize metadata, add additional validation
[vpp.git] / src / plugins / dpdk / buffer.c
index aa73eb6..21340e5 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2017 Cisco and/or its affiliates.
+ * Copyright (c) 2017-2019 Cisco and/or its affiliates.
  * Licensed under the Apache License, Version 2.0 (the "License");
  * you may not use this file except in compliance with the License.
  * You may obtain a copy of the License at:
  * See the License for the specific language governing permissions and
  * limitations under the License.
  */
-/*
- * buffer.c: allocate/free network buffers.
- *
- * Copyright (c) 2008 Eliot Dresselhaus
- *
- * Permission is hereby granted, free of charge, to any person obtaining
- * a copy of this software and associated documentation files (the
- * "Software"), to deal in the Software without restriction, including
- * without limitation the rights to use, copy, modify, merge, publish,
- * distribute, sublicense, and/or sell copies of the Software, and to
- * permit persons to whom the Software is furnished to do so, subject to
- * the following conditions:
- *
- * The above copyright notice and this permission notice shall be
- * included in all copies or substantial portions of the Software.
- *
- *  THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
- *  EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
- *  MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
- *  NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE
- *  LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION
- *  OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION
- *  WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
- */
 
-/**
- * @file
- *
- * Allocate/free network buffers.
- */
+#include <unistd.h>
+#include <errno.h>
 
 #include <rte_config.h>
-
-#include <rte_common.h>
-#include <rte_log.h>
-#include <rte_memory.h>
-#include <rte_memzone.h>
-#include <rte_tailq.h>
-#include <rte_eal.h>
-#include <rte_per_lcore.h>
-#include <rte_launch.h>
-#include <rte_atomic.h>
-#include <rte_cycles.h>
-#include <rte_prefetch.h>
-#include <rte_lcore.h>
-#include <rte_per_lcore.h>
-#include <rte_branch_prediction.h>
-#include <rte_interrupts.h>
-#include <rte_pci.h>
-#include <rte_random.h>
-#include <rte_debug.h>
-#include <rte_ether.h>
-#include <rte_ethdev.h>
-#include <rte_ring.h>
-#include <rte_mempool.h>
 #include <rte_mbuf.h>
-#include <rte_version.h>
+#include <rte_ethdev.h>
+#include <rte_vfio.h>
 
 #include <vlib/vlib.h>
-#include <vnet/vnet.h>
-#include <dpdk/device/dpdk.h>
-#include <dpdk/device/dpdk_priv.h>
-
+#include <dpdk/buffer.h>
 
 STATIC_ASSERT (VLIB_BUFFER_PRE_DATA_SIZE == RTE_PKTMBUF_HEADROOM,
               "VLIB_BUFFER_PRE_DATA_SIZE must be equal to RTE_PKTMBUF_HEADROOM");
 
-static_always_inline void
-dpdk_rte_pktmbuf_free (vlib_main_t * vm, vlib_buffer_t * b)
-{
-  vlib_buffer_t *hb = b;
-  struct rte_mbuf *mb;
-  u32 next, flags;
-  mb = rte_mbuf_from_vlib_buffer (hb);
-
-next:
-  flags = b->flags;
-  next = b->next_buffer;
-  mb = rte_mbuf_from_vlib_buffer (b);
-
-  if (PREDICT_FALSE (b->n_add_refs))
-    {
-      rte_mbuf_refcnt_update (mb, b->n_add_refs);
-      b->n_add_refs = 0;
-    }
 
-  rte_pktmbuf_free_seg (mb);
-
-  if (flags & VLIB_BUFFER_NEXT_PRESENT)
-    {
-      b = vlib_get_buffer (vm, next);
-      goto next;
-    }
-}
-
-static void
-del_free_list (vlib_main_t * vm, vlib_buffer_free_list_t * f)
+typedef struct
 {
-  u32 i;
-  vlib_buffer_t *b;
+  /* must be first */
+  struct rte_pktmbuf_pool_private mbp_priv;
+  u8 buffer_pool_index;
+} dpdk_mempool_private_t;
 
-  for (i = 0; i < vec_len (f->buffers); i++)
-    {
-      b = vlib_get_buffer (vm, f->buffers[i]);
-      dpdk_rte_pktmbuf_free (vm, b);
-    }
+#ifndef CLIB_MARCH_VARIANT
+struct rte_mempool **dpdk_mempool_by_buffer_pool_index = 0;
+struct rte_mempool **dpdk_no_cache_mempool_by_buffer_pool_index = 0;
 
-  vec_free (f->name);
-  vec_free (f->buffers);
-}
-
-/* Add buffer free list. */
-static void
-dpdk_buffer_delete_free_list (vlib_main_t * vm, u32 free_list_index)
+clib_error_t *
+dpdk_buffer_pool_init (vlib_main_t * vm, vlib_buffer_pool_t * bp)
 {
-  vlib_buffer_main_t *bm = vm->buffer_main;
-  vlib_buffer_free_list_t *f;
-  u32 merge_index;
-  int i;
-
-  ASSERT (vlib_get_thread_index () == 0);
-
-  f = vlib_buffer_get_free_list (vm, free_list_index);
+  uword buffer_mem_start = vm->buffer_main->buffer_mem_start;
+  struct rte_mempool *mp, *nmp;
+  dpdk_mempool_private_t priv;
+  enum rte_iova_mode iova_mode;
+  u32 *bi;
+  u8 *name = 0;
+
+  u32 elt_size =
+    sizeof (struct rte_mbuf) + sizeof (vlib_buffer_t) + bp->data_size;
+
+  /* create empty mempools */
+  vec_validate_aligned (dpdk_mempool_by_buffer_pool_index, bp->index,
+                       CLIB_CACHE_LINE_BYTES);
+  vec_validate_aligned (dpdk_no_cache_mempool_by_buffer_pool_index, bp->index,
+                       CLIB_CACHE_LINE_BYTES);
 
-  merge_index = vlib_buffer_get_free_list_with_size (vm, f->n_data_bytes);
-  if (merge_index != ~0 && merge_index != free_list_index)
+  /* normal mempool */
+  name = format (name, "vpp pool %u%c", bp->index, 0);
+  mp = rte_mempool_create_empty ((char *) name, vec_len (bp->buffers),
+                                elt_size, 512, sizeof (priv),
+                                bp->numa_node, 0);
+  vec_reset_length (name);
+
+  /* non-cached mempool */
+  name = format (name, "vpp pool %u (no cache)%c", bp->index, 0);
+  nmp = rte_mempool_create_empty ((char *) name, vec_len (bp->buffers),
+                                 elt_size, 0, sizeof (priv),
+                                 bp->numa_node, 0);
+  vec_free (name);
+
+  dpdk_mempool_by_buffer_pool_index[bp->index] = mp;
+  dpdk_no_cache_mempool_by_buffer_pool_index[bp->index] = nmp;
+
+  rte_mempool_set_ops_byname (mp, "vpp", NULL);
+  rte_mempool_set_ops_byname (nmp, "vpp-no-cache", NULL);
+
+  /* Call the mempool priv initializer */
+  priv.mbp_priv.mbuf_data_room_size = VLIB_BUFFER_PRE_DATA_SIZE +
+    VLIB_BUFFER_DATA_SIZE;
+  priv.mbp_priv.mbuf_priv_size = VLIB_BUFFER_HDR_SIZE;
+  priv.buffer_pool_index = bp->index;
+  rte_pktmbuf_pool_init (mp, &priv);
+  rte_pktmbuf_pool_init (nmp, &priv);
+
+  iova_mode = rte_eal_iova_mode ();
+
+  /* populate mempool object buffer header */
+  /* *INDENT-OFF* */
+  vec_foreach (bi, bp->buffers)
     {
-      vlib_buffer_merge_free_lists (pool_elt_at_index
-                                   (bm->buffer_free_list_pool, merge_index),
-                                   f);
+      struct rte_mempool_objhdr *hdr;
+      vlib_buffer_t *b = vlib_get_buffer (vm, *bi);
+      struct rte_mbuf *mb = rte_mbuf_from_vlib_buffer (b);
+      hdr = (struct rte_mempool_objhdr *) RTE_PTR_SUB (mb, sizeof (*hdr));
+      hdr->mp = mp;
+      hdr->iova = (iova_mode == RTE_IOVA_VA) ?
+       pointer_to_uword (mb) : vlib_physmem_get_pa (vm, mb);
+      STAILQ_INSERT_TAIL (&mp->elt_list, hdr, next);
+      STAILQ_INSERT_TAIL (&nmp->elt_list, hdr, next);
+      mp->populated_size++;
+      nmp->populated_size++;
     }
+  /* *INDENT-ON* */
 
-  del_free_list (vm, f);
-
-  /* Poison it. */
-  memset (f, 0xab, sizeof (f[0]));
+  /* call the object initializers */
+  rte_mempool_obj_iter (mp, rte_pktmbuf_init, 0);
 
-  pool_put (bm->buffer_free_list_pool, f);
-
-  for (i = 1; i < vec_len (vlib_mains); i++)
+  /* *INDENT-OFF* */
+  vec_foreach (bi, bp->buffers)
     {
-      bm = vlib_mains[i]->buffer_main;
-      f = vlib_buffer_get_free_list (vlib_mains[i], free_list_index);;
-      memset (f, 0xab, sizeof (f[0]));
-      pool_put (bm->buffer_free_list_pool, f);
+      vlib_buffer_t *b;
+      b = vlib_buffer_ptr_from_index (buffer_mem_start, *bi, 0);
+      vlib_buffer_copy_template (b, &bp->buffer_template);
     }
-}
-
-/* Make sure free list has at least given number of free buffers. */
-static uword
-fill_free_list (vlib_main_t * vm,
-               vlib_buffer_free_list_t * fl, uword min_free_buffers)
-{
-  dpdk_main_t *dm = &dpdk_main;
-  vlib_buffer_t *b0, *b1, *b2, *b3;
-  int n, i;
-  u32 bi0, bi1, bi2, bi3;
-  unsigned socket_id = rte_socket_id ();
-  struct rte_mempool *rmp = dm->pktmbuf_pools[socket_id];
-  struct rte_mbuf *mb0, *mb1, *mb2, *mb3;
-
-  /* Too early? */
-  if (PREDICT_FALSE (rmp == 0))
-    return 0;
-
-  /* Already have enough free buffers on free list? */
-  n = min_free_buffers - vec_len (fl->buffers);
-  if (n <= 0)
-    return min_free_buffers;
-
-  /* Always allocate round number of buffers. */
-  n = round_pow2 (n, CLIB_CACHE_LINE_BYTES / sizeof (u32));
-
-  /* Always allocate new buffers in reasonably large sized chunks. */
-  n = clib_max (n, fl->min_n_buffers_each_physmem_alloc);
+  /* *INDENT-ON* */
 
-  vec_validate (vm->mbuf_alloc_list, n - 1);
-
-  if (rte_mempool_get_bulk (rmp, vm->mbuf_alloc_list, n) < 0)
-    return 0;
-
-  _vec_len (vm->mbuf_alloc_list) = n;
-
-  i = 0;
-
-  while (i < (n - 7))
+  /* map DMA pages if at least one physical device exists */
+  if (rte_eth_dev_count_avail ())
     {
-      vlib_prefetch_buffer_header (vlib_buffer_from_rte_mbuf
-                                  (vm->mbuf_alloc_list[i + 4]), STORE);
-      vlib_prefetch_buffer_header (vlib_buffer_from_rte_mbuf
-                                  (vm->mbuf_alloc_list[i + 5]), STORE);
-      vlib_prefetch_buffer_header (vlib_buffer_from_rte_mbuf
-                                  (vm->mbuf_alloc_list[i + 6]), STORE);
-      vlib_prefetch_buffer_header (vlib_buffer_from_rte_mbuf
-                                  (vm->mbuf_alloc_list[i + 7]), STORE);
-
-      mb0 = vm->mbuf_alloc_list[i];
-      mb1 = vm->mbuf_alloc_list[i + 1];
-      mb2 = vm->mbuf_alloc_list[i + 2];
-      mb3 = vm->mbuf_alloc_list[i + 3];
-
-#if RTE_VERSION < RTE_VERSION_NUM(17, 5, 0, 0)
-      ASSERT (rte_mbuf_refcnt_read (mb0) == 0);
-      ASSERT (rte_mbuf_refcnt_read (mb1) == 0);
-      ASSERT (rte_mbuf_refcnt_read (mb2) == 0);
-      ASSERT (rte_mbuf_refcnt_read (mb3) == 0);
-
-      rte_mbuf_refcnt_set (mb0, 1);
-      rte_mbuf_refcnt_set (mb1, 1);
-      rte_mbuf_refcnt_set (mb2, 1);
-      rte_mbuf_refcnt_set (mb3, 1);
-#endif
-
-      b0 = vlib_buffer_from_rte_mbuf (mb0);
-      b1 = vlib_buffer_from_rte_mbuf (mb1);
-      b2 = vlib_buffer_from_rte_mbuf (mb2);
-      b3 = vlib_buffer_from_rte_mbuf (mb3);
-
-      bi0 = vlib_get_buffer_index (vm, b0);
-      bi1 = vlib_get_buffer_index (vm, b1);
-      bi2 = vlib_get_buffer_index (vm, b2);
-      bi3 = vlib_get_buffer_index (vm, b3);
-
-      vec_add1_aligned (fl->buffers, bi0, CLIB_CACHE_LINE_BYTES);
-      vec_add1_aligned (fl->buffers, bi1, CLIB_CACHE_LINE_BYTES);
-      vec_add1_aligned (fl->buffers, bi2, CLIB_CACHE_LINE_BYTES);
-      vec_add1_aligned (fl->buffers, bi3, CLIB_CACHE_LINE_BYTES);
+      uword i;
+      size_t page_sz;
+      vlib_physmem_map_t *pm;
 
-      vlib_buffer_init_for_free_list (b0, fl);
-      vlib_buffer_init_for_free_list (b1, fl);
-      vlib_buffer_init_for_free_list (b2, fl);
-      vlib_buffer_init_for_free_list (b3, fl);
+      pm = vlib_physmem_get_map (vm, bp->physmem_map_index);
+      page_sz = 1ULL << pm->log2_page_size;
 
-      if (fl->buffer_init_function)
+      for (i = 0; i < pm->n_pages; i++)
        {
-         fl->buffer_init_function (vm, fl, &bi0, 1);
-         fl->buffer_init_function (vm, fl, &bi1, 1);
-         fl->buffer_init_function (vm, fl, &bi2, 1);
-         fl->buffer_init_function (vm, fl, &bi3, 1);
-       }
-      i += 4;
-    }
-
-  while (i < n)
-    {
-      mb0 = vm->mbuf_alloc_list[i];
-
-#if RTE_VERSION < RTE_VERSION_NUM(17, 5, 0, 0)
-      ASSERT (rte_mbuf_refcnt_read (mb0) == 0);
-      rte_mbuf_refcnt_set (mb0, 1);
-#endif
-
-      b0 = vlib_buffer_from_rte_mbuf (mb0);
-      bi0 = vlib_get_buffer_index (vm, b0);
-
-      vec_add1_aligned (fl->buffers, bi0, CLIB_CACHE_LINE_BYTES);
-
-      vlib_buffer_init_for_free_list (b0, fl);
+         char *va = ((char *) pm->base) + i * page_sz;
+         uword pa = (iova_mode == RTE_IOVA_VA) ?
+           pointer_to_uword (va) : pm->page_table[i];
 
-      if (fl->buffer_init_function)
-       fl->buffer_init_function (vm, fl, &bi0, 1);
-      i++;
+         if (rte_vfio_dma_map (pointer_to_uword (va), pa, page_sz))
+           break;
+       }
     }
 
-  fl->n_alloc += n;
-
-  return n;
+  return 0;
 }
 
-static u32
-alloc_from_free_list (vlib_main_t * vm,
-                     vlib_buffer_free_list_t * free_list,
-                     u32 * alloc_buffers, u32 n_alloc_buffers)
+static int
+dpdk_ops_vpp_alloc (struct rte_mempool *mp)
 {
-  u32 *dst, *src;
-  uword len, n_filled;
-
-  dst = alloc_buffers;
-
-  n_filled = fill_free_list (vm, free_list, n_alloc_buffers);
-  if (n_filled == 0)
-    return 0;
-
-  len = vec_len (free_list->buffers);
-  ASSERT (len >= n_alloc_buffers);
-
-  src = free_list->buffers + len - n_alloc_buffers;
-  clib_memcpy (dst, src, n_alloc_buffers * sizeof (u32));
-
-  _vec_len (free_list->buffers) -= n_alloc_buffers;
-
-  return n_alloc_buffers;
+  clib_warning ("");
+  return 0;
 }
 
-/* Allocate a given number of buffers into given array.
-   Returns number actually allocated which will be either zero or
-   number requested. */
-u32
-dpdk_buffer_alloc (vlib_main_t * vm, u32 * buffers, u32 n_buffers)
+static void
+dpdk_ops_vpp_free (struct rte_mempool *mp)
 {
-  vlib_buffer_main_t *bm = vm->buffer_main;
-
-  return alloc_from_free_list
-    (vm,
-     pool_elt_at_index (bm->buffer_free_list_pool,
-                       VLIB_BUFFER_DEFAULT_FREE_LIST_INDEX),
-     buffers, n_buffers);
+  clib_warning ("");
 }
 
-
-u32
-dpdk_buffer_alloc_from_free_list (vlib_main_t * vm,
-                                 u32 * buffers,
-                                 u32 n_buffers, u32 free_list_index)
-{
-  vlib_buffer_main_t *bm = vm->buffer_main;
-  vlib_buffer_free_list_t *f;
-  f = pool_elt_at_index (bm->buffer_free_list_pool, free_list_index);
-  return alloc_from_free_list (vm, f, buffers, n_buffers);
-}
+#endif
 
 static_always_inline void
-vlib_buffer_free_inline (vlib_main_t * vm,
-                        u32 * buffers, u32 n_buffers, u32 follow_buffer_next)
+dpdk_ops_vpp_enqueue_one (vlib_buffer_t * bt, void *obj)
 {
-  vlib_buffer_main_t *bm = vm->buffer_main;
-  vlib_buffer_free_list_t *fl;
-  u32 fi;
-  int i;
-  u32 (*cb) (vlib_main_t * vm, u32 * buffers, u32 n_buffers,
-            u32 follow_buffer_next);
-
-  cb = bm->buffer_free_callback;
+  /* Only non-replicated packets (b->ref_count == 1) expected */
 
-  if (PREDICT_FALSE (cb != 0))
-    n_buffers = (*cb) (vm, buffers, n_buffers, follow_buffer_next);
-
-  if (!n_buffers)
-    return;
+  struct rte_mbuf *mb = obj;
+  vlib_buffer_t *b = vlib_buffer_from_rte_mbuf (mb);
+  ASSERT (b->ref_count == 1);
+  ASSERT (b->buffer_pool_index == bt->buffer_pool_index);
+  vlib_buffer_copy_template (b, bt);
+}
 
-  for (i = 0; i < n_buffers; i++)
+int
+CLIB_MULTIARCH_FN (dpdk_ops_vpp_enqueue) (struct rte_mempool * mp,
+                                         void *const *obj_table, unsigned n)
+{
+  const int batch_size = 32;
+  vlib_main_t *vm = vlib_get_main ();
+  vlib_buffer_t bt;
+  dpdk_mempool_private_t *privp = rte_mempool_get_priv (mp);
+  u8 buffer_pool_index = privp->buffer_pool_index;
+  vlib_buffer_pool_t *bp = vlib_get_buffer_pool (vm, buffer_pool_index);
+  u32 bufs[batch_size];
+  u32 n_left = n;
+  void *const *obj = obj_table;
+
+  vlib_buffer_copy_template (&bt, &bp->buffer_template);
+
+  while (n_left >= 4)
     {
-      vlib_buffer_t *b;
-
-      b = vlib_get_buffer (vm, buffers[i]);
+      dpdk_ops_vpp_enqueue_one (&bt, obj[0]);
+      dpdk_ops_vpp_enqueue_one (&bt, obj[1]);
+      dpdk_ops_vpp_enqueue_one (&bt, obj[2]);
+      dpdk_ops_vpp_enqueue_one (&bt, obj[3]);
+      obj += 4;
+      n_left -= 4;
+    }
 
-      fl = vlib_buffer_get_buffer_free_list (vm, b, &fi);
+  while (n_left)
+    {
+      dpdk_ops_vpp_enqueue_one (&bt, obj[0]);
+      obj += 1;
+      n_left -= 1;
+    }
 
-      /* The only current use of this callback: multicast recycle */
-      if (PREDICT_FALSE (fl->buffers_added_to_freelist_function != 0))
-       {
-         int j;
-
-         vlib_buffer_add_to_free_list
-           (vm, fl, buffers[i], (b->flags & VLIB_BUFFER_RECYCLE) == 0);
-
-         for (j = 0; j < vec_len (bm->announce_list); j++)
-           {
-             if (fl == bm->announce_list[j])
-               goto already_announced;
-           }
-         vec_add1 (bm->announce_list, fl);
-       already_announced:
-         ;
-       }
-      else
-       {
-         if (PREDICT_TRUE ((b->flags & VLIB_BUFFER_RECYCLE) == 0))
-           dpdk_rte_pktmbuf_free (vm, b);
-       }
+  while (n >= batch_size)
+    {
+      vlib_get_buffer_indices_with_offset (vm, (void **) obj_table, bufs,
+                                          batch_size,
+                                          sizeof (struct rte_mbuf));
+      vlib_buffer_pool_put (vm, buffer_pool_index, bufs, batch_size);
+      n -= batch_size;
+      obj_table += batch_size;
     }
-  if (vec_len (bm->announce_list))
+
+  if (n)
     {
-      vlib_buffer_free_list_t *fl;
-      for (i = 0; i < vec_len (bm->announce_list); i++)
-       {
-         fl = bm->announce_list[i];
-         fl->buffers_added_to_freelist_function (vm, fl);
-       }
-      _vec_len (bm->announce_list) = 0;
+      vlib_get_buffer_indices_with_offset (vm, (void **) obj_table, bufs,
+                                          n, sizeof (struct rte_mbuf));
+      vlib_buffer_pool_put (vm, buffer_pool_index, bufs, batch_size);
     }
-}
 
-static void
-dpdk_buffer_free (vlib_main_t * vm, u32 * buffers, u32 n_buffers)
-{
-  vlib_buffer_free_inline (vm, buffers, n_buffers,     /* follow_buffer_next */
-                          1);
+  return 0;
 }
 
-static void
-dpdk_buffer_free_no_next (vlib_main_t * vm, u32 * buffers, u32 n_buffers)
-{
-  vlib_buffer_free_inline (vm, buffers, n_buffers,     /* follow_buffer_next */
-                          0);
-}
+CLIB_MARCH_FN_REGISTRATION (dpdk_ops_vpp_enqueue);
 
-static void
-dpdk_packet_template_init (vlib_main_t * vm,
-                          void *vt,
-                          void *packet_data,
-                          uword n_packet_data_bytes,
-                          uword min_n_buffers_each_physmem_alloc, u8 * name)
+static_always_inline void
+dpdk_ops_vpp_enqueue_no_cache_one (vlib_main_t * vm, struct rte_mempool *old,
+                                  struct rte_mempool *new, void *obj,
+                                  vlib_buffer_t * bt)
 {
-  vlib_packet_template_t *t = (vlib_packet_template_t *) vt;
+  struct rte_mbuf *mb = obj;
+  vlib_buffer_t *b = vlib_buffer_from_rte_mbuf (mb);
 
-  vlib_worker_thread_barrier_sync (vm);
-  memset (t, 0, sizeof (t[0]));
-
-  vec_add (t->packet_data, packet_data, n_packet_data_bytes);
-
-  vlib_worker_thread_barrier_release (vm);
+  if (clib_atomic_sub_fetch (&b->ref_count, 1) == 0)
+    {
+      u32 bi = vlib_get_buffer_index (vm, b);
+      mb->pool = new;
+      vlib_buffer_copy_template (b, bt);
+      vlib_buffer_pool_put (vm, bt->buffer_pool_index, &bi, 1);
+      return;
+    }
 }
 
-clib_error_t *
-vlib_buffer_pool_create (vlib_main_t * vm, unsigned num_mbufs,
-                        unsigned socket_id)
+int
+CLIB_MULTIARCH_FN (dpdk_ops_vpp_enqueue_no_cache) (struct rte_mempool * cmp,
+                                                  void *const *obj_table,
+                                                  unsigned n)
 {
-  dpdk_main_t *dm = &dpdk_main;
-  struct rte_mempool *rmp;
-  int i;
+  vlib_main_t *vm = vlib_get_main ();
+  vlib_buffer_t bt;
+  dpdk_mempool_private_t *privp = rte_mempool_get_priv (cmp);
+  struct rte_mempool *mp;
+  mp = dpdk_mempool_by_buffer_pool_index[privp->buffer_pool_index];
+  u8 buffer_pool_index = privp->buffer_pool_index;
+  vlib_buffer_pool_t *bp = vlib_get_buffer_pool (vm, buffer_pool_index);
+  vlib_buffer_copy_template (&bt, &bp->buffer_template);
+
+  while (n >= 4)
+    {
+      dpdk_ops_vpp_enqueue_no_cache_one (vm, cmp, mp, obj_table[0], &bt);
+      dpdk_ops_vpp_enqueue_no_cache_one (vm, cmp, mp, obj_table[1], &bt);
+      dpdk_ops_vpp_enqueue_no_cache_one (vm, cmp, mp, obj_table[2], &bt);
+      dpdk_ops_vpp_enqueue_no_cache_one (vm, cmp, mp, obj_table[3], &bt);
+      obj_table += 4;
+      n -= 4;
+    }
 
-  vec_validate_aligned (dm->pktmbuf_pools, socket_id, CLIB_CACHE_LINE_BYTES);
+  while (n)
+    {
+      dpdk_ops_vpp_enqueue_no_cache_one (vm, cmp, mp, obj_table[0], &bt);
+      obj_table += 1;
+      n -= 1;
+    }
 
-  /* pool already exists, nothing to do */
-  if (dm->pktmbuf_pools[socket_id])
-    return 0;
+  return 0;
+}
 
-  u8 *pool_name = format (0, "mbuf_pool_socket%u%c", socket_id, 0);
+CLIB_MARCH_FN_REGISTRATION (dpdk_ops_vpp_enqueue_no_cache);
 
-  rmp = rte_pktmbuf_pool_create ((char *) pool_name,   /* pool name */
-                                num_mbufs,     /* number of mbufs */
-                                512,   /* cache size */
-                                VLIB_BUFFER_HDR_SIZE,  /* priv size */
-                                VLIB_BUFFER_PRE_DATA_SIZE + VLIB_BUFFER_DATA_SIZE,     /* dataroom size */
-                                socket_id);    /* cpu socket */
+int
+CLIB_MULTIARCH_FN (dpdk_ops_vpp_dequeue) (struct rte_mempool * mp,
+                                         void **obj_table, unsigned n)
+{
+  const int batch_size = 32;
+  vlib_main_t *vm = vlib_get_main ();
+  u32 bufs[batch_size], total = 0, n_alloc = 0;
+  dpdk_mempool_private_t *privp = rte_mempool_get_priv (mp);
+  u8 buffer_pool_index = privp->buffer_pool_index;
+  void **obj = obj_table;
+
+  while (n >= batch_size)
+    {
+      n_alloc = vlib_buffer_alloc_from_pool (vm, bufs, batch_size,
+                                            buffer_pool_index);
+      if (n_alloc != batch_size)
+       goto alloc_fail;
+
+      vlib_get_buffers_with_offset (vm, bufs, obj, batch_size,
+                                   -(i32) sizeof (struct rte_mbuf));
+      total += batch_size;
+      obj += batch_size;
+      n -= batch_size;
+    }
 
-  if (rmp)
+  if (n)
     {
-      {
-       struct rte_mempool_memhdr *memhdr;
+      n_alloc = vlib_buffer_alloc_from_pool (vm, bufs, n, buffer_pool_index);
 
-       STAILQ_FOREACH (memhdr, &rmp->mem_list, next)
-         vlib_buffer_add_mem_range (vm, (uword) memhdr->addr, memhdr->len);
-      }
-      if (rmp)
-       {
-         dm->pktmbuf_pools[socket_id] = rmp;
-         vec_free (pool_name);
-         return 0;
-       }
+      if (n_alloc != n)
+       goto alloc_fail;
+
+      vlib_get_buffers_with_offset (vm, bufs, obj, n,
+                                   -(i32) sizeof (struct rte_mbuf));
     }
 
-  vec_free (pool_name);
+  return 0;
 
-  /* no usable pool for this socket, try to use pool from another one */
-  for (i = 0; i < vec_len (dm->pktmbuf_pools); i++)
+alloc_fail:
+  /* dpdk doesn't support partial alloc, so we need to return what we
+     already got */
+  if (n_alloc)
+    vlib_buffer_pool_put (vm, buffer_pool_index, bufs, n_alloc);
+  obj = obj_table;
+  while (total)
     {
-      if (dm->pktmbuf_pools[i])
-       {
-         clib_warning
-           ("WARNING: Failed to allocate mempool for CPU socket %u. "
-            "Threads running on socket %u will use socket %u mempool.",
-            socket_id, socket_id, i);
-         dm->pktmbuf_pools[socket_id] = dm->pktmbuf_pools[i];
-         return 0;
-       }
-    }
+      vlib_get_buffer_indices_with_offset (vm, obj, bufs, batch_size,
+                                          sizeof (struct rte_mbuf));
+      vlib_buffer_pool_put (vm, buffer_pool_index, bufs, batch_size);
 
-  return clib_error_return (0, "failed to allocate mempool on socket %u",
-                           socket_id);
+      obj += batch_size;
+      total -= batch_size;
+    }
+  return -ENOENT;
 }
 
-#if CLIB_DEBUG > 0
+CLIB_MARCH_FN_REGISTRATION (dpdk_ops_vpp_dequeue);
 
-u32 *vlib_buffer_state_validation_lock;
-uword *vlib_buffer_state_validation_hash;
-void *vlib_buffer_state_heap;
+#ifndef CLIB_MARCH_VARIANT
 
-static clib_error_t *
-buffer_state_validation_init (vlib_main_t * vm)
+static int
+dpdk_ops_vpp_dequeue_no_cache (struct rte_mempool *mp, void **obj_table,
+                              unsigned n)
 {
-  void *oldheap;
+  clib_error ("bug");
+  return 0;
+}
 
-  vlib_buffer_state_heap = mheap_alloc (0, 10 << 20);
+static unsigned
+dpdk_ops_vpp_get_count (const struct rte_mempool *mp)
+{
+  clib_warning ("");
+  return 0;
+}
 
-  oldheap = clib_mem_set_heap (vlib_buffer_state_heap);
+static unsigned
+dpdk_ops_vpp_get_count_no_cache (const struct rte_mempool *mp)
+{
+  dpdk_mempool_private_t *privp;
+  struct rte_mempool *cmp;
+  privp = rte_mempool_get_priv ((struct rte_mempool *) mp);
+  cmp = dpdk_no_cache_mempool_by_buffer_pool_index[privp->buffer_pool_index];
+  return dpdk_ops_vpp_get_count (cmp);
+}
 
-  vlib_buffer_state_validation_hash = hash_create (0, sizeof (uword));
-  vec_validate_aligned (vlib_buffer_state_validation_lock, 0,
-                       CLIB_CACHE_LINE_BYTES);
-  clib_mem_set_heap (oldheap);
+clib_error_t *
+dpdk_buffer_pools_create (vlib_main_t * vm)
+{
+  clib_error_t *err;
+  vlib_buffer_pool_t *bp;
+
+  struct rte_mempool_ops ops = { };
+
+  strncpy (ops.name, "vpp", 4);
+  ops.alloc = dpdk_ops_vpp_alloc;
+  ops.free = dpdk_ops_vpp_free;
+  ops.get_count = dpdk_ops_vpp_get_count;
+  ops.enqueue = CLIB_MARCH_FN_POINTER (dpdk_ops_vpp_enqueue);
+  ops.dequeue = CLIB_MARCH_FN_POINTER (dpdk_ops_vpp_dequeue);
+  rte_mempool_register_ops (&ops);
+
+  strncpy (ops.name, "vpp-no-cache", 13);
+  ops.get_count = dpdk_ops_vpp_get_count_no_cache;
+  ops.enqueue = CLIB_MARCH_FN_POINTER (dpdk_ops_vpp_enqueue_no_cache);
+  ops.dequeue = dpdk_ops_vpp_dequeue_no_cache;
+  rte_mempool_register_ops (&ops);
+
+  /* *INDENT-OFF* */
+  vec_foreach (bp, vm->buffer_main->buffer_pools)
+    if (bp->start && (err = dpdk_buffer_pool_init (vm, bp)))
+      return err;
+  /* *INDENT-ON* */
   return 0;
 }
 
-VLIB_INIT_FUNCTION (buffer_state_validation_init);
-#endif
+VLIB_BUFFER_SET_EXT_HDR_SIZE (sizeof (struct rte_mempool_objhdr) +
+                             sizeof (struct rte_mbuf));
 
-/* *INDENT-OFF* */
-VLIB_BUFFER_REGISTER_CALLBACKS (dpdk, static) = {
-  .vlib_buffer_alloc_cb = &dpdk_buffer_alloc,
-  .vlib_buffer_alloc_from_free_list_cb = &dpdk_buffer_alloc_from_free_list,
-  .vlib_buffer_free_cb = &dpdk_buffer_free,
-  .vlib_buffer_free_no_next_cb = &dpdk_buffer_free_no_next,
-  .vlib_packet_template_init_cb = &dpdk_packet_template_init,
-  .vlib_buffer_delete_free_list_cb = &dpdk_buffer_delete_free_list,
-};
-/* *INDENT-ON* */
+#endif
 
 /** @endcond */
 /*