Switch atomic release API from __sync to __atomic builtin.
[vpp.git] / src / vppinfra / pmalloc.c
index 41309dd..d9e50d1 100644 (file)
 #include <sys/types.h>
 #include <sys/stat.h>
 #include <fcntl.h>
+#include <unistd.h>
 #include <linux/mempolicy.h>
 #include <linux/memfd.h>
+#include <sched.h>
 
 #include <vppinfra/format.h>
 #include <vppinfra/linux/syscall.h>
@@ -52,17 +54,18 @@ pmalloc_validate_numa_node (u32 * numa_node)
   if (*numa_node == CLIB_PMALLOC_NUMA_LOCAL)
     {
       u32 cpu;
-      if (getcpu (&cpu, numa_node, 0) != 0)
+      if (getcpu (&cpu, numa_node) != 0)
        return 1;
     }
   return 0;
 }
 
 int
-clib_pmalloc_init (clib_pmalloc_main_t * pm, uword size)
+clib_pmalloc_init (clib_pmalloc_main_t * pm, uword base_addr, uword size)
 {
   uword off, pagesize;
   u64 *pt = 0;
+  int mmap_flags;
 
   ASSERT (pm->error == 0);
 
@@ -82,8 +85,13 @@ clib_pmalloc_init (clib_pmalloc_main_t * pm, uword size)
   pm->max_pages = size >> pm->def_log2_page_sz;
 
   /* reserve VA space for future growth */
-  pm->base = mmap (0, size + pagesize, PROT_NONE,
-                  MAP_PRIVATE | MAP_ANONYMOUS, -1, 0);
+  mmap_flags = MAP_PRIVATE | MAP_ANONYMOUS;
+
+  if (base_addr)
+    mmap_flags |= MAP_FIXED;
+
+  pm->base = mmap (uword_to_pointer (base_addr, void *), size + pagesize,
+                  PROT_NONE, mmap_flags, -1, 0);
 
   if (pm->base == MAP_FAILED)
     {
@@ -138,6 +146,9 @@ alloc_chunk_from_page (clib_pmalloc_main_t * pm, clib_pmalloc_page_t * pp,
       pp->n_free_chunks = a->subpages_per_page;
     }
 
+  if (pp->n_free_blocks < n_blocks)
+    return 0;
+
   alloc_chunk_index = pp->first_chunk_index;
 
 next_chunk:
@@ -254,6 +265,7 @@ pmalloc_map_pages (clib_pmalloc_main_t * pm, clib_pmalloc_arena_t * a,
   int old_mpol = -1;
   long unsigned int mask[16] = { 0 };
   long unsigned int old_mask[16] = { 0 };
+  uword page_size = 1ULL << a->log2_subpage_sz;
   uword size = (uword) n_pages << pm->def_log2_page_sz;
 
   clib_error_free (pm->error);
@@ -326,6 +338,25 @@ pmalloc_map_pages (clib_pmalloc_main_t * pm, clib_pmalloc_arena_t * a,
       goto error;
     }
 
+  /* Check if huge page is not allocated,
+     wrong allocation will generate the SIGBUS */
+  if (a->log2_subpage_sz != pm->sys_log2_page_sz)
+    {
+      for (int i = 0; i < n_pages; i++)
+       {
+         unsigned char flag;
+         mincore (va + i * page_size, 1, &flag);
+         // flag is 1 if the page was successfully allocated and in memory
+         if (!flag)
+           {
+             pm->error =
+               clib_error_return_unix (0,
+                                       "Unable to fulfill huge page allocation request");
+             goto error;
+           }
+       }
+    }
+
   clib_memset (va, 0, size);
 
   rv = set_mempolicy (old_mpol, old_mask, sizeof (old_mask) * 8 + 1);