Merge branch 'upstream-16.11-stable' into 16.11.x
[deb_dpdk.git] / lib / librte_mempool / rte_mempool.c
index 2e28e2e..3cb9e42 100644 (file)
@@ -55,7 +55,6 @@
 #include <rte_per_lcore.h>
 #include <rte_lcore.h>
 #include <rte_branch_prediction.h>
-#include <rte_ring.h>
 #include <rte_errno.h>
 #include <rte_string_fns.h>
 #include <rte_spinlock.h>
@@ -397,12 +396,18 @@ rte_mempool_populate_phys(struct rte_mempool *mp, char *vaddr,
        }
 
        /* not enough room to store one object */
-       if (i == 0)
-               return -EINVAL;
+       if (i == 0) {
+               ret = -EINVAL;
+               goto fail;
+       }
 
        STAILQ_INSERT_TAIL(&mp->mem_list, memhdr, next);
        mp->nb_mem_chunks++;
        return i;
+
+fail:
+       rte_free(memhdr);
+       return ret;
 }
 
 /* Add objects in the pool, using a table of physical pages. Return the
@@ -429,7 +434,7 @@ rte_mempool_populate_phys_tab(struct rte_mempool *mp, char *vaddr,
 
                /* populate with the largest group of contiguous pages */
                for (n = 1; (i + n) < pg_num &&
-                            paddr[i] + pg_sz == paddr[i+n]; n++)
+                            paddr[i + n - 1] + pg_sz == paddr[i + n]; n++)
                        ;
 
                ret = rte_mempool_populate_phys(mp, vaddr + i * pg_sz,
@@ -457,9 +462,6 @@ rte_mempool_populate_virt(struct rte_mempool *mp, char *addr,
        size_t off, phys_len;
        int ret, cnt = 0;
 
-       /* mempool must not be populated */
-       if (mp->nb_mem_chunks != 0)
-               return -EEXIST;
        /* address and len must be page-aligned */
        if (RTE_PTR_ALIGN_CEIL(addr, pg_sz) != addr)
                return -EINVAL;
@@ -579,8 +581,10 @@ rte_mempool_populate_default(struct rte_mempool *mp)
                                mz->len, pg_sz,
                                rte_mempool_memchunk_mz_free,
                                (void *)(uintptr_t)mz);
-               if (ret < 0)
+               if (ret < 0) {
+                       rte_memzone_free(mz);
                        goto fail;
+               }
        }
 
        return mp->size;
@@ -621,7 +625,7 @@ rte_mempool_populate_anon(struct rte_mempool *mp)
        char *addr;
 
        /* mempool is already populated, error */
-       if (!STAILQ_EMPTY(&mp->mem_list)) {
+       if ((!STAILQ_EMPTY(&mp->mem_list)) || mp->nb_mem_chunks != 0) {
                rte_errno = EINVAL;
                return 0;
        }
@@ -879,7 +883,7 @@ rte_mempool_create(const char *name, unsigned n, unsigned elt_size,
         * Since we have 4 combinations of the SP/SC/MP/MC examine the flags to
         * set the correct index into the table of ops structs.
         */
-       if (flags & (MEMPOOL_F_SP_PUT | MEMPOOL_F_SC_GET))
+       if ((flags & MEMPOOL_F_SP_PUT) && (flags & MEMPOOL_F_SC_GET))
                rte_mempool_set_ops_byname(mp, "ring_sp_sc", NULL);
        else if (flags & MEMPOOL_F_SP_PUT)
                rte_mempool_set_ops_byname(mp, "ring_sp_mc", NULL);
@@ -909,9 +913,8 @@ rte_mempool_create(const char *name, unsigned n, unsigned elt_size,
 /*
  * Create the mempool over already allocated chunk of memory.
  * That external memory buffer can consists of physically disjoint pages.
- * Setting vaddr to NULL, makes mempool to fallback to original behaviour
- * and allocate space for mempool and it's elements as one big chunk of
- * physically continuos memory.
+ * Setting vaddr to NULL, makes mempool to fallback to rte_mempool_create()
+ * behavior.
  */
 struct rte_mempool *
 rte_mempool_xmem_create(const char *name, unsigned n, unsigned elt_size,