New upstream version 18.11-rc1
[deb_dpdk.git] / lib / librte_eal / common / rte_malloc.c
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright(c) 2010-2014 Intel Corporation
3  */
4
5 #include <stdint.h>
6 #include <stddef.h>
7 #include <stdio.h>
8 #include <string.h>
9 #include <sys/queue.h>
10
11 #include <rte_errno.h>
12 #include <rte_memcpy.h>
13 #include <rte_memory.h>
14 #include <rte_eal.h>
15 #include <rte_eal_memconfig.h>
16 #include <rte_branch_prediction.h>
17 #include <rte_debug.h>
18 #include <rte_launch.h>
19 #include <rte_per_lcore.h>
20 #include <rte_lcore.h>
21 #include <rte_common.h>
22 #include <rte_spinlock.h>
23
24 #include <rte_malloc.h>
25 #include "malloc_elem.h"
26 #include "malloc_heap.h"
27 #include "eal_memalloc.h"
28
29
30 /* Free the memory space back to heap */
31 void rte_free(void *addr)
32 {
33         if (addr == NULL) return;
34         if (malloc_heap_free(malloc_elem_from_data(addr)) < 0)
35                 RTE_LOG(ERR, EAL, "Error: Invalid memory\n");
36 }
37
38 /*
39  * Allocate memory on specified heap.
40  */
41 void *
42 rte_malloc_socket(const char *type, size_t size, unsigned int align,
43                 int socket_arg)
44 {
45         /* return NULL if size is 0 or alignment is not power-of-2 */
46         if (size == 0 || (align && !rte_is_power_of_2(align)))
47                 return NULL;
48
49         /* if there are no hugepages and if we are not allocating from an
50          * external heap, use memory from any socket available. checking for
51          * socket being external may return -1 in case of invalid socket, but
52          * that's OK - if there are no hugepages, it doesn't matter.
53          */
54         if (rte_malloc_heap_socket_is_external(socket_arg) != 1 &&
55                                 !rte_eal_has_hugepages())
56                 socket_arg = SOCKET_ID_ANY;
57
58         return malloc_heap_alloc(type, size, socket_arg, 0,
59                         align == 0 ? 1 : align, 0, false);
60 }
61
62 /*
63  * Allocate memory on default heap.
64  */
65 void *
66 rte_malloc(const char *type, size_t size, unsigned align)
67 {
68         return rte_malloc_socket(type, size, align, SOCKET_ID_ANY);
69 }
70
71 /*
72  * Allocate zero'd memory on specified heap.
73  */
74 void *
75 rte_zmalloc_socket(const char *type, size_t size, unsigned align, int socket)
76 {
77         return rte_malloc_socket(type, size, align, socket);
78 }
79
80 /*
81  * Allocate zero'd memory on default heap.
82  */
83 void *
84 rte_zmalloc(const char *type, size_t size, unsigned align)
85 {
86         return rte_zmalloc_socket(type, size, align, SOCKET_ID_ANY);
87 }
88
89 /*
90  * Allocate zero'd memory on specified heap.
91  */
92 void *
93 rte_calloc_socket(const char *type, size_t num, size_t size, unsigned align, int socket)
94 {
95         return rte_zmalloc_socket(type, num * size, align, socket);
96 }
97
98 /*
99  * Allocate zero'd memory on default heap.
100  */
101 void *
102 rte_calloc(const char *type, size_t num, size_t size, unsigned align)
103 {
104         return rte_zmalloc(type, num * size, align);
105 }
106
107 /*
108  * Resize allocated memory.
109  */
110 void *
111 rte_realloc(void *ptr, size_t size, unsigned align)
112 {
113         if (ptr == NULL)
114                 return rte_malloc(NULL, size, align);
115
116         struct malloc_elem *elem = malloc_elem_from_data(ptr);
117         if (elem == NULL) {
118                 RTE_LOG(ERR, EAL, "Error: memory corruption detected\n");
119                 return NULL;
120         }
121
122         size = RTE_CACHE_LINE_ROUNDUP(size), align = RTE_CACHE_LINE_ROUNDUP(align);
123         /* check alignment matches first, and if ok, see if we can resize block */
124         if (RTE_PTR_ALIGN(ptr,align) == ptr &&
125                         malloc_heap_resize(elem, size) == 0)
126                 return ptr;
127
128         /* either alignment is off, or we have no room to expand,
129          * so move data. */
130         void *new_ptr = rte_malloc(NULL, size, align);
131         if (new_ptr == NULL)
132                 return NULL;
133         const unsigned old_size = elem->size - MALLOC_ELEM_OVERHEAD;
134         rte_memcpy(new_ptr, ptr, old_size < size ? old_size : size);
135         rte_free(ptr);
136
137         return new_ptr;
138 }
139
140 int
141 rte_malloc_validate(const void *ptr, size_t *size)
142 {
143         const struct malloc_elem *elem = malloc_elem_from_data(ptr);
144         if (!malloc_elem_cookies_ok(elem))
145                 return -1;
146         if (size != NULL)
147                 *size = elem->size - elem->pad - MALLOC_ELEM_OVERHEAD;
148         return 0;
149 }
150
151 /*
152  * Function to retrieve data for heap on given socket
153  */
154 int
155 rte_malloc_get_socket_stats(int socket,
156                 struct rte_malloc_socket_stats *socket_stats)
157 {
158         struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
159         int heap_idx, ret = -1;
160
161         rte_rwlock_read_lock(&mcfg->memory_hotplug_lock);
162
163         heap_idx = malloc_socket_to_heap_id(socket);
164         if (heap_idx < 0)
165                 goto unlock;
166
167         ret = malloc_heap_get_stats(&mcfg->malloc_heaps[heap_idx],
168                         socket_stats);
169 unlock:
170         rte_rwlock_read_unlock(&mcfg->memory_hotplug_lock);
171
172         return ret;
173 }
174
175 /*
176  * Function to dump contents of all heaps
177  */
178 void __rte_experimental
179 rte_malloc_dump_heaps(FILE *f)
180 {
181         struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
182         unsigned int idx;
183
184         rte_rwlock_read_lock(&mcfg->memory_hotplug_lock);
185
186         for (idx = 0; idx < RTE_MAX_HEAPS; idx++) {
187                 fprintf(f, "Heap id: %u\n", idx);
188                 malloc_heap_dump(&mcfg->malloc_heaps[idx], f);
189         }
190
191         rte_rwlock_read_unlock(&mcfg->memory_hotplug_lock);
192 }
193
194 int
195 rte_malloc_heap_get_socket(const char *name)
196 {
197         struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
198         struct malloc_heap *heap = NULL;
199         unsigned int idx;
200         int ret;
201
202         if (name == NULL ||
203                         strnlen(name, RTE_HEAP_NAME_MAX_LEN) == 0 ||
204                         strnlen(name, RTE_HEAP_NAME_MAX_LEN) ==
205                                 RTE_HEAP_NAME_MAX_LEN) {
206                 rte_errno = EINVAL;
207                 return -1;
208         }
209         rte_rwlock_read_lock(&mcfg->memory_hotplug_lock);
210         for (idx = 0; idx < RTE_MAX_HEAPS; idx++) {
211                 struct malloc_heap *tmp = &mcfg->malloc_heaps[idx];
212
213                 if (!strncmp(name, tmp->name, RTE_HEAP_NAME_MAX_LEN)) {
214                         heap = tmp;
215                         break;
216                 }
217         }
218
219         if (heap != NULL) {
220                 ret = heap->socket_id;
221         } else {
222                 rte_errno = ENOENT;
223                 ret = -1;
224         }
225         rte_rwlock_read_unlock(&mcfg->memory_hotplug_lock);
226
227         return ret;
228 }
229
230 int
231 rte_malloc_heap_socket_is_external(int socket_id)
232 {
233         struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
234         unsigned int idx;
235         int ret = -1;
236
237         if (socket_id == SOCKET_ID_ANY)
238                 return 0;
239
240         rte_rwlock_read_lock(&mcfg->memory_hotplug_lock);
241         for (idx = 0; idx < RTE_MAX_HEAPS; idx++) {
242                 struct malloc_heap *tmp = &mcfg->malloc_heaps[idx];
243
244                 if ((int)tmp->socket_id == socket_id) {
245                         /* external memory always has large socket ID's */
246                         ret = tmp->socket_id >= RTE_MAX_NUMA_NODES;
247                         break;
248                 }
249         }
250         rte_rwlock_read_unlock(&mcfg->memory_hotplug_lock);
251
252         return ret;
253 }
254
255 /*
256  * Print stats on memory type. If type is NULL, info on all types is printed
257  */
258 void
259 rte_malloc_dump_stats(FILE *f, __rte_unused const char *type)
260 {
261         struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
262         unsigned int heap_id;
263         struct rte_malloc_socket_stats sock_stats;
264
265         rte_rwlock_read_lock(&mcfg->memory_hotplug_lock);
266
267         /* Iterate through all initialised heaps */
268         for (heap_id = 0; heap_id < RTE_MAX_HEAPS; heap_id++) {
269                 struct malloc_heap *heap = &mcfg->malloc_heaps[heap_id];
270
271                 malloc_heap_get_stats(heap, &sock_stats);
272
273                 fprintf(f, "Heap id:%u\n", heap_id);
274                 fprintf(f, "\tHeap name:%s\n", heap->name);
275                 fprintf(f, "\tHeap_size:%zu,\n", sock_stats.heap_totalsz_bytes);
276                 fprintf(f, "\tFree_size:%zu,\n", sock_stats.heap_freesz_bytes);
277                 fprintf(f, "\tAlloc_size:%zu,\n", sock_stats.heap_allocsz_bytes);
278                 fprintf(f, "\tGreatest_free_size:%zu,\n",
279                                 sock_stats.greatest_free_size);
280                 fprintf(f, "\tAlloc_count:%u,\n",sock_stats.alloc_count);
281                 fprintf(f, "\tFree_count:%u,\n", sock_stats.free_count);
282         }
283         rte_rwlock_read_unlock(&mcfg->memory_hotplug_lock);
284         return;
285 }
286
287 /*
288  * TODO: Set limit to memory that can be allocated to memory type
289  */
290 int
291 rte_malloc_set_limit(__rte_unused const char *type,
292                 __rte_unused size_t max)
293 {
294         return 0;
295 }
296
297 /*
298  * Return the IO address of a virtual address obtained through rte_malloc
299  */
300 rte_iova_t
301 rte_malloc_virt2iova(const void *addr)
302 {
303         const struct rte_memseg *ms;
304         struct malloc_elem *elem = malloc_elem_from_data(addr);
305
306         if (elem == NULL)
307                 return RTE_BAD_IOVA;
308
309         if (!elem->msl->external && rte_eal_iova_mode() == RTE_IOVA_VA)
310                 return (uintptr_t) addr;
311
312         ms = rte_mem_virt2memseg(addr, elem->msl);
313         if (ms == NULL)
314                 return RTE_BAD_IOVA;
315
316         if (ms->iova == RTE_BAD_IOVA)
317                 return RTE_BAD_IOVA;
318
319         return ms->iova + RTE_PTR_DIFF(addr, ms->addr);
320 }
321
322 static struct malloc_heap *
323 find_named_heap(const char *name)
324 {
325         struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
326         unsigned int i;
327
328         for (i = 0; i < RTE_MAX_HEAPS; i++) {
329                 struct malloc_heap *heap = &mcfg->malloc_heaps[i];
330
331                 if (!strncmp(name, heap->name, RTE_HEAP_NAME_MAX_LEN))
332                         return heap;
333         }
334         return NULL;
335 }
336
337 int
338 rte_malloc_heap_memory_add(const char *heap_name, void *va_addr, size_t len,
339                 rte_iova_t iova_addrs[], unsigned int n_pages, size_t page_sz)
340 {
341         struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
342         struct malloc_heap *heap = NULL;
343         unsigned int n;
344         int ret;
345
346         if (heap_name == NULL || va_addr == NULL ||
347                         page_sz == 0 || !rte_is_power_of_2(page_sz) ||
348                         strnlen(heap_name, RTE_HEAP_NAME_MAX_LEN) == 0 ||
349                         strnlen(heap_name, RTE_HEAP_NAME_MAX_LEN) ==
350                                 RTE_HEAP_NAME_MAX_LEN) {
351                 rte_errno = EINVAL;
352                 ret = -1;
353                 goto unlock;
354         }
355         rte_rwlock_write_lock(&mcfg->memory_hotplug_lock);
356
357         /* find our heap */
358         heap = find_named_heap(heap_name);
359         if (heap == NULL) {
360                 rte_errno = ENOENT;
361                 ret = -1;
362                 goto unlock;
363         }
364         if (heap->socket_id < RTE_MAX_NUMA_NODES) {
365                 /* cannot add memory to internal heaps */
366                 rte_errno = EPERM;
367                 ret = -1;
368                 goto unlock;
369         }
370         n = len / page_sz;
371         if (n != n_pages && iova_addrs != NULL) {
372                 rte_errno = EINVAL;
373                 ret = -1;
374                 goto unlock;
375         }
376
377         rte_spinlock_lock(&heap->lock);
378         ret = malloc_heap_add_external_memory(heap, va_addr, iova_addrs, n,
379                         page_sz);
380         rte_spinlock_unlock(&heap->lock);
381
382 unlock:
383         rte_rwlock_write_unlock(&mcfg->memory_hotplug_lock);
384
385         return ret;
386 }
387
388 int
389 rte_malloc_heap_memory_remove(const char *heap_name, void *va_addr, size_t len)
390 {
391         struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
392         struct malloc_heap *heap = NULL;
393         int ret;
394
395         if (heap_name == NULL || va_addr == NULL || len == 0 ||
396                         strnlen(heap_name, RTE_HEAP_NAME_MAX_LEN) == 0 ||
397                         strnlen(heap_name, RTE_HEAP_NAME_MAX_LEN) ==
398                                 RTE_HEAP_NAME_MAX_LEN) {
399                 rte_errno = EINVAL;
400                 return -1;
401         }
402         rte_rwlock_write_lock(&mcfg->memory_hotplug_lock);
403         /* find our heap */
404         heap = find_named_heap(heap_name);
405         if (heap == NULL) {
406                 rte_errno = ENOENT;
407                 ret = -1;
408                 goto unlock;
409         }
410         if (heap->socket_id < RTE_MAX_NUMA_NODES) {
411                 /* cannot remove memory from internal heaps */
412                 rte_errno = EPERM;
413                 ret = -1;
414                 goto unlock;
415         }
416
417         rte_spinlock_lock(&heap->lock);
418         ret = malloc_heap_remove_external_memory(heap, va_addr, len);
419         rte_spinlock_unlock(&heap->lock);
420
421 unlock:
422         rte_rwlock_write_unlock(&mcfg->memory_hotplug_lock);
423
424         return ret;
425 }
426
427 struct sync_mem_walk_arg {
428         void *va_addr;
429         size_t len;
430         int result;
431         bool attach;
432 };
433
434 static int
435 sync_mem_walk(const struct rte_memseg_list *msl, void *arg)
436 {
437         struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
438         struct sync_mem_walk_arg *wa = arg;
439         size_t len = msl->page_sz * msl->memseg_arr.len;
440
441         if (msl->base_va == wa->va_addr &&
442                         len == wa->len) {
443                 struct rte_memseg_list *found_msl;
444                 int msl_idx, ret;
445
446                 /* msl is const */
447                 msl_idx = msl - mcfg->memsegs;
448                 found_msl = &mcfg->memsegs[msl_idx];
449
450                 if (wa->attach) {
451                         ret = rte_fbarray_attach(&found_msl->memseg_arr);
452                 } else {
453                         /* notify all subscribers that a memory area is about to
454                          * be removed
455                          */
456                         eal_memalloc_mem_event_notify(RTE_MEM_EVENT_FREE,
457                                         msl->base_va, msl->len);
458                         ret = rte_fbarray_detach(&found_msl->memseg_arr);
459                 }
460
461                 if (ret < 0) {
462                         wa->result = -rte_errno;
463                 } else {
464                         /* notify all subscribers that a new memory area was
465                          * added
466                          */
467                         if (wa->attach)
468                                 eal_memalloc_mem_event_notify(
469                                                 RTE_MEM_EVENT_ALLOC,
470                                                 msl->base_va, msl->len);
471                         wa->result = 0;
472                 }
473                 return 1;
474         }
475         return 0;
476 }
477
478 static int
479 sync_memory(const char *heap_name, void *va_addr, size_t len, bool attach)
480 {
481         struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
482         struct malloc_heap *heap = NULL;
483         struct sync_mem_walk_arg wa;
484         int ret;
485
486         if (heap_name == NULL || va_addr == NULL || len == 0 ||
487                         strnlen(heap_name, RTE_HEAP_NAME_MAX_LEN) == 0 ||
488                         strnlen(heap_name, RTE_HEAP_NAME_MAX_LEN) ==
489                                 RTE_HEAP_NAME_MAX_LEN) {
490                 rte_errno = EINVAL;
491                 return -1;
492         }
493         rte_rwlock_read_lock(&mcfg->memory_hotplug_lock);
494
495         /* find our heap */
496         heap = find_named_heap(heap_name);
497         if (heap == NULL) {
498                 rte_errno = ENOENT;
499                 ret = -1;
500                 goto unlock;
501         }
502         /* we shouldn't be able to sync to internal heaps */
503         if (heap->socket_id < RTE_MAX_NUMA_NODES) {
504                 rte_errno = EPERM;
505                 ret = -1;
506                 goto unlock;
507         }
508
509         /* find corresponding memseg list to sync to */
510         wa.va_addr = va_addr;
511         wa.len = len;
512         wa.result = -ENOENT; /* fail unless explicitly told to succeed */
513         wa.attach = attach;
514
515         /* we're already holding a read lock */
516         rte_memseg_list_walk_thread_unsafe(sync_mem_walk, &wa);
517
518         if (wa.result < 0) {
519                 rte_errno = -wa.result;
520                 ret = -1;
521         } else {
522                 /* notify all subscribers that a new memory area was added */
523                 if (attach)
524                         eal_memalloc_mem_event_notify(RTE_MEM_EVENT_ALLOC,
525                                         va_addr, len);
526                 ret = 0;
527         }
528 unlock:
529         rte_rwlock_read_unlock(&mcfg->memory_hotplug_lock);
530         return ret;
531 }
532
533 int
534 rte_malloc_heap_memory_attach(const char *heap_name, void *va_addr, size_t len)
535 {
536         return sync_memory(heap_name, va_addr, len, true);
537 }
538
539 int
540 rte_malloc_heap_memory_detach(const char *heap_name, void *va_addr, size_t len)
541 {
542         return sync_memory(heap_name, va_addr, len, false);
543 }
544
545 int
546 rte_malloc_heap_create(const char *heap_name)
547 {
548         struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
549         struct malloc_heap *heap = NULL;
550         int i, ret;
551
552         if (heap_name == NULL ||
553                         strnlen(heap_name, RTE_HEAP_NAME_MAX_LEN) == 0 ||
554                         strnlen(heap_name, RTE_HEAP_NAME_MAX_LEN) ==
555                                 RTE_HEAP_NAME_MAX_LEN) {
556                 rte_errno = EINVAL;
557                 return -1;
558         }
559         /* check if there is space in the heap list, or if heap with this name
560          * already exists.
561          */
562         rte_rwlock_write_lock(&mcfg->memory_hotplug_lock);
563
564         for (i = 0; i < RTE_MAX_HEAPS; i++) {
565                 struct malloc_heap *tmp = &mcfg->malloc_heaps[i];
566                 /* existing heap */
567                 if (strncmp(heap_name, tmp->name,
568                                 RTE_HEAP_NAME_MAX_LEN) == 0) {
569                         RTE_LOG(ERR, EAL, "Heap %s already exists\n",
570                                 heap_name);
571                         rte_errno = EEXIST;
572                         ret = -1;
573                         goto unlock;
574                 }
575                 /* empty heap */
576                 if (strnlen(tmp->name, RTE_HEAP_NAME_MAX_LEN) == 0) {
577                         heap = tmp;
578                         break;
579                 }
580         }
581         if (heap == NULL) {
582                 RTE_LOG(ERR, EAL, "Cannot create new heap: no space\n");
583                 rte_errno = ENOSPC;
584                 ret = -1;
585                 goto unlock;
586         }
587
588         /* we're sure that we can create a new heap, so do it */
589         ret = malloc_heap_create(heap, heap_name);
590 unlock:
591         rte_rwlock_write_unlock(&mcfg->memory_hotplug_lock);
592
593         return ret;
594 }
595
596 int
597 rte_malloc_heap_destroy(const char *heap_name)
598 {
599         struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
600         struct malloc_heap *heap = NULL;
601         int ret;
602
603         if (heap_name == NULL ||
604                         strnlen(heap_name, RTE_HEAP_NAME_MAX_LEN) == 0 ||
605                         strnlen(heap_name, RTE_HEAP_NAME_MAX_LEN) ==
606                                 RTE_HEAP_NAME_MAX_LEN) {
607                 rte_errno = EINVAL;
608                 return -1;
609         }
610         rte_rwlock_write_lock(&mcfg->memory_hotplug_lock);
611
612         /* start from non-socket heaps */
613         heap = find_named_heap(heap_name);
614         if (heap == NULL) {
615                 RTE_LOG(ERR, EAL, "Heap %s not found\n", heap_name);
616                 rte_errno = ENOENT;
617                 ret = -1;
618                 goto unlock;
619         }
620         /* we shouldn't be able to destroy internal heaps */
621         if (heap->socket_id < RTE_MAX_NUMA_NODES) {
622                 rte_errno = EPERM;
623                 ret = -1;
624                 goto unlock;
625         }
626         /* sanity checks done, now we can destroy the heap */
627         rte_spinlock_lock(&heap->lock);
628         ret = malloc_heap_destroy(heap);
629
630         /* if we failed, lock is still active */
631         if (ret < 0)
632                 rte_spinlock_unlock(&heap->lock);
633 unlock:
634         rte_rwlock_write_unlock(&mcfg->memory_hotplug_lock);
635
636         return ret;
637 }