New upstream version 17.11.4
[deb_dpdk.git] / lib / librte_eventdev / rte_event_ring.c
1 /*-
2  *   BSD LICENSE
3  *
4  *   Copyright(c) 2017 Intel Corporation. All rights reserved.
5  *
6  *   Redistribution and use in source and binary forms, with or without
7  *   modification, are permitted provided that the following conditions
8  *   are met:
9  *
10  *     * Redistributions of source code must retain the above copyright
11  *       notice, this list of conditions and the following disclaimer.
12  *     * Redistributions in binary form must reproduce the above copyright
13  *       notice, this list of conditions and the following disclaimer in
14  *       the documentation and/or other materials provided with the
15  *       distribution.
16  *     * Neither the name of Intel Corporation nor the names of its
17  *       contributors may be used to endorse or promote products derived
18  *       from this software without specific prior written permission.
19  *
20  *   THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
21  *   "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
22  *   LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
23  *   A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
24  *   OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
25  *   SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
26  *   LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
27  *   DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
28  *   THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
29  *   (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
30  *   OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
31  */
32
33 #include <sys/queue.h>
34 #include <string.h>
35
36 #include <rte_tailq.h>
37 #include <rte_memzone.h>
38 #include <rte_rwlock.h>
39 #include <rte_eal_memconfig.h>
40 #include "rte_event_ring.h"
41
42 TAILQ_HEAD(rte_event_ring_list, rte_tailq_entry);
43
44 static struct rte_tailq_elem rte_event_ring_tailq = {
45         .name = RTE_TAILQ_EVENT_RING_NAME,
46 };
47 EAL_REGISTER_TAILQ(rte_event_ring_tailq)
48
49 int
50 rte_event_ring_init(struct rte_event_ring *r, const char *name,
51         unsigned int count, unsigned int flags)
52 {
53         /* compilation-time checks */
54         RTE_BUILD_BUG_ON((sizeof(struct rte_event_ring) &
55                           RTE_CACHE_LINE_MASK) != 0);
56
57         /* init the ring structure */
58         return rte_ring_init(&r->r, name, count, flags);
59 }
60
61 /* create the ring */
62 struct rte_event_ring *
63 rte_event_ring_create(const char *name, unsigned int count, int socket_id,
64                 unsigned int flags)
65 {
66         char mz_name[RTE_MEMZONE_NAMESIZE];
67         struct rte_event_ring *r;
68         struct rte_tailq_entry *te;
69         const struct rte_memzone *mz;
70         ssize_t ring_size;
71         int mz_flags = 0;
72         struct rte_event_ring_list *ring_list = NULL;
73         const unsigned int requested_count = count;
74         int ret;
75
76         ring_list = RTE_TAILQ_CAST(rte_event_ring_tailq.head,
77                 rte_event_ring_list);
78
79         /* for an exact size ring, round up from count to a power of two */
80         if (flags & RING_F_EXACT_SZ)
81                 count = rte_align32pow2(count + 1);
82         else if (!rte_is_power_of_2(count)) {
83                 rte_errno = EINVAL;
84                 return NULL;
85         }
86
87         ring_size = sizeof(*r) + (count * sizeof(struct rte_event));
88
89         ret = snprintf(mz_name, sizeof(mz_name), "%s%s",
90                 RTE_RING_MZ_PREFIX, name);
91         if (ret < 0 || ret >= (int)sizeof(mz_name)) {
92                 rte_errno = ENAMETOOLONG;
93                 return NULL;
94         }
95
96         te = rte_zmalloc("RING_TAILQ_ENTRY", sizeof(*te), 0);
97         if (te == NULL) {
98                 RTE_LOG(ERR, RING, "Cannot reserve memory for tailq\n");
99                 rte_errno = ENOMEM;
100                 return NULL;
101         }
102
103         rte_rwlock_write_lock(RTE_EAL_TAILQ_RWLOCK);
104
105         /*
106          * reserve a memory zone for this ring. If we can't get rte_config or
107          * we are secondary process, the memzone_reserve function will set
108          * rte_errno for us appropriately - hence no check in this this function
109          */
110         mz = rte_memzone_reserve(mz_name, ring_size, socket_id, mz_flags);
111         if (mz != NULL) {
112                 r = mz->addr;
113                 /* Check return value in case rte_ring_init() fails on size */
114                 int err = rte_event_ring_init(r, name, requested_count, flags);
115                 if (err) {
116                         RTE_LOG(ERR, RING, "Ring init failed\n");
117                         if (rte_memzone_free(mz) != 0)
118                                 RTE_LOG(ERR, RING, "Cannot free memzone\n");
119                         rte_free(te);
120                         rte_rwlock_write_unlock(RTE_EAL_TAILQ_RWLOCK);
121                         return NULL;
122                 }
123
124                 te->data = (void *) r;
125                 r->r.memzone = mz;
126
127                 TAILQ_INSERT_TAIL(ring_list, te, next);
128         } else {
129                 r = NULL;
130                 RTE_LOG(ERR, RING, "Cannot reserve memory\n");
131                 rte_free(te);
132         }
133         rte_rwlock_write_unlock(RTE_EAL_TAILQ_RWLOCK);
134
135         return r;
136 }
137
138
139 struct rte_event_ring *
140 rte_event_ring_lookup(const char *name)
141 {
142         struct rte_tailq_entry *te;
143         struct rte_event_ring *r = NULL;
144         struct rte_event_ring_list *ring_list;
145
146         ring_list = RTE_TAILQ_CAST(rte_event_ring_tailq.head,
147                         rte_event_ring_list);
148
149         rte_rwlock_read_lock(RTE_EAL_TAILQ_RWLOCK);
150
151         TAILQ_FOREACH(te, ring_list, next) {
152                 r = (struct rte_event_ring *) te->data;
153                 if (strncmp(name, r->r.name, RTE_RING_NAMESIZE) == 0)
154                         break;
155         }
156
157         rte_rwlock_read_unlock(RTE_EAL_TAILQ_RWLOCK);
158
159         if (te == NULL) {
160                 rte_errno = ENOENT;
161                 return NULL;
162         }
163
164         return r;
165 }
166
167 /* free the ring */
168 void
169 rte_event_ring_free(struct rte_event_ring *r)
170 {
171         struct rte_event_ring_list *ring_list = NULL;
172         struct rte_tailq_entry *te;
173
174         if (r == NULL)
175                 return;
176
177         /*
178          * Ring was not created with rte_event_ring_create,
179          * therefore, there is no memzone to free.
180          */
181         if (r->r.memzone == NULL) {
182                 RTE_LOG(ERR, RING,
183                         "Cannot free ring (not created with rte_event_ring_create()");
184                 return;
185         }
186
187         if (rte_memzone_free(r->r.memzone) != 0) {
188                 RTE_LOG(ERR, RING, "Cannot free memory\n");
189                 return;
190         }
191
192         ring_list = RTE_TAILQ_CAST(rte_event_ring_tailq.head,
193                         rte_event_ring_list);
194         rte_rwlock_write_lock(RTE_EAL_TAILQ_RWLOCK);
195
196         /* find out tailq entry */
197         TAILQ_FOREACH(te, ring_list, next) {
198                 if (te->data == (void *) r)
199                         break;
200         }
201
202         if (te == NULL) {
203                 rte_rwlock_write_unlock(RTE_EAL_TAILQ_RWLOCK);
204                 return;
205         }
206
207         TAILQ_REMOVE(ring_list, te, next);
208
209         rte_rwlock_write_unlock(RTE_EAL_TAILQ_RWLOCK);
210
211         rte_free(te);
212 }