svm: allow mq attachments at random offsets
[vpp.git] / src / vcl / vcl_private.c
1 /*
2  * Copyright (c) 2018-2019 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 #include <vcl/vcl_private.h>
17
18 static pthread_key_t vcl_worker_stop_key;
19
20 vcl_mq_evt_conn_t *
21 vcl_mq_evt_conn_alloc (vcl_worker_t * wrk)
22 {
23   vcl_mq_evt_conn_t *mqc;
24   pool_get (wrk->mq_evt_conns, mqc);
25   memset (mqc, 0, sizeof (*mqc));
26   return mqc;
27 }
28
29 u32
30 vcl_mq_evt_conn_index (vcl_worker_t * wrk, vcl_mq_evt_conn_t * mqc)
31 {
32   return (mqc - wrk->mq_evt_conns);
33 }
34
35 vcl_mq_evt_conn_t *
36 vcl_mq_evt_conn_get (vcl_worker_t * wrk, u32 mq_conn_idx)
37 {
38   return pool_elt_at_index (wrk->mq_evt_conns, mq_conn_idx);
39 }
40
41 int
42 vcl_mq_epoll_add_evfd (vcl_worker_t * wrk, svm_msg_q_t * mq)
43 {
44   struct epoll_event e = { 0 };
45   vcl_mq_evt_conn_t *mqc;
46   u32 mqc_index;
47   int mq_fd;
48
49   mq_fd = svm_msg_q_get_consumer_eventfd (mq);
50
51   if (wrk->mqs_epfd < 0 || mq_fd == -1)
52     return -1;
53
54   mqc = vcl_mq_evt_conn_alloc (wrk);
55   mqc_index = vcl_mq_evt_conn_index (wrk, mqc);
56   mqc->mq_fd = mq_fd;
57   mqc->mq = mq;
58
59   e.events = EPOLLIN;
60   e.data.u32 = mqc_index;
61   if (epoll_ctl (wrk->mqs_epfd, EPOLL_CTL_ADD, mq_fd, &e) < 0)
62     {
63       VDBG (0, "failed to add mq eventfd to mq epoll fd");
64       return -1;
65     }
66
67   return mqc_index;
68 }
69
70 int
71 vcl_mq_epoll_del_evfd (vcl_worker_t * wrk, u32 mqc_index)
72 {
73   vcl_mq_evt_conn_t *mqc;
74
75   if (wrk->mqs_epfd || mqc_index == ~0)
76     return -1;
77
78   mqc = vcl_mq_evt_conn_get (wrk, mqc_index);
79   if (epoll_ctl (wrk->mqs_epfd, EPOLL_CTL_DEL, mqc->mq_fd, 0) < 0)
80     {
81       VDBG (0, "failed to del mq eventfd to mq epoll fd");
82       return -1;
83     }
84   return 0;
85 }
86
87 static vcl_worker_t *
88 vcl_worker_alloc (void)
89 {
90   vcl_worker_t *wrk;
91   pool_get (vcm->workers, wrk);
92   memset (wrk, 0, sizeof (*wrk));
93   wrk->wrk_index = wrk - vcm->workers;
94   wrk->forked_child = ~0;
95   return wrk;
96 }
97
98 static void
99 vcl_worker_free (vcl_worker_t * wrk)
100 {
101   pool_put (vcm->workers, wrk);
102 }
103
104 int
105 vcl_api_app_worker_add (void)
106 {
107   if (vcm->cfg.vpp_app_socket_api)
108     return vcl_sapi_app_worker_add ();
109
110   return vcl_bapi_app_worker_add ();
111 }
112
113 void
114 vcl_api_app_worker_del (vcl_worker_t * wrk)
115 {
116   if (vcm->cfg.vpp_app_socket_api)
117     return vcl_sapi_app_worker_del (wrk);
118
119   vcl_bapi_app_worker_del (wrk);
120 }
121
122 void
123 vcl_worker_cleanup (vcl_worker_t * wrk, u8 notify_vpp)
124 {
125   clib_spinlock_lock (&vcm->workers_lock);
126   if (notify_vpp)
127     vcl_api_app_worker_del (wrk);
128
129   if (wrk->mqs_epfd > 0)
130     close (wrk->mqs_epfd);
131   hash_free (wrk->session_index_by_vpp_handles);
132   vec_free (wrk->mq_events);
133   vec_free (wrk->mq_msg_vector);
134   vcl_worker_free (wrk);
135   clib_spinlock_unlock (&vcm->workers_lock);
136 }
137
138 static void
139 vcl_worker_cleanup_cb (void *arg)
140 {
141   vcl_worker_t *wrk = vcl_worker_get_current ();
142   u32 wrk_index = wrk->wrk_index;
143   vcl_worker_cleanup (wrk, 1 /* notify vpp */ );
144   vcl_set_worker_index (~0);
145   VDBG (0, "cleaned up worker %u", wrk_index);
146 }
147
148 vcl_worker_t *
149 vcl_worker_alloc_and_init ()
150 {
151   vcl_worker_t *wrk;
152
153   /* This was initialized already */
154   if (vcl_get_worker_index () != ~0)
155     return 0;
156
157   /* Use separate heap map entry for worker */
158   clib_mem_set_thread_index ();
159
160   if (pool_elts (vcm->workers) == vcm->cfg.max_workers)
161     {
162       VDBG (0, "max-workers %u limit reached", vcm->cfg.max_workers);
163       return 0;
164     }
165
166   clib_spinlock_lock (&vcm->workers_lock);
167   wrk = vcl_worker_alloc ();
168   vcl_set_worker_index (wrk->wrk_index);
169   wrk->thread_id = pthread_self ();
170   wrk->current_pid = getpid ();
171
172   wrk->mqs_epfd = -1;
173   if (vcm->cfg.use_mq_eventfd)
174     {
175       wrk->vcl_needs_real_epoll = 1;
176       wrk->mqs_epfd = epoll_create (1);
177       wrk->vcl_needs_real_epoll = 0;
178       if (wrk->mqs_epfd < 0)
179         {
180           clib_unix_warning ("epoll_create() returned");
181           goto done;
182         }
183     }
184
185   wrk->session_index_by_vpp_handles = hash_create (0, sizeof (uword));
186   clib_time_init (&wrk->clib_time);
187   vec_validate (wrk->mq_events, 64);
188   vec_validate (wrk->mq_msg_vector, 128);
189   vec_reset_length (wrk->mq_msg_vector);
190   vec_validate (wrk->unhandled_evts_vector, 128);
191   vec_reset_length (wrk->unhandled_evts_vector);
192   clib_spinlock_unlock (&vcm->workers_lock);
193
194 done:
195   return wrk;
196 }
197
198 int
199 vcl_worker_register_with_vpp (void)
200 {
201   vcl_worker_t *wrk = vcl_worker_get_current ();
202
203   clib_spinlock_lock (&vcm->workers_lock);
204
205   if (vcl_api_app_worker_add ())
206     {
207       VDBG (0, "failed to add worker to vpp");
208       clib_spinlock_unlock (&vcm->workers_lock);
209       return -1;
210     }
211   if (pthread_key_create (&vcl_worker_stop_key, vcl_worker_cleanup_cb))
212     VDBG (0, "failed to add pthread cleanup function");
213   if (pthread_setspecific (vcl_worker_stop_key, &wrk->thread_id))
214     VDBG (0, "failed to setup key value");
215
216   clib_spinlock_unlock (&vcm->workers_lock);
217
218   VDBG (0, "added worker %u", wrk->wrk_index);
219   return 0;
220 }
221
222 svm_msg_q_t *
223 vcl_worker_ctrl_mq (vcl_worker_t * wrk)
224 {
225   return wrk->ctrl_mq;
226 }
227
228 int
229 vcl_session_read_ready (vcl_session_t * s)
230 {
231   if (PREDICT_FALSE (s->flags & VCL_SESSION_F_IS_VEP))
232     {
233       VDBG (0, "ERROR: session %u: cannot read from an epoll session!",
234             s->session_index);
235       return VPPCOM_EBADFD;
236     }
237
238   if (vcl_session_is_open (s))
239     {
240       if (vcl_session_is_ct (s))
241         return svm_fifo_max_dequeue_cons (s->ct_rx_fifo);
242
243       if (s->is_dgram)
244         {
245           session_dgram_pre_hdr_t ph;
246           u32 max_deq;
247
248           max_deq = svm_fifo_max_dequeue_cons (s->rx_fifo);
249           if (max_deq <= SESSION_CONN_HDR_LEN)
250             return 0;
251           if (svm_fifo_peek (s->rx_fifo, 0, sizeof (ph), (u8 *) & ph) < 0)
252             return 0;
253           if (ph.data_length + SESSION_CONN_HDR_LEN > max_deq)
254             return 0;
255
256           return ph.data_length;
257         }
258
259       return svm_fifo_max_dequeue_cons (s->rx_fifo);
260     }
261   else if (s->session_state == VCL_STATE_LISTEN)
262     {
263       return clib_fifo_elts (s->accept_evts_fifo);
264     }
265   else
266     {
267       return (s->session_state == VCL_STATE_DISCONNECT) ?
268         VPPCOM_ECONNRESET : VPPCOM_ENOTCONN;
269     }
270 }
271
272 int
273 vcl_session_write_ready (vcl_session_t * s)
274 {
275   if (PREDICT_FALSE (s->flags & VCL_SESSION_F_IS_VEP))
276     {
277       VDBG (0, "session %u [0x%llx]: cannot write to an epoll session!",
278             s->session_index, s->vpp_handle);
279       return VPPCOM_EBADFD;
280     }
281
282   if (vcl_session_is_open (s))
283     {
284       if (vcl_session_is_ct (s))
285         return svm_fifo_max_enqueue_prod (s->ct_tx_fifo);
286
287       if (s->is_dgram)
288         {
289           u32 max_enq = svm_fifo_max_enqueue_prod (s->tx_fifo);
290
291           if (max_enq <= sizeof (session_dgram_hdr_t))
292             return 0;
293           return max_enq - sizeof (session_dgram_hdr_t);
294         }
295
296       return svm_fifo_max_enqueue_prod (s->tx_fifo);
297     }
298   else if (s->session_state == VCL_STATE_LISTEN)
299     {
300       if (s->tx_fifo)
301         return svm_fifo_max_enqueue_prod (s->tx_fifo);
302       else
303         return VPPCOM_EBADFD;
304     }
305   else
306     {
307       return (s->session_state == VCL_STATE_DISCONNECT) ?
308         VPPCOM_ECONNRESET : VPPCOM_ENOTCONN;
309     }
310 }
311
312 int
313 vcl_segment_attach (u64 segment_handle, char *name, ssvm_segment_type_t type,
314                     int fd)
315 {
316   fifo_segment_create_args_t _a, *a = &_a;
317   int rv;
318
319   memset (a, 0, sizeof (*a));
320   a->segment_name = name;
321   a->segment_type = type;
322
323   if (type == SSVM_SEGMENT_MEMFD)
324     a->memfd_fd = fd;
325
326   clib_rwlock_writer_lock (&vcm->segment_table_lock);
327
328   if ((rv = fifo_segment_attach (&vcm->segment_main, a)))
329     {
330       clib_warning ("svm_fifo_segment_attach ('%s') failed", name);
331       return rv;
332     }
333   hash_set (vcm->segment_table, segment_handle, a->new_segment_indices[0]);
334
335   clib_rwlock_writer_unlock (&vcm->segment_table_lock);
336
337   vec_reset_length (a->new_segment_indices);
338   return 0;
339 }
340
341 u32
342 vcl_segment_table_lookup (u64 segment_handle)
343 {
344   uword *seg_indexp;
345
346   clib_rwlock_reader_lock (&vcm->segment_table_lock);
347   seg_indexp = hash_get (vcm->segment_table, segment_handle);
348   clib_rwlock_reader_unlock (&vcm->segment_table_lock);
349
350   if (!seg_indexp)
351     return VCL_INVALID_SEGMENT_INDEX;
352   return ((u32) * seg_indexp);
353 }
354
355 void
356 vcl_segment_detach (u64 segment_handle)
357 {
358   fifo_segment_main_t *sm = &vcm->segment_main;
359   fifo_segment_t *segment;
360   u32 segment_index;
361
362   segment_index = vcl_segment_table_lookup (segment_handle);
363   if (segment_index == (u32) ~ 0)
364     return;
365
366   clib_rwlock_writer_lock (&vcm->segment_table_lock);
367
368   segment = fifo_segment_get_segment (sm, segment_index);
369   fifo_segment_delete (sm, segment);
370   hash_unset (vcm->segment_table, segment_handle);
371
372   clib_rwlock_writer_unlock (&vcm->segment_table_lock);
373
374   VDBG (0, "detached segment %u handle %u", segment_index, segment_handle);
375 }
376
377 int
378 vcl_segment_attach_session (uword segment_handle, uword rxf_offset,
379                             uword txf_offset, uword mq_offset, u8 is_ct,
380                             vcl_session_t *s)
381 {
382   svm_fifo_shared_t *rxsf, *txsf;
383   u32 fs_index, eqs_index;
384   svm_fifo_t *rxf, *txf;
385   fifo_segment_t *fs;
386   u64 eqs_handle;
387
388   fs_index = vcl_segment_table_lookup (segment_handle);
389   if (fs_index == VCL_INVALID_SEGMENT_INDEX)
390     {
391       VDBG (0, "ERROR: segment for session %u is not mounted!",
392             s->session_index);
393       return -1;
394     }
395
396   if (mq_offset != (uword) ~0)
397     {
398       eqs_handle = vcl_vpp_worker_segment_handle (0);
399       eqs_index = vcl_segment_table_lookup (eqs_handle);
400       ASSERT (eqs_index != VCL_INVALID_SEGMENT_INDEX);
401     }
402
403   rxsf = uword_to_pointer (rxf_offset, svm_fifo_shared_t *);
404   txsf = uword_to_pointer (txf_offset, svm_fifo_shared_t *);
405
406   clib_rwlock_reader_lock (&vcm->segment_table_lock);
407
408   fs = fifo_segment_get_segment (&vcm->segment_main, fs_index);
409   rxf = fifo_segment_alloc_fifo_w_shared (fs, rxsf);
410   txf = fifo_segment_alloc_fifo_w_shared (fs, txsf);
411
412   if (!is_ct && mq_offset != (uword) ~0)
413     {
414       fs = fifo_segment_get_segment (&vcm->segment_main, eqs_index);
415       s->vpp_evt_q =
416         fifo_segment_msg_q_attach (fs, mq_offset, rxf->shr->slice_index);
417     }
418
419   clib_rwlock_reader_unlock (&vcm->segment_table_lock);
420
421   if (!is_ct)
422     {
423       rxsf->client_session_index = s->session_index;
424       txsf->client_session_index = s->session_index;
425       rxf->client_thread_index = vcl_get_worker_index ();
426       txf->client_thread_index = vcl_get_worker_index ();
427       s->rx_fifo = rxf;
428       s->tx_fifo = txf;
429     }
430   else
431     {
432       s->ct_rx_fifo = rxf;
433       s->ct_tx_fifo = txf;
434     }
435
436   return 0;
437 }
438
439 int
440 vcl_segment_attach_mq (uword segment_handle, uword mq_offset, u32 mq_index,
441                        svm_msg_q_t **mq)
442 {
443   fifo_segment_t *fs;
444   u32 fs_index;
445
446   fs_index = vcl_segment_table_lookup (segment_handle);
447   if (fs_index == VCL_INVALID_SEGMENT_INDEX)
448     {
449       VDBG (0, "ERROR: mq segment %lx for is not attached!", segment_handle);
450       return -1;
451     }
452
453   clib_rwlock_reader_lock (&vcm->segment_table_lock);
454
455   fs = fifo_segment_get_segment (&vcm->segment_main, fs_index);
456   *mq = fifo_segment_msg_q_attach (fs, mq_offset, mq_index);
457
458   clib_rwlock_reader_unlock (&vcm->segment_table_lock);
459
460   return 0;
461 }
462
463 /*
464  * fd.io coding-style-patch-verification: ON
465  *
466  * Local Variables:
467  * eval: (c-set-style "gnu")
468  * End:
469  */