vcl session: extended connect/listen configuration
[vpp.git] / src / vcl / vcl_private.c
index 0b8c2da..721416b 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2018 Cisco and/or its affiliates.
+ * Copyright (c) 2018-2019 Cisco and/or its affiliates.
  * Licensed under the Apache License, Version 2.0 (the "License");
  * you may not use this
  * You may obtain a copy of the License at:
 
 static pthread_key_t vcl_worker_stop_key;
 
-static const char *
-vppcom_app_state_str (app_state_t state)
-{
-  char *st;
-
-  switch (state)
-    {
-    case STATE_APP_START:
-      st = "STATE_APP_START";
-      break;
-
-    case STATE_APP_CONN_VPP:
-      st = "STATE_APP_CONN_VPP";
-      break;
-
-    case STATE_APP_ENABLED:
-      st = "STATE_APP_ENABLED";
-      break;
-
-    case STATE_APP_ATTACHED:
-      st = "STATE_APP_ATTACHED";
-      break;
-
-    default:
-      st = "UNKNOWN_APP_STATE";
-      break;
-    }
-
-  return st;
-}
-
-int
-vcl_wait_for_app_state_change (app_state_t app_state)
-{
-  vcl_worker_t *wrk = vcl_worker_get_current ();
-  f64 timeout = clib_time_now (&wrk->clib_time) + vcm->cfg.app_timeout;
-
-  while (clib_time_now (&wrk->clib_time) < timeout)
-    {
-      if (vcm->app_state == app_state)
-       return VPPCOM_OK;
-      if (vcm->app_state == STATE_APP_FAILED)
-       return VPPCOM_ECONNABORTED;
-    }
-  VDBG (0, "VCL<%d>: timeout waiting for state %s (%d)", getpid (),
-       vppcom_app_state_str (app_state), app_state);
-  vcl_evt (VCL_EVT_SESSION_TIMEOUT, vcm, app_state);
-
-  return VPPCOM_ETIMEDOUT;
-}
-
-vcl_cut_through_registration_t *
-vcl_ct_registration_lock_and_alloc (vcl_worker_t * wrk)
-{
-  vcl_cut_through_registration_t *cr;
-  clib_spinlock_lock (&wrk->ct_registration_lock);
-  pool_get (wrk->cut_through_registrations, cr);
-  memset (cr, 0, sizeof (*cr));
-  cr->epoll_evt_conn_index = -1;
-  return cr;
-}
-
-u32
-vcl_ct_registration_index (vcl_worker_t * wrk,
-                          vcl_cut_through_registration_t * ctr)
-{
-  return (ctr - wrk->cut_through_registrations);
-}
-
-void
-vcl_ct_registration_lock (vcl_worker_t * wrk)
-{
-  clib_spinlock_lock (&wrk->ct_registration_lock);
-}
-
-void
-vcl_ct_registration_unlock (vcl_worker_t * wrk)
-{
-  clib_spinlock_unlock (&wrk->ct_registration_lock);
-}
-
-vcl_cut_through_registration_t *
-vcl_ct_registration_get (vcl_worker_t * wrk, u32 ctr_index)
-{
-  if (pool_is_free_index (wrk->cut_through_registrations, ctr_index))
-    return 0;
-  return pool_elt_at_index (wrk->cut_through_registrations, ctr_index);
-}
-
-vcl_cut_through_registration_t *
-vcl_ct_registration_lock_and_lookup (vcl_worker_t * wrk, uword mq_addr)
-{
-  uword *p;
-  clib_spinlock_lock (&wrk->ct_registration_lock);
-  p = hash_get (wrk->ct_registration_by_mq, mq_addr);
-  if (!p)
-    return 0;
-  return vcl_ct_registration_get (wrk, p[0]);
-}
-
-void
-vcl_ct_registration_lookup_add (vcl_worker_t * wrk, uword mq_addr,
-                               u32 ctr_index)
-{
-  hash_set (wrk->ct_registration_by_mq, mq_addr, ctr_index);
-}
-
-void
-vcl_ct_registration_lookup_del (vcl_worker_t * wrk, uword mq_addr)
-{
-  hash_unset (wrk->ct_registration_by_mq, mq_addr);
-}
-
-void
-vcl_ct_registration_del (vcl_worker_t * wrk,
-                        vcl_cut_through_registration_t * ctr)
-{
-  pool_put (wrk->cut_through_registrations, ctr);
-}
-
 vcl_mq_evt_conn_t *
 vcl_mq_evt_conn_alloc (vcl_worker_t * wrk)
 {
@@ -166,7 +46,7 @@ vcl_mq_epoll_add_evfd (vcl_worker_t * wrk, svm_msg_q_t * mq)
   u32 mqc_index;
   int mq_fd;
 
-  mq_fd = svm_msg_q_get_consumer_eventfd (mq);
+  mq_fd = svm_msg_q_get_eventfd (mq);
 
   if (wrk->mqs_epfd < 0 || mq_fd == -1)
     return -1;
@@ -180,7 +60,7 @@ vcl_mq_epoll_add_evfd (vcl_worker_t * wrk, svm_msg_q_t * mq)
   e.data.u32 = mqc_index;
   if (epoll_ctl (wrk->mqs_epfd, EPOLL_CTL_ADD, mq_fd, &e) < 0)
     {
-      clib_warning ("failed to add mq eventfd to mq epoll fd");
+      VDBG (0, "failed to add mq eventfd to mq epoll fd");
       return -1;
     }
 
@@ -198,7 +78,7 @@ vcl_mq_epoll_del_evfd (vcl_worker_t * wrk, u32 mqc_index)
   mqc = vcl_mq_evt_conn_get (wrk, mqc_index);
   if (epoll_ctl (wrk->mqs_epfd, EPOLL_CTL_DEL, mqc->mq_fd, 0) < 0)
     {
-      clib_warning ("failed to del mq eventfd to mq epoll fd");
+      VDBG (0, "failed to del mq eventfd to mq epoll fd");
       return -1;
     }
   return 0;
@@ -211,6 +91,7 @@ vcl_worker_alloc (void)
   pool_get (vcm->workers, wrk);
   memset (wrk, 0, sizeof (*wrk));
   wrk->wrk_index = wrk - vcm->workers;
+  wrk->forked_child = ~0;
   return wrk;
 }
 
@@ -220,21 +101,54 @@ vcl_worker_free (vcl_worker_t * wrk)
   pool_put (vcm->workers, wrk);
 }
 
-static void
-vcl_worker_cleanup (void *arg)
+int
+vcl_api_app_worker_add (void)
 {
-  vcl_worker_t *wrk = vcl_worker_get_current ();
+  if (vcm->cfg.vpp_app_socket_api)
+    return vcl_sapi_app_worker_add ();
 
-  VDBG (0, "cleaning up worker %u", wrk->wrk_index);
-  vcl_send_app_worker_add_del (0 /* is_add */ );
-  close (wrk->mqs_epfd);
+  return vcl_bapi_app_worker_add ();
+}
+
+void
+vcl_api_app_worker_del (vcl_worker_t * wrk)
+{
+  if (vcm->cfg.vpp_app_socket_api)
+    return vcl_sapi_app_worker_del (wrk);
+
+  vcl_bapi_app_worker_del (wrk);
+}
+
+void
+vcl_worker_cleanup (vcl_worker_t * wrk, u8 notify_vpp)
+{
+  clib_spinlock_lock (&vcm->workers_lock);
+  if (notify_vpp)
+    vcl_api_app_worker_del (wrk);
+
+  if (wrk->mqs_epfd > 0)
+    close (wrk->mqs_epfd);
   hash_free (wrk->session_index_by_vpp_handles);
-  hash_free (wrk->ct_registration_by_mq);
-  clib_spinlock_free (&wrk->ct_registration_lock);
   vec_free (wrk->mq_events);
   vec_free (wrk->mq_msg_vector);
-  vcl_set_worker_index (~0);
   vcl_worker_free (wrk);
+  clib_spinlock_unlock (&vcm->workers_lock);
+}
+
+static void
+vcl_worker_cleanup_cb (void *arg)
+{
+  vcl_worker_t *wrk;
+  u32 wrk_index;
+
+  wrk_index = vcl_get_worker_index ();
+  wrk = vcl_worker_get_if_valid (wrk_index);
+  if (!wrk)
+    return;
+
+  vcl_worker_cleanup (wrk, 1 /* notify vpp */ );
+  vcl_set_worker_index (~0);
+  VDBG (0, "cleaned up worker %u", wrk_index);
 }
 
 vcl_worker_t *
@@ -246,6 +160,9 @@ vcl_worker_alloc_and_init ()
   if (vcl_get_worker_index () != ~0)
     return 0;
 
+  /* Use separate heap map entry for worker */
+  clib_mem_set_thread_index ();
+
   if (pool_elts (vcm->workers) == vcm->cfg.max_workers)
     {
       VDBG (0, "max-workers %u limit reached", vcm->cfg.max_workers);
@@ -255,51 +172,377 @@ vcl_worker_alloc_and_init ()
   clib_spinlock_lock (&vcm->workers_lock);
   wrk = vcl_worker_alloc ();
   vcl_set_worker_index (wrk->wrk_index);
+  wrk->thread_id = pthread_self ();
+  wrk->current_pid = getpid ();
 
   wrk->mqs_epfd = -1;
   if (vcm->cfg.use_mq_eventfd)
     {
+      wrk->vcl_needs_real_epoll = 1;
       wrk->mqs_epfd = epoll_create (1);
+      wrk->vcl_needs_real_epoll = 0;
       if (wrk->mqs_epfd < 0)
        {
          clib_unix_warning ("epoll_create() returned");
-         return 0;
+         goto done;
        }
     }
 
   wrk->session_index_by_vpp_handles = hash_create (0, sizeof (uword));
-  wrk->ct_registration_by_mq = hash_create (0, sizeof (uword));
-  clib_spinlock_init (&wrk->ct_registration_lock);
   clib_time_init (&wrk->clib_time);
   vec_validate (wrk->mq_events, 64);
   vec_validate (wrk->mq_msg_vector, 128);
   vec_reset_length (wrk->mq_msg_vector);
+  vec_validate (wrk->unhandled_evts_vector, 128);
+  vec_reset_length (wrk->unhandled_evts_vector);
+  clib_spinlock_unlock (&vcm->workers_lock);
+
+done:
+  return wrk;
+}
+
+int
+vcl_worker_register_with_vpp (void)
+{
+  vcl_worker_t *wrk = vcl_worker_get_current ();
+
+  clib_spinlock_lock (&vcm->workers_lock);
 
-  if (wrk->wrk_index == 0)
+  if (vcl_api_app_worker_add ())
     {
+      VDBG (0, "failed to add worker to vpp");
       clib_spinlock_unlock (&vcm->workers_lock);
-      return wrk;
+      return -1;
+    }
+  if (pthread_key_create (&vcl_worker_stop_key, vcl_worker_cleanup_cb))
+    VDBG (0, "failed to add pthread cleanup function");
+  if (pthread_setspecific (vcl_worker_stop_key, &wrk->thread_id))
+    VDBG (0, "failed to setup key value");
+
+  clib_spinlock_unlock (&vcm->workers_lock);
+
+  VDBG (0, "added worker %u", wrk->wrk_index);
+  return 0;
+}
+
+svm_msg_q_t *
+vcl_worker_ctrl_mq (vcl_worker_t * wrk)
+{
+  return wrk->ctrl_mq;
+}
+
+int
+vcl_session_read_ready (vcl_session_t * s)
+{
+  if (PREDICT_FALSE (s->flags & VCL_SESSION_F_IS_VEP))
+    {
+      VDBG (0, "ERROR: session %u: cannot read from an epoll session!",
+           s->session_index);
+      return VPPCOM_EBADFD;
+    }
+
+  if (vcl_session_is_open (s))
+    {
+      if (vcl_session_is_ct (s))
+       return svm_fifo_max_dequeue_cons (s->ct_rx_fifo);
+
+      if (s->is_dgram)
+       {
+         session_dgram_pre_hdr_t ph;
+         u32 max_deq;
+
+         max_deq = svm_fifo_max_dequeue_cons (s->rx_fifo);
+         if (max_deq <= SESSION_CONN_HDR_LEN)
+           return 0;
+         if (svm_fifo_peek (s->rx_fifo, 0, sizeof (ph), (u8 *) & ph) < 0)
+           return 0;
+         if (ph.data_length + SESSION_CONN_HDR_LEN > max_deq)
+           return 0;
+
+         return ph.data_length;
+       }
+
+      return svm_fifo_max_dequeue_cons (s->rx_fifo);
+    }
+  else if (s->session_state == VCL_STATE_LISTEN)
+    {
+      return clib_fifo_elts (s->accept_evts_fifo);
+    }
+  else
+    {
+      return (s->session_state == VCL_STATE_DISCONNECT) ?
+       VPPCOM_ECONNRESET : VPPCOM_ENOTCONN;
+    }
+}
+
+int
+vcl_session_write_ready (vcl_session_t * s)
+{
+  if (PREDICT_FALSE (s->flags & VCL_SESSION_F_IS_VEP))
+    {
+      VDBG (0, "session %u [0x%llx]: cannot write to an epoll session!",
+           s->session_index, s->vpp_handle);
+      return VPPCOM_EBADFD;
+    }
+
+  if (vcl_session_is_open (s))
+    {
+      if (vcl_session_is_ct (s))
+       return svm_fifo_max_enqueue_prod (s->ct_tx_fifo);
+
+      if (s->is_dgram)
+       {
+         u32 max_enq = svm_fifo_max_enqueue_prod (s->tx_fifo);
+
+         if (max_enq <= sizeof (session_dgram_hdr_t))
+           return 0;
+         return max_enq - sizeof (session_dgram_hdr_t);
+       }
+
+      return svm_fifo_max_enqueue_prod (s->tx_fifo);
     }
+  else if (s->session_state == VCL_STATE_LISTEN)
+    {
+      if (s->tx_fifo)
+       return svm_fifo_max_enqueue_prod (s->tx_fifo);
+      else
+       return VPPCOM_EBADFD;
+    }
+  else
+    {
+      return (s->session_state == VCL_STATE_DISCONNECT) ?
+       VPPCOM_ECONNRESET : VPPCOM_ENOTCONN;
+    }
+}
+
+int
+vcl_segment_attach (u64 segment_handle, char *name, ssvm_segment_type_t type,
+                   int fd)
+{
+  fifo_segment_create_args_t _a, *a = &_a;
+  int rv;
 
-  vcm->app_state = STATE_APP_ADDING_WORKER;
-  vcl_send_app_worker_add_del (1 /* is_add */ );
-  if (vcl_wait_for_app_state_change (STATE_APP_READY))
+  memset (a, 0, sizeof (*a));
+  a->segment_name = name;
+  a->segment_type = type;
+
+  if (type == SSVM_SEGMENT_MEMFD)
+    a->memfd_fd = fd;
+
+  clib_rwlock_writer_lock (&vcm->segment_table_lock);
+
+  if ((rv = fifo_segment_attach (&vcm->segment_main, a)))
     {
-      clib_warning ("failed to add worker to vpp");
+      clib_warning ("svm_fifo_segment_attach ('%s') failed", name);
+      return rv;
+    }
+  hash_set (vcm->segment_table, segment_handle, a->new_segment_indices[0]);
+
+  clib_rwlock_writer_unlock (&vcm->segment_table_lock);
+
+  vec_free (a->new_segment_indices);
+  return 0;
+}
+
+u32
+vcl_segment_table_lookup (u64 segment_handle)
+{
+  uword *seg_indexp;
+
+  clib_rwlock_reader_lock (&vcm->segment_table_lock);
+  seg_indexp = hash_get (vcm->segment_table, segment_handle);
+  clib_rwlock_reader_unlock (&vcm->segment_table_lock);
+
+  if (!seg_indexp)
+    return VCL_INVALID_SEGMENT_INDEX;
+  return ((u32) * seg_indexp);
+}
+
+void
+vcl_segment_detach (u64 segment_handle)
+{
+  fifo_segment_main_t *sm = &vcm->segment_main;
+  fifo_segment_t *segment;
+  u32 segment_index;
+
+  segment_index = vcl_segment_table_lookup (segment_handle);
+  if (segment_index == (u32) ~ 0)
+    return;
+
+  clib_rwlock_writer_lock (&vcm->segment_table_lock);
+
+  segment = fifo_segment_get_segment (sm, segment_index);
+  fifo_segment_delete (sm, segment);
+  hash_unset (vcm->segment_table, segment_handle);
+
+  clib_rwlock_writer_unlock (&vcm->segment_table_lock);
+
+  VDBG (0, "detached segment %u handle %u", segment_index, segment_handle);
+}
+
+int
+vcl_segment_attach_session (uword segment_handle, uword rxf_offset,
+                           uword txf_offset, uword mq_offset, u8 is_ct,
+                           vcl_session_t *s)
+{
+  u32 fs_index, eqs_index;
+  svm_fifo_t *rxf, *txf;
+  fifo_segment_t *fs;
+  u64 eqs_handle;
+
+  fs_index = vcl_segment_table_lookup (segment_handle);
+  if (fs_index == VCL_INVALID_SEGMENT_INDEX)
+    {
+      VDBG (0, "ERROR: segment for session %u is not mounted!",
+           s->session_index);
+      return -1;
+    }
+
+  if (!is_ct && mq_offset != (uword) ~0)
+    {
+      eqs_handle = vcl_vpp_worker_segment_handle (0);
+      eqs_index = vcl_segment_table_lookup (eqs_handle);
+      ASSERT (eqs_index != VCL_INVALID_SEGMENT_INDEX);
+    }
+
+  clib_rwlock_reader_lock (&vcm->segment_table_lock);
+
+  fs = fifo_segment_get_segment (&vcm->segment_main, fs_index);
+  rxf = fifo_segment_alloc_fifo_w_offset (fs, rxf_offset);
+  txf = fifo_segment_alloc_fifo_w_offset (fs, txf_offset);
+  rxf->segment_index = fs_index;
+  txf->segment_index = fs_index;
+
+  if (!is_ct && mq_offset != (uword) ~0)
+    {
+      fs = fifo_segment_get_segment (&vcm->segment_main, eqs_index);
+      s->vpp_evt_q =
+       fifo_segment_msg_q_attach (fs, mq_offset, rxf->shr->slice_index);
+    }
+
+  clib_rwlock_reader_unlock (&vcm->segment_table_lock);
+
+  if (!is_ct)
+    {
+      rxf->shr->client_session_index = s->session_index;
+      txf->shr->client_session_index = s->session_index;
+      rxf->client_thread_index = vcl_get_worker_index ();
+      txf->client_thread_index = vcl_get_worker_index ();
+      s->rx_fifo = rxf;
+      s->tx_fifo = txf;
+    }
+  else
+    {
+      s->ct_rx_fifo = rxf;
+      s->ct_tx_fifo = txf;
+    }
+
+  return 0;
+}
+
+void
+vcl_session_detach_fifos (vcl_session_t *s)
+{
+  fifo_segment_t *fs;
+
+  if (!s->rx_fifo)
+    return;
+
+  clib_rwlock_reader_lock (&vcm->segment_table_lock);
+
+  fs = fifo_segment_get_segment_if_valid (&vcm->segment_main,
+                                         s->rx_fifo->segment_index);
+  if (!fs)
+    goto done;
+
+  fifo_segment_free_client_fifo (fs, s->rx_fifo);
+  fifo_segment_free_client_fifo (fs, s->tx_fifo);
+  if (s->ct_rx_fifo)
+    {
+      fs = fifo_segment_get_segment_if_valid (&vcm->segment_main,
+                                             s->ct_rx_fifo->segment_index);
+      if (!fs)
+       goto done;
+
+      fifo_segment_free_client_fifo (fs, s->ct_rx_fifo);
+      fifo_segment_free_client_fifo (fs, s->ct_tx_fifo);
+    }
+
+done:
+  clib_rwlock_reader_unlock (&vcm->segment_table_lock);
+}
+
+int
+vcl_segment_attach_mq (uword segment_handle, uword mq_offset, u32 mq_index,
+                      svm_msg_q_t **mq)
+{
+  fifo_segment_t *fs;
+  u32 fs_index;
+
+  fs_index = vcl_segment_table_lookup (segment_handle);
+  if (fs_index == VCL_INVALID_SEGMENT_INDEX)
+    {
+      VDBG (0, "ERROR: mq segment %lx for is not attached!", segment_handle);
+      return -1;
+    }
+
+  clib_rwlock_reader_lock (&vcm->segment_table_lock);
+
+  fs = fifo_segment_get_segment (&vcm->segment_main, fs_index);
+  *mq = fifo_segment_msg_q_attach (fs, mq_offset, mq_index);
+
+  clib_rwlock_reader_unlock (&vcm->segment_table_lock);
+
+  return 0;
+}
+
+int
+vcl_segment_discover_mqs (uword segment_handle, int *fds, u32 n_fds)
+{
+  fifo_segment_t *fs;
+  u32 fs_index;
+
+  fs_index = vcl_segment_table_lookup (segment_handle);
+  if (fs_index == VCL_INVALID_SEGMENT_INDEX)
+    {
+      VDBG (0, "ERROR: mq segment %lx for is not attached!", segment_handle);
+      return -1;
+    }
+
+  clib_rwlock_reader_lock (&vcm->segment_table_lock);
+
+  fs = fifo_segment_get_segment (&vcm->segment_main, fs_index);
+  fifo_segment_msg_qs_discover (fs, fds, n_fds);
+
+  clib_rwlock_reader_unlock (&vcm->segment_table_lock);
+
+  return 0;
+}
+
+svm_fifo_chunk_t *
+vcl_segment_alloc_chunk (uword segment_handle, u32 slice_index, u32 size,
+                        uword *offset)
+{
+  svm_fifo_chunk_t *c;
+  fifo_segment_t *fs;
+  u32 fs_index;
+
+  fs_index = vcl_segment_table_lookup (segment_handle);
+  if (fs_index == VCL_INVALID_SEGMENT_INDEX)
+    {
+      VDBG (0, "ERROR: mq segment %lx for is not attached!", segment_handle);
       return 0;
     }
 
-  if (pthread_key_create (&vcl_worker_stop_key, vcl_worker_cleanup))
-    clib_warning ("failed to add pthread cleanup function");
-  if (pthread_setspecific (vcl_worker_stop_key, &wrk->thread_id))
-    clib_warning ("failed to setup key value");
-  wrk->thread_id = pthread_self ();
+  clib_rwlock_reader_lock (&vcm->segment_table_lock);
 
-  clib_spinlock_unlock (&vcm->workers_lock);
+  fs = fifo_segment_get_segment (&vcm->segment_main, fs_index);
+  c = fifo_segment_alloc_chunk_w_slice (fs, slice_index, size);
+  *offset = fifo_segment_chunk_offset (fs, c);
 
-  VDBG (0, "added worker %u", wrk->wrk_index);
+  clib_rwlock_reader_unlock (&vcm->segment_table_lock);
 
-  return wrk;
+  return c;
 }
 
 /*