37028d8223ecb7c6ef527f19927d828f3e2c3dc0
[vpp.git] / src / plugins / memif / memif.c
1 /*
2  *------------------------------------------------------------------
3  * Copyright (c) 2017 Cisco and/or its affiliates.
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  *------------------------------------------------------------------
16  */
17
18
19 #define _GNU_SOURCE
20 #include <stdint.h>
21 #include <net/if.h>
22 #include <sys/types.h>
23 #include <fcntl.h>
24 #include <sys/ioctl.h>
25 #include <sys/socket.h>
26 #include <sys/un.h>
27 #include <sys/uio.h>
28 #include <sys/mman.h>
29 #include <sys/prctl.h>
30 #include <sys/eventfd.h>
31 #include <inttypes.h>
32 #include <limits.h>
33
34 #include <vlib/vlib.h>
35 #include <vlib/unix/unix.h>
36 #include <vnet/plugin/plugin.h>
37 #include <vnet/ethernet/ethernet.h>
38 #include <vnet/interface/rx_queue_funcs.h>
39 #include <vnet/interface/tx_queue_funcs.h>
40 #include <vpp/app/version.h>
41 #include <memif/memif.h>
42 #include <memif/private.h>
43
44 memif_main_t memif_main;
45
46 static u32
47 memif_eth_flag_change (vnet_main_t * vnm, vnet_hw_interface_t * hi, u32 flags)
48 {
49   /* nothing for now */
50   return 0;
51 }
52
53 static clib_error_t *
54 memif_eth_set_max_frame_size (vnet_main_t *vnm, vnet_hw_interface_t *hi,
55                               u32 flags)
56 {
57   /* nothing for now */
58   return 0;
59 }
60
61 static void
62 memif_queue_intfd_close (memif_queue_t * mq)
63 {
64   if (mq->int_clib_file_index != ~0)
65     {
66       memif_file_del_by_index (mq->int_clib_file_index);
67       mq->int_clib_file_index = ~0;
68       mq->int_fd = -1;
69     }
70   else if (mq->int_fd > -1)
71     {
72       close (mq->int_fd);
73       mq->int_fd = -1;
74     }
75 }
76
77 static void
78 memif_disconnect_free_zc_queue_buffer (memif_queue_t * mq, u8 is_rx)
79 {
80   vlib_main_t *vm = vlib_get_main ();
81   u16 ring_size, n_slots, mask, start;
82
83   ring_size = 1 << mq->log2_ring_size;
84   mask = ring_size - 1;
85   n_slots = mq->ring->head - mq->last_tail;
86   start = mq->last_tail & mask;
87   if (is_rx)
88     vlib_buffer_free_from_ring (vm, mq->buffers, start, ring_size, n_slots);
89   else
90     vlib_buffer_free_from_ring_no_next (vm, mq->buffers, start, ring_size,
91                                         n_slots);
92   vec_free (mq->buffers);
93 }
94
95 void
96 memif_disconnect (memif_if_t * mif, clib_error_t * err)
97 {
98   memif_main_t *mm = &memif_main;
99   vnet_main_t *vnm = vnet_get_main ();
100   memif_region_t *mr;
101   memif_queue_t *mq;
102   int i;
103
104   if (mif == 0)
105     return;
106
107   memif_log_debug (mif, "disconnect %u (%v)", mif->dev_instance,
108                    err ? err->what : 0);
109
110   if (err)
111     {
112       clib_error_t *e = 0;
113       mif->local_disc_string = vec_dup (err->what);
114       if (mif->sock && clib_socket_is_connected (mif->sock))
115         e = memif_msg_send_disconnect (mif, err);
116       clib_error_free (e);
117     }
118
119   /* set interface down */
120   mif->flags &= ~(MEMIF_IF_FLAG_CONNECTED | MEMIF_IF_FLAG_CONNECTING);
121   if (mif->hw_if_index != ~0)
122     vnet_hw_interface_set_flags (vnm, mif->hw_if_index, 0);
123
124   /* close connection socket */
125   if (mif->sock && mif->sock->fd)
126     {
127       memif_socket_file_t *msf = vec_elt_at_index (mm->socket_files,
128                                                    mif->socket_file_index);
129       hash_unset (msf->dev_instance_by_fd, mif->sock->fd);
130       memif_socket_close (&mif->sock);
131     }
132   else if (mif->sock)
133     {
134       clib_error_t *err;
135       err = clib_socket_close (mif->sock);
136       if (err)
137         {
138           memif_log_err (mif, "%U", format_clib_error, err);
139           clib_error_free (err);
140         }
141       clib_mem_free (mif->sock);
142     }
143
144   /* *INDENT-OFF* */
145   vec_foreach_index (i, mif->rx_queues)
146     {
147       mq = vec_elt_at_index (mif->rx_queues, i);
148       if (mq->ring)
149         {
150           if (mif->flags & MEMIF_IF_FLAG_ZERO_COPY)
151           {
152             memif_disconnect_free_zc_queue_buffer(mq, 1);
153           }
154           mq->ring = 0;
155         }
156     }
157   vnet_hw_if_unregister_all_rx_queues (vnm, mif->hw_if_index);
158
159   /* *INDENT-OFF* */
160   vec_foreach_index (i, mif->tx_queues)
161   {
162     mq = vec_elt_at_index (mif->tx_queues, i);
163     if (mq->ring)
164     {
165       if (mif->flags & MEMIF_IF_FLAG_ZERO_COPY)
166       {
167         memif_disconnect_free_zc_queue_buffer(mq, 0);
168       }
169       clib_spinlock_free (&mq->lockp);
170     }
171     mq->ring = 0;
172   }
173   vnet_hw_if_unregister_all_tx_queues (vnm, mif->hw_if_index);
174   vnet_hw_if_update_runtime_data (vnm, mif->hw_if_index);
175
176   /* free tx and rx queues */
177   vec_foreach (mq, mif->rx_queues)
178     memif_queue_intfd_close (mq);
179   vec_free (mif->rx_queues);
180
181   vec_foreach (mq, mif->tx_queues)
182     memif_queue_intfd_close (mq);
183   vec_free (mif->tx_queues);
184
185   /* free memory regions */
186   vec_foreach (mr, mif->regions)
187     {
188       int rv;
189       if (mr->is_external)
190         continue;
191       if ((rv = munmap (mr->shm, mr->region_size)))
192         memif_log_err (mif, "munmap failed, rv = %d", rv);
193       if (mr->fd > -1)
194         close (mr->fd);
195     }
196   /* *INDENT-ON* */
197   vec_free (mif->regions);
198   vec_free (mif->remote_name);
199   vec_free (mif->remote_if_name);
200   clib_fifo_free (mif->msg_queue);
201 }
202
203 static clib_error_t *
204 memif_int_fd_write_ready (clib_file_t * uf)
205 {
206   memif_main_t *mm = &memif_main;
207   u16 qid = uf->private_data & 0xFFFF;
208   memif_if_t *mif = vec_elt_at_index (mm->interfaces, uf->private_data >> 16);
209
210   memif_log_warn (mif, "unexpected EPOLLOUT on RX for queue %u", qid);
211   return 0;
212 }
213
214 static clib_error_t *
215 memif_int_fd_read_ready (clib_file_t * uf)
216 {
217   memif_main_t *mm = &memif_main;
218   vnet_main_t *vnm = vnet_get_main ();
219   u16 qid = uf->private_data & 0xFFFF;
220   memif_if_t *mif = vec_elt_at_index (mm->interfaces, uf->private_data >> 16);
221   memif_queue_t *mq = vec_elt_at_index (mif->rx_queues, qid);
222   u64 b;
223   ssize_t size;
224
225   size = read (uf->file_descriptor, &b, sizeof (b));
226   if (size < 0)
227     {
228       memif_log_debug (mif, "Failed to read from socket");
229       return 0;
230     }
231
232   vnet_hw_if_rx_queue_set_int_pending (vnm, mq->queue_index);
233   mq->int_count++;
234
235   return 0;
236 }
237
238
239 clib_error_t *
240 memif_connect (memif_if_t * mif)
241 {
242   memif_main_t *mm = &memif_main;
243   vlib_main_t *vm = vlib_get_main ();
244   vnet_main_t *vnm = vnet_get_main ();
245   clib_file_t template = { 0 };
246   memif_region_t *mr;
247   int i, j;
248   u32 n_txqs = 0, n_threads = vlib_get_n_threads ();
249   clib_error_t *err = NULL;
250   u8 max_log2_ring_sz = 0;
251   int with_barrier = 0;
252
253   memif_log_debug (mif, "connect %u", mif->dev_instance);
254
255   vec_free (mif->local_disc_string);
256   vec_free (mif->remote_disc_string);
257
258   /* *INDENT-OFF* */
259   vec_foreach (mr, mif->regions)
260     {
261       if (mr->shm)
262         continue;
263
264       if (mr->fd < 0)
265         {
266           err = clib_error_return (0, "no memory region fd");
267           goto error;
268         }
269
270       if ((mr->shm = mmap (NULL, mr->region_size, PROT_READ | PROT_WRITE,
271                            MAP_SHARED, mr->fd, 0)) == MAP_FAILED)
272         {
273           err = clib_error_return_unix (0, "mmap");
274           goto error;
275         }
276     }
277   /* *INDENT-ON* */
278
279   template.read_function = memif_int_fd_read_ready;
280   template.write_function = memif_int_fd_write_ready;
281
282   with_barrier = 1;
283   if (vlib_worker_thread_barrier_held ())
284     with_barrier = 0;
285
286   if (with_barrier)
287     vlib_worker_thread_barrier_sync (vm);
288
289   /* *INDENT-OFF* */
290   vec_foreach_index (i, mif->tx_queues)
291     {
292       memif_queue_t *mq = vec_elt_at_index (mif->tx_queues, i);
293       max_log2_ring_sz = clib_max (max_log2_ring_sz, mq->log2_ring_size);
294
295       mq->ring = mif->regions[mq->region].shm + mq->offset;
296       if (mq->ring->cookie != MEMIF_COOKIE)
297         {
298           err = clib_error_return (0, "wrong cookie on tx ring %u", i);
299           goto error;
300         }
301       mq->queue_index =
302         vnet_hw_if_register_tx_queue (vnm, mif->hw_if_index, i);
303       clib_spinlock_init (&mq->lockp);
304
305       if (mif->flags & MEMIF_IF_FLAG_USE_DMA)
306         {
307           memif_dma_info_t *dma_info;
308           mq->dma_head = 0;
309           mq->dma_tail = 0;
310           mq->dma_info_head = 0;
311           mq->dma_info_tail = 0;
312           mq->dma_info_size = MEMIF_DMA_INFO_SIZE;
313           vec_validate_aligned (mq->dma_info, MEMIF_DMA_INFO_SIZE,
314                                 CLIB_CACHE_LINE_BYTES);
315
316           vec_foreach (dma_info, mq->dma_info)
317             {
318               vec_validate_aligned (dma_info->data.desc_data,
319                                     pow2_mask (max_log2_ring_sz),
320                                     CLIB_CACHE_LINE_BYTES);
321               vec_validate_aligned (dma_info->data.desc_len,
322                                     pow2_mask (max_log2_ring_sz),
323                                     CLIB_CACHE_LINE_BYTES);
324               vec_validate_aligned (dma_info->data.desc_status,
325                                     pow2_mask (max_log2_ring_sz),
326                                     CLIB_CACHE_LINE_BYTES);
327               vec_validate_aligned (dma_info->data.copy_ops, 0,
328                                     CLIB_CACHE_LINE_BYTES);
329               vec_reset_length (dma_info->data.copy_ops);
330               vec_validate_aligned (dma_info->data.buffers, 0,
331                                     CLIB_CACHE_LINE_BYTES);
332               vec_reset_length (dma_info->data.buffers);
333             }
334         }
335     }
336
337   if (vec_len (mif->tx_queues) > 0)
338     {
339       n_txqs = vec_len (mif->tx_queues);
340       for (j = 0; j < n_threads; j++)
341         {
342           u32 qi = mif->tx_queues[j % n_txqs].queue_index;
343           vnet_hw_if_tx_queue_assign_thread (vnm, qi, j);
344         }
345     }
346
347   vec_foreach_index (i, mif->rx_queues)
348     {
349       memif_queue_t *mq = vec_elt_at_index (mif->rx_queues, i);
350       u32 ti;
351       u32 qi;
352       int rv;
353
354       max_log2_ring_sz = clib_max (max_log2_ring_sz, mq->log2_ring_size);
355
356       mq->ring = mif->regions[mq->region].shm + mq->offset;
357       if (mq->ring->cookie != MEMIF_COOKIE)
358         {
359           err = clib_error_return (0, "wrong cookie on tx ring %u", i);
360           goto error;
361         }
362       qi = vnet_hw_if_register_rx_queue (vnm, mif->hw_if_index, i,
363                                          VNET_HW_IF_RXQ_THREAD_ANY);
364       mq->queue_index = qi;
365
366       if (mif->flags & MEMIF_IF_FLAG_USE_DMA)
367         {
368           memif_dma_info_t *dma_info;
369           mq->dma_head = 0;
370           mq->dma_tail = 0;
371           mq->dma_info_head = 0;
372           mq->dma_info_tail = 0;
373           mq->dma_info_size = MEMIF_DMA_INFO_SIZE;
374           vec_validate_aligned (mq->dma_info, MEMIF_DMA_INFO_SIZE,
375                                 CLIB_CACHE_LINE_BYTES);
376           vec_foreach (dma_info, mq->dma_info)
377             {
378               vec_validate_aligned (dma_info->data.desc_data,
379                                     pow2_mask (max_log2_ring_sz),
380                                     CLIB_CACHE_LINE_BYTES);
381               vec_validate_aligned (dma_info->data.desc_len,
382                                     pow2_mask (max_log2_ring_sz),
383                                     CLIB_CACHE_LINE_BYTES);
384               vec_validate_aligned (dma_info->data.desc_status,
385                                     pow2_mask (max_log2_ring_sz),
386                                     CLIB_CACHE_LINE_BYTES);
387               vec_validate_aligned (dma_info->data.copy_ops, 0,
388                                     CLIB_CACHE_LINE_BYTES);
389               vec_reset_length (dma_info->data.copy_ops);
390               vec_validate_aligned (dma_info->data.buffers, 0,
391                                     CLIB_CACHE_LINE_BYTES);
392               vec_reset_length (dma_info->data.buffers);
393             }
394         }
395
396       if (mq->int_fd > -1)
397         {
398           template.file_descriptor = mq->int_fd;
399           template.private_data = (mif->dev_instance << 16) | (i & 0xFFFF);
400           template.description = format (0, "%U rx %u int",
401                                          format_memif_device_name,
402                                          mif->dev_instance, i);
403           memif_file_add (&mq->int_clib_file_index, &template);
404           vnet_hw_if_set_rx_queue_file_index (vnm, qi,
405                                               mq->int_clib_file_index);
406         }
407       ti = vnet_hw_if_get_rx_queue_thread_index (vnm, qi);
408       mq->buffer_pool_index = vlib_buffer_pool_get_default_for_numa (
409         vm, vlib_get_main_by_index (ti)->numa_node);
410       rv = vnet_hw_if_set_rx_queue_mode (vnm, qi, VNET_HW_IF_RX_MODE_DEFAULT);
411       vnet_hw_if_update_runtime_data (vnm, mif->hw_if_index);
412
413       if (rv)
414         memif_log_err
415           (mif, "Warning: unable to set rx mode for interface %d queue %d: "
416            "rc=%d", mif->hw_if_index, i, rv);
417       else
418         {
419           vnet_hw_if_rx_mode rxmode = vnet_hw_if_get_rx_queue_mode (vnm, qi);
420
421           if (rxmode == VNET_HW_IF_RX_MODE_POLLING)
422             mq->ring->flags |= MEMIF_RING_FLAG_MASK_INT;
423           else
424             vnet_hw_if_rx_queue_set_int_pending (vnm, qi);
425         }
426     }
427   /* *INDENT-ON* */
428
429   if (1 << max_log2_ring_sz > vec_len (mm->per_thread_data[0].desc_data))
430     {
431       memif_per_thread_data_t *ptd;
432
433       vec_foreach (ptd, mm->per_thread_data)
434         {
435           vec_validate_aligned (ptd->desc_data, pow2_mask (max_log2_ring_sz),
436                                 CLIB_CACHE_LINE_BYTES);
437           vec_validate_aligned (ptd->desc_len, pow2_mask (max_log2_ring_sz),
438                                 CLIB_CACHE_LINE_BYTES);
439           vec_validate_aligned (ptd->desc_status, pow2_mask (max_log2_ring_sz),
440                                 CLIB_CACHE_LINE_BYTES);
441         }
442     }
443   if (with_barrier)
444     vlib_worker_thread_barrier_release (vm);
445
446   mif->flags &= ~MEMIF_IF_FLAG_CONNECTING;
447   mif->flags |= MEMIF_IF_FLAG_CONNECTED;
448
449   vnet_hw_interface_set_flags (vnm, mif->hw_if_index,
450                                VNET_HW_INTERFACE_FLAG_LINK_UP);
451   return 0;
452
453 error:
454   if (with_barrier)
455     vlib_worker_thread_barrier_release (vm);
456   memif_log_err (mif, "%U", format_clib_error, err);
457   return err;
458 }
459
460 static_always_inline memif_ring_t *
461 memif_get_ring (memif_if_t * mif, memif_ring_type_t type, u16 ring_num)
462 {
463   if (vec_len (mif->regions) == 0)
464     return NULL;
465   void *p = mif->regions[0].shm;
466   int ring_size =
467     sizeof (memif_ring_t) +
468     sizeof (memif_desc_t) * (1 << mif->run.log2_ring_size);
469   p += (ring_num + type * mif->run.num_s2m_rings) * ring_size;
470
471   return (memif_ring_t *) p;
472 }
473
474 clib_error_t *
475 memif_init_regions_and_queues (memif_if_t * mif)
476 {
477   vlib_main_t *vm = vlib_get_main ();
478   memif_socket_file_t *msf;
479   memif_ring_t *ring = NULL;
480   int fd, i, j;
481   u64 buffer_offset;
482   memif_region_t *r;
483   clib_error_t *err;
484
485   ASSERT (vec_len (mif->regions) == 0);
486   vec_add2_aligned (mif->regions, r, 1, CLIB_CACHE_LINE_BYTES);
487
488   buffer_offset = (mif->run.num_s2m_rings + mif->run.num_m2s_rings) *
489     (sizeof (memif_ring_t) +
490      sizeof (memif_desc_t) * (1 << mif->run.log2_ring_size));
491
492   r->region_size = buffer_offset;
493
494   if ((mif->flags & MEMIF_IF_FLAG_ZERO_COPY) == 0)
495     r->region_size += mif->run.buffer_size * (1 << mif->run.log2_ring_size) *
496       (mif->run.num_s2m_rings + mif->run.num_m2s_rings);
497
498   if ((fd = clib_mem_vm_create_fd (CLIB_MEM_PAGE_SZ_DEFAULT, "%U region 0",
499                                    format_memif_device_name,
500                                    mif->dev_instance)) == -1)
501     {
502       err = clib_mem_get_last_error ();
503       goto error;
504     }
505
506   if ((ftruncate (fd, r->region_size)) == -1)
507     {
508       err = clib_error_return_unix (0, "ftruncate");
509       goto error;
510     }
511
512   msf = pool_elt_at_index (memif_main.socket_files, mif->socket_file_index);
513   r->shm = clib_mem_vm_map_shared (0, r->region_size, fd, 0, "memif%lu/%lu:0",
514                                    msf->socket_id, mif->id);
515
516   if (r->shm == CLIB_MEM_VM_MAP_FAILED)
517     {
518       err = clib_error_return_unix (0, "memif shared region map failed");
519       goto error;
520     }
521
522   r->fd = fd;
523
524   if (mif->flags & MEMIF_IF_FLAG_ZERO_COPY)
525     {
526       vlib_buffer_pool_t *bp;
527       /* *INDENT-OFF* */
528       vec_foreach (bp, vm->buffer_main->buffer_pools)
529         {
530           vlib_physmem_map_t *pm;
531           pm = vlib_physmem_get_map (vm, bp->physmem_map_index);
532           vec_add2_aligned (mif->regions, r, 1, CLIB_CACHE_LINE_BYTES);
533           r->fd = pm->fd;
534           r->region_size = pm->n_pages << pm->log2_page_size;
535           r->shm = pm->base;
536           r->is_external = 1;
537         }
538       /* *INDENT-ON* */
539     }
540
541   for (i = 0; i < mif->run.num_s2m_rings; i++)
542     {
543       ring = memif_get_ring (mif, MEMIF_RING_S2M, i);
544       ring->head = ring->tail = 0;
545       ring->cookie = MEMIF_COOKIE;
546
547       if (mif->flags & MEMIF_IF_FLAG_ZERO_COPY)
548         continue;
549
550       for (j = 0; j < (1 << mif->run.log2_ring_size); j++)
551         {
552           u16 slot = i * (1 << mif->run.log2_ring_size) + j;
553           ring->desc[j].region = 0;
554           ring->desc[j].offset =
555             buffer_offset + (u32) (slot * mif->run.buffer_size);
556           ring->desc[j].length = mif->run.buffer_size;
557         }
558     }
559   for (i = 0; i < mif->run.num_m2s_rings; i++)
560     {
561       ring = memif_get_ring (mif, MEMIF_RING_M2S, i);
562       ring->head = ring->tail = 0;
563       ring->cookie = MEMIF_COOKIE;
564
565       if (mif->flags & MEMIF_IF_FLAG_ZERO_COPY)
566         continue;
567
568       for (j = 0; j < (1 << mif->run.log2_ring_size); j++)
569         {
570           u16 slot =
571             (i + mif->run.num_s2m_rings) * (1 << mif->run.log2_ring_size) + j;
572           ring->desc[j].region = 0;
573           ring->desc[j].offset =
574             buffer_offset + (u32) (slot * mif->run.buffer_size);
575           ring->desc[j].length = mif->run.buffer_size;
576         }
577     }
578
579   ASSERT (mif->tx_queues == 0);
580   vec_validate_aligned (mif->tx_queues, mif->run.num_s2m_rings - 1,
581                         CLIB_CACHE_LINE_BYTES);
582
583   /* *INDENT-OFF* */
584   vec_foreach_index (i, mif->tx_queues)
585     {
586       memif_queue_t *mq = vec_elt_at_index (mif->tx_queues, i);
587       if ((mq->int_fd = eventfd (0, EFD_NONBLOCK)) < 0)
588         {
589           err = clib_error_return_unix (0, "eventfd[tx queue %u]", i);
590           goto error;
591         }
592
593       mq->int_clib_file_index = ~0;
594       mq->ring = memif_get_ring (mif, MEMIF_RING_S2M, i);
595       mq->log2_ring_size = mif->cfg.log2_ring_size;
596       mq->region = 0;
597       mq->offset = (void *) mq->ring - (void *) mif->regions[mq->region].shm;
598       mq->last_head = 0;
599       mq->type = MEMIF_RING_S2M;
600       if (mif->flags & MEMIF_IF_FLAG_ZERO_COPY)
601         vec_validate_aligned (mq->buffers, 1 << mq->log2_ring_size,
602                               CLIB_CACHE_LINE_BYTES);
603     }
604   /* *INDENT-ON* */
605
606   ASSERT (mif->rx_queues == 0);
607   vec_validate_aligned (mif->rx_queues, mif->run.num_m2s_rings - 1,
608                         CLIB_CACHE_LINE_BYTES);
609
610   /* *INDENT-OFF* */
611   vec_foreach_index (i, mif->rx_queues)
612     {
613       memif_queue_t *mq = vec_elt_at_index (mif->rx_queues, i);
614       if ((mq->int_fd = eventfd (0, EFD_NONBLOCK)) < 0)
615         {
616           err = clib_error_return_unix (0, "eventfd[rx queue %u]", i);
617           goto error;
618         }
619       mq->int_clib_file_index = ~0;
620       mq->ring = memif_get_ring (mif, MEMIF_RING_M2S, i);
621       mq->log2_ring_size = mif->cfg.log2_ring_size;
622       mq->region = 0;
623       mq->offset = (void *) mq->ring - (void *) mif->regions[mq->region].shm;
624       mq->last_head = 0;
625       mq->type = MEMIF_RING_M2S;
626       if (mif->flags & MEMIF_IF_FLAG_ZERO_COPY)
627         vec_validate_aligned (mq->buffers, 1 << mq->log2_ring_size,
628                               CLIB_CACHE_LINE_BYTES);
629     }
630   /* *INDENT-ON* */
631
632   return 0;
633
634 error:
635   memif_log_err (mif, "%U", format_clib_error, err);
636   return err;
637 }
638
639 static uword
640 memif_process (vlib_main_t * vm, vlib_node_runtime_t * rt, vlib_frame_t * f)
641 {
642   memif_main_t *mm = &memif_main;
643   memif_if_t *mif;
644   clib_socket_t *sock;
645   uword *event_data = 0, event_type;
646   u8 enabled = 0;
647   f64 start_time, last_run_duration = 0, now;
648   clib_error_t *err;
649
650   sock = clib_mem_alloc (sizeof (clib_socket_t));
651   clib_memset (sock, 0, sizeof (clib_socket_t));
652
653   while (1)
654     {
655       if (enabled)
656         vlib_process_wait_for_event_or_clock (vm, (f64) 3 -
657                                               last_run_duration);
658       else
659         vlib_process_wait_for_event (vm);
660
661       event_type = vlib_process_get_events (vm, &event_data);
662       vec_reset_length (event_data);
663
664       switch (event_type)
665         {
666         case ~0:
667           break;
668         case MEMIF_PROCESS_EVENT_START:
669           enabled = 1;
670           break;
671         case MEMIF_PROCESS_EVENT_STOP:
672           enabled = 0;
673           continue;
674         case MEMIF_PROCESS_EVENT_ADMIN_UP_DOWN:
675           break;
676         default:
677           ASSERT (0);
678         }
679
680       last_run_duration = start_time = vlib_time_now (vm);
681       /* *INDENT-OFF* */
682       pool_foreach (mif, mm->interfaces)
683          {
684           memif_socket_file_t * msf = vec_elt_at_index (mm->socket_files, mif->socket_file_index);
685           /* Allow no more than 10us without a pause */
686           now = vlib_time_now (vm);
687           if (now > start_time + 10e-6)
688             {
689               vlib_process_suspend (vm, 100e-6);        /* suspend for 100 us */
690               start_time = vlib_time_now (vm);
691             }
692
693           if ((mif->flags & MEMIF_IF_FLAG_ADMIN_UP) == 0)
694             continue;
695
696           if (mif->flags & MEMIF_IF_FLAG_CONNECTING)
697             continue;
698
699           if (mif->flags & MEMIF_IF_FLAG_CONNECTED)
700             continue;
701
702           if (mif->flags & MEMIF_IF_FLAG_IS_SLAVE)
703             {
704               clib_memset (sock, 0, sizeof(clib_socket_t));
705               sock->config = (char *) msf->filename;
706               sock->is_seqpacket = 1;
707               sock->is_blocking = 1;
708
709               if ((err = clib_socket_init (sock)))
710                 {
711                   clib_error_free (err);
712                 }
713               else
714                 {
715                   clib_file_t t = { 0 };
716
717                   t.read_function = memif_slave_conn_fd_read_ready;
718                   t.write_function = memif_slave_conn_fd_write_ready;
719                   t.error_function = memif_slave_conn_fd_error;
720                   t.file_descriptor = sock->fd;
721                   t.private_data = mif->dev_instance;
722                   memif_file_add (&sock->private_data, &t);
723                   t.description = format (0, "%U ctl",
724                                           format_memif_device_name,
725                                           mif->dev_instance);
726                   hash_set (msf->dev_instance_by_fd, sock->fd, mif->dev_instance);
727
728                   mif->flags |= MEMIF_IF_FLAG_CONNECTING;
729                   mif->sock = sock;
730                   sock = clib_mem_alloc (sizeof(clib_socket_t));
731                 }
732             }
733         }
734       /* *INDENT-ON* */
735       last_run_duration = vlib_time_now (vm) - last_run_duration;
736     }
737   return 0;
738 }
739
740 VLIB_REGISTER_NODE (memif_process_node,static) = {
741   .function = memif_process,
742   .type = VLIB_NODE_TYPE_PROCESS,
743   .name = "memif-process",
744 };
745
746 /*
747  * Returns an unused socket id, and ~0 if it can't find one.
748  */
749 u32
750 memif_get_unused_socket_id ()
751 {
752   memif_main_t *mm = &memif_main;
753   uword *p;
754   int i, j;
755
756   static u32 seed = 0;
757   /* limit to 1M tries */
758   for (j = 0; j < 1 << 10; j++)
759     {
760       seed = random_u32 (&seed);
761       for (i = 0; i < 1 << 10; i++)
762         {
763           /* look around randomly generated id */
764           seed += (2 * (i % 2) - 1) * i;
765           if (seed == (u32) ~0)
766             continue;
767           p = hash_get (mm->socket_file_index_by_sock_id, seed);
768           if (!p)
769             return seed;
770         }
771     }
772
773   return ~0;
774 }
775
776 clib_error_t *
777 memif_socket_filename_add_del (u8 is_add, u32 sock_id, char *sock_filename)
778 {
779   memif_main_t *mm = &memif_main;
780   uword *p;
781   memif_socket_file_t *msf;
782   clib_error_t *err = 0;
783   char *dir = 0, *tmp;
784   u32 idx = 0;
785   u8 *name = 0;
786
787   /* allow adding socket id 0 */
788   if (sock_id == 0 && is_add == 0)
789     return vnet_error (VNET_ERR_INVALID_ARGUMENT, "cannot delete socket id 0");
790
791   if (sock_id == ~0)
792     return vnet_error (VNET_ERR_INVALID_ARGUMENT,
793                        "socked id is not specified");
794
795   if (is_add == 0)
796     {
797       p = hash_get (mm->socket_file_index_by_sock_id, sock_id);
798       if (!p)
799         /* Don't delete non-existent entries. */
800         return vnet_error (VNET_ERR_INVALID_ARGUMENT,
801                            "socket file with id %u does not exist", sock_id);
802
803       msf = pool_elt_at_index (mm->socket_files, *p);
804       if (msf->ref_cnt > 0)
805         return vnet_error (VNET_ERR_UNEXPECTED_INTF_STATE,
806                            "socket file '%s' is in use", msf->filename);
807
808       vec_free (msf->filename);
809       pool_put (mm->socket_files, msf);
810
811       hash_unset (mm->socket_file_index_by_sock_id, sock_id);
812
813       return 0;
814     }
815
816   if (sock_filename == 0 || sock_filename[0] == 0)
817     return vnet_error (VNET_ERR_INVALID_ARGUMENT,
818                        "socket filename not specified");
819
820   if (clib_socket_prefix_is_valid (sock_filename))
821     {
822       name = format (0, "%s%c", sock_filename, 0);
823     }
824   else if (sock_filename[0] == '/')
825     {
826       name = format (0, "%s%c", sock_filename, 0);
827     }
828   else
829     {
830       /* copy runtime dir path */
831       vec_add (dir, vlib_unix_get_runtime_dir (),
832                strlen (vlib_unix_get_runtime_dir ()));
833       vec_add1 (dir, '/');
834
835       /* if sock_filename contains dirs, add them to path */
836       tmp = strrchr (sock_filename, '/');
837       if (tmp)
838         {
839           idx = tmp - sock_filename;
840           vec_add (dir, sock_filename, idx);
841         }
842
843       vec_add1 (dir, '\0');
844       /* create socket dir */
845       if ((err = vlib_unix_recursive_mkdir (dir)))
846         {
847           clib_error_free (err);
848           err = vnet_error (VNET_ERR_SYSCALL_ERROR_1,
849                             "unable to create socket dir");
850           goto done;
851         }
852
853       name =
854         format (0, "%s/%s%c", vlib_unix_get_runtime_dir (), sock_filename, 0);
855     }
856
857   p = hash_get (mm->socket_file_index_by_sock_id, sock_id);
858   if (p)
859     {
860       msf = pool_elt_at_index (mm->socket_files, *p);
861       if (strcmp ((char *) msf->filename, (char *) name) == 0)
862         {
863           /* Silently accept identical "add". */
864           goto done;
865         }
866
867       /* But don't allow a direct add of a different filename. */
868       err = vnet_error (VNET_ERR_ENTRY_ALREADY_EXISTS, "entry already exists");
869       goto done;
870     }
871
872   pool_get (mm->socket_files, msf);
873   clib_memset (msf, 0, sizeof (memif_socket_file_t));
874
875   msf->filename = name;
876   msf->socket_id = sock_id;
877   name = 0;
878
879   hash_set (mm->socket_file_index_by_sock_id, sock_id, msf - mm->socket_files);
880
881 done:
882   vec_free (name);
883   vec_free (dir);
884   return err;
885 }
886
887 clib_error_t *
888 memif_delete_if (vlib_main_t *vm, memif_if_t *mif)
889 {
890   vnet_main_t *vnm = vnet_get_main ();
891   memif_main_t *mm = &memif_main;
892   memif_socket_file_t *msf =
893     vec_elt_at_index (mm->socket_files, mif->socket_file_index);
894   clib_error_t *err;
895
896   mif->flags |= MEMIF_IF_FLAG_DELETING;
897   vec_free (mif->local_disc_string);
898   vec_free (mif->remote_disc_string);
899
900   /* bring down the interface */
901   vnet_hw_interface_set_flags (vnm, mif->hw_if_index, 0);
902   vnet_sw_interface_set_flags (vnm, mif->sw_if_index, 0);
903
904   err = clib_error_return (0, "interface deleted");
905   memif_disconnect (mif, err);
906   clib_error_free (err);
907
908   if (mif->hw_if_index != ~0)
909     {
910       /* remove the interface */
911       if (mif->mode == MEMIF_INTERFACE_MODE_IP)
912         vnet_delete_hw_interface (vnm, mif->hw_if_index);
913       else
914         ethernet_delete_interface (vnm, mif->hw_if_index);
915       mif->hw_if_index = ~0;
916     }
917
918   /* free interface data structures */
919   mhash_unset (&msf->dev_instance_by_id, &mif->id, 0);
920
921   /* remove socket file */
922   if (--(msf->ref_cnt) == 0)
923     {
924       if (msf->is_listener)
925         {
926           int i;
927           /* *INDENT-OFF* */
928           vec_foreach_index (i, msf->pending_clients)
929             memif_socket_close (msf->pending_clients + i);
930           /* *INDENT-ON* */
931           memif_socket_close (&msf->sock);
932           vec_free (msf->pending_clients);
933         }
934       mhash_free (&msf->dev_instance_by_id);
935       hash_free (msf->dev_instance_by_fd);
936       if (msf->sock)
937         {
938           err = clib_socket_close (msf->sock);
939           if (err)
940             {
941               memif_log_err (mif, "%U", format_clib_error, err);
942               clib_error_free (err);
943             }
944           clib_mem_free (msf->sock);
945         }
946     }
947
948   vec_free (mif->local_disc_string);
949   clib_memset (mif, 0, sizeof (*mif));
950   pool_put (mm->interfaces, mif);
951
952   if (pool_elts (mm->interfaces) == 0)
953     vlib_process_signal_event (vm, memif_process_node.index,
954                                MEMIF_PROCESS_EVENT_STOP, 0);
955
956   return 0;
957 }
958
959 /* *INDENT-OFF* */
960 VNET_HW_INTERFACE_CLASS (memif_ip_hw_if_class, static) = {
961   .name = "memif-ip",
962   .flags = VNET_HW_INTERFACE_CLASS_FLAG_P2P,
963   .tx_hash_fn_type = VNET_HASH_FN_TYPE_IP,
964 };
965 /* *INDENT-ON* */
966
967 static void
968 memif_prepare_dma_args (vlib_dma_config_t *args)
969 {
970   args->max_batches = 256;
971   args->max_transfer_size = VLIB_BUFFER_DEFAULT_DATA_SIZE;
972   args->barrier_before_last = 1;
973   args->sw_fallback = 1;
974   args->callback_fn = NULL;
975 }
976
977 clib_error_t *
978 memif_create_if (vlib_main_t *vm, memif_create_if_args_t *args)
979 {
980   memif_main_t *mm = &memif_main;
981   vlib_thread_main_t *tm = vlib_get_thread_main ();
982   vnet_main_t *vnm = vnet_get_main ();
983   vnet_eth_interface_registration_t eir = {};
984   memif_if_t *mif = 0;
985   vnet_sw_interface_t *sw;
986   uword *p;
987   memif_socket_file_t *msf = 0;
988   clib_error_t *err = 0;
989
990   p = hash_get (mm->socket_file_index_by_sock_id, args->socket_id);
991   if (p == 0)
992     {
993       err = vnet_error (VNET_ERR_INVALID_ARGUMENT, "unknown socket id");
994       goto done;
995     }
996
997   msf = vec_elt_at_index (mm->socket_files, p[0]);
998
999   /* existing socket file can be either master or slave but cannot be both */
1000   if (msf->ref_cnt > 0)
1001     {
1002       if ((!msf->is_listener != !args->is_master))
1003         {
1004           err =
1005             vnet_error (VNET_ERR_SUBIF_ALREADY_EXISTS,
1006                         "socket file cannot be used by both master and slave");
1007           goto done;
1008         }
1009
1010       p = mhash_get (&msf->dev_instance_by_id, &args->id);
1011       if (p)
1012         {
1013           err = vnet_error (VNET_ERR_SUBIF_ALREADY_EXISTS,
1014                             "interface already exists");
1015           goto done;
1016         }
1017     }
1018
1019   /* Create new socket file */
1020   if (msf->ref_cnt == 0)
1021     {
1022       mhash_init (&msf->dev_instance_by_id, sizeof (uword),
1023                   sizeof (memif_interface_id_t));
1024       msf->dev_instance_by_fd = hash_create (0, sizeof (uword));
1025       msf->is_listener = (args->is_master != 0);
1026
1027       memif_log_debug (0, "initializing socket file %s", msf->filename);
1028     }
1029
1030   if (mm->per_thread_data == 0)
1031     {
1032       int i;
1033
1034       vec_validate_aligned (mm->per_thread_data, tm->n_vlib_mains - 1,
1035                             CLIB_CACHE_LINE_BYTES);
1036
1037       for (i = 0; i < tm->n_vlib_mains; i++)
1038         {
1039           memif_per_thread_data_t *ptd =
1040             vec_elt_at_index (mm->per_thread_data, i);
1041           vlib_buffer_t *bt = &ptd->buffer_template;
1042           clib_memset (bt, 0, sizeof (vlib_buffer_t));
1043           bt->flags = VLIB_BUFFER_TOTAL_LENGTH_VALID;
1044           bt->total_length_not_including_first_buffer = 0;
1045           vnet_buffer (bt)->sw_if_index[VLIB_TX] = (u32) ~ 0;
1046
1047           vec_validate_aligned (ptd->copy_ops, 0, CLIB_CACHE_LINE_BYTES);
1048           vec_reset_length (ptd->copy_ops);
1049           vec_validate_aligned (ptd->buffers, 0, CLIB_CACHE_LINE_BYTES);
1050           vec_reset_length (ptd->buffers);
1051         }
1052     }
1053
1054   pool_get (mm->interfaces, mif);
1055   clib_memset (mif, 0, sizeof (*mif));
1056   mif->dev_instance = mif - mm->interfaces;
1057   mif->socket_file_index = msf - mm->socket_files;
1058   mif->id = args->id;
1059   mif->sw_if_index = mif->hw_if_index = mif->per_interface_next_index = ~0;
1060   mif->mode = args->mode;
1061   if (args->secret)
1062     mif->secret = vec_dup (args->secret);
1063
1064   /* register dma config if enabled */
1065   if (args->use_dma)
1066     {
1067       vlib_dma_config_t dma_args;
1068       bzero (&dma_args, sizeof (dma_args));
1069       memif_prepare_dma_args (&dma_args);
1070
1071       dma_args.max_transfers = 1 << args->log2_ring_size;
1072       dma_args.callback_fn = memif_dma_completion_cb;
1073       mif->dma_input_config = vlib_dma_config_add (vm, &dma_args);
1074       dma_args.callback_fn = memif_tx_dma_completion_cb;
1075       mif->dma_tx_config = vlib_dma_config_add (vm, &dma_args);
1076     }
1077
1078   if (mif->mode == MEMIF_INTERFACE_MODE_ETHERNET)
1079     {
1080
1081       if (!args->hw_addr_set)
1082         {
1083           f64 now = vlib_time_now (vm);
1084           u32 rnd;
1085           rnd = (u32) (now * 1e6);
1086           rnd = random_u32 (&rnd);
1087
1088           memcpy (args->hw_addr + 2, &rnd, sizeof (rnd));
1089           args->hw_addr[0] = 2;
1090           args->hw_addr[1] = 0xfe;
1091         }
1092
1093       eir.dev_class_index = memif_device_class.index;
1094       eir.dev_instance = mif->dev_instance;
1095       eir.address = args->hw_addr;
1096       eir.cb.flag_change = memif_eth_flag_change;
1097       eir.cb.set_max_frame_size = memif_eth_set_max_frame_size;
1098       mif->hw_if_index = vnet_eth_register_interface (vnm, &eir);
1099     }
1100   else if (mif->mode == MEMIF_INTERFACE_MODE_IP)
1101     {
1102       mif->hw_if_index =
1103         vnet_register_interface (vnm, memif_device_class.index,
1104                                  mif->dev_instance,
1105                                  memif_ip_hw_if_class.index,
1106                                  mif->dev_instance);
1107     }
1108   else
1109     {
1110       err =
1111         vnet_error (VNET_ERR_SYSCALL_ERROR_2, "unsupported interface mode");
1112       goto error;
1113     }
1114
1115   sw = vnet_get_hw_sw_interface (vnm, mif->hw_if_index);
1116   mif->sw_if_index = sw->sw_if_index;
1117
1118   mif->cfg.log2_ring_size = args->log2_ring_size;
1119   mif->cfg.buffer_size = args->buffer_size;
1120   mif->cfg.num_s2m_rings =
1121     args->is_master ? args->rx_queues : args->tx_queues;
1122   mif->cfg.num_m2s_rings =
1123     args->is_master ? args->tx_queues : args->rx_queues;
1124
1125   args->sw_if_index = mif->sw_if_index;
1126
1127   /* If this is new one, start listening */
1128   if (msf->is_listener && msf->ref_cnt == 0)
1129     {
1130       clib_socket_t *s = clib_mem_alloc (sizeof (clib_socket_t));
1131
1132       ASSERT (msf->sock == 0);
1133       msf->sock = s;
1134
1135       clib_memset (s, 0, sizeof (clib_socket_t));
1136       s->config = (char *) msf->filename;
1137       s->local_only = 1;
1138       s->is_server = 1;
1139       s->allow_group_write = 1;
1140       s->is_seqpacket = 1;
1141       s->passcred = 1;
1142
1143       if ((err = clib_socket_init (s)))
1144         {
1145           err->code = VNET_ERR_SYSCALL_ERROR_4;
1146           goto error;
1147         }
1148
1149       clib_file_t template = { 0 };
1150       template.read_function = memif_conn_fd_accept_ready;
1151       template.file_descriptor = msf->sock->fd;
1152       template.private_data = mif->socket_file_index;
1153       template.description = format (0, "memif listener %s", msf->filename);
1154       memif_file_add (&msf->sock->private_data, &template);
1155     }
1156
1157   msf->ref_cnt++;
1158
1159   if (args->is_master == 0)
1160     {
1161       mif->flags |= MEMIF_IF_FLAG_IS_SLAVE;
1162       if (args->is_zero_copy)
1163         mif->flags |= MEMIF_IF_FLAG_ZERO_COPY;
1164     }
1165
1166   if (args->use_dma)
1167     mif->flags |= MEMIF_IF_FLAG_USE_DMA;
1168
1169   vnet_hw_if_set_caps (vnm, mif->hw_if_index, VNET_HW_IF_CAP_INT_MODE);
1170   vnet_hw_if_set_input_node (vnm, mif->hw_if_index, memif_input_node.index);
1171   mhash_set (&msf->dev_instance_by_id, &mif->id, mif->dev_instance, 0);
1172
1173   if (pool_elts (mm->interfaces) == 1)
1174     {
1175       vlib_process_signal_event (vm, memif_process_node.index,
1176                                  MEMIF_PROCESS_EVENT_START, 0);
1177     }
1178   goto done;
1179
1180 error:
1181   memif_delete_if (vm, mif);
1182   if (err)
1183     memif_log_err (mif, "%U", format_clib_error, err);
1184   return err;
1185
1186 done:
1187   return err;
1188 }
1189
1190 clib_error_t *
1191 memif_interface_admin_up_down (vnet_main_t *vnm, u32 hw_if_index, u32 flags)
1192 {
1193   memif_main_t *mm = &memif_main;
1194   vnet_hw_interface_t *hw = vnet_get_hw_interface (vnm, hw_if_index);
1195   memif_if_t *mif = pool_elt_at_index (mm->interfaces, hw->dev_instance);
1196   static clib_error_t *error = 0;
1197
1198   if (flags & VNET_SW_INTERFACE_FLAG_ADMIN_UP)
1199     {
1200       if (mif->flags & MEMIF_IF_FLAG_CONNECTED)
1201         {
1202           vnet_hw_interface_set_flags (vnm, mif->hw_if_index,
1203                                        VNET_HW_INTERFACE_FLAG_LINK_UP);
1204         }
1205       mif->flags |= MEMIF_IF_FLAG_ADMIN_UP;
1206     }
1207   else
1208     mif->flags &= ~MEMIF_IF_FLAG_ADMIN_UP;
1209
1210   vlib_process_signal_event (vnm->vlib_main, memif_process_node.index,
1211                              MEMIF_PROCESS_EVENT_ADMIN_UP_DOWN, 0);
1212   return error;
1213 }
1214
1215 static clib_error_t *
1216 memif_init (vlib_main_t * vm)
1217 {
1218   memif_main_t *mm = &memif_main;
1219
1220   clib_memset (mm, 0, sizeof (memif_main_t));
1221
1222   mm->log_class = vlib_log_register_class ("memif_plugin", 0);
1223   memif_log_debug (0, "initialized");
1224
1225   /* initialize binary API */
1226   memif_plugin_api_hookup (vm);
1227
1228   /*
1229    * Pre-stuff socket filename pool with a non-modifieable mapping
1230    * for socket-id 0 to MEMIF_DEFAULT_SOCKET_FILENAME in the
1231    * default run-time directory.
1232    */
1233   return memif_socket_filename_add_del (1, 0, MEMIF_DEFAULT_SOCKET_FILENAME);
1234 }
1235
1236 VLIB_INIT_FUNCTION (memif_init);
1237
1238 /* *INDENT-OFF* */
1239 VLIB_PLUGIN_REGISTER () = {
1240     .version = VPP_BUILD_VER,
1241     .description = "Packet Memory Interface (memif) -- Experimental",
1242 };
1243 /* *INDENT-ON* */
1244
1245 /*
1246  * fd.io coding-style-patch-verification: ON
1247  *
1248  * Local Variables:
1249  * eval: (c-set-style "gnu")
1250  * End:
1251  */