Add buffer tracing to the dispatch tracer
[vpp.git] / src / vlib / main.c
1 /*
2  * Copyright (c) 2015 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 /*
16  * main.c: main vector processing loop
17  *
18  * Copyright (c) 2008 Eliot Dresselhaus
19  *
20  * Permission is hereby granted, free of charge, to any person obtaining
21  * a copy of this software and associated documentation files (the
22  * "Software"), to deal in the Software without restriction, including
23  * without limitation the rights to use, copy, modify, merge, publish,
24  * distribute, sublicense, and/or sell copies of the Software, and to
25  * permit persons to whom the Software is furnished to do so, subject to
26  * the following conditions:
27  *
28  * The above copyright notice and this permission notice shall be
29  * included in all copies or substantial portions of the Software.
30  *
31  *  THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
32  *  EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
33  *  MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
34  *  NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE
35  *  LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION
36  *  OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION
37  *  WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
38  */
39
40 #include <math.h>
41 #include <vppinfra/format.h>
42 #include <vlib/vlib.h>
43 #include <vlib/threads.h>
44 #include <vppinfra/tw_timer_1t_3w_1024sl_ov.h>
45
46 #include <vlib/unix/unix.h>
47 #include <vlib/unix/cj.h>
48
49 CJ_GLOBAL_LOG_PROTOTYPE;
50
51 /* Actually allocate a few extra slots of vector data to support
52    speculative vector enqueues which overflow vector data in next frame. */
53 #define VLIB_FRAME_SIZE_ALLOC (VLIB_FRAME_SIZE + 4)
54
55 u32 wraps;
56
57 always_inline u32
58 vlib_frame_bytes (u32 n_scalar_bytes, u32 n_vector_bytes)
59 {
60   u32 n_bytes;
61
62   /* Make room for vlib_frame_t plus scalar arguments. */
63   n_bytes = vlib_frame_vector_byte_offset (n_scalar_bytes);
64
65   /* Make room for vector arguments.
66      Allocate a few extra slots of vector data to support
67      speculative vector enqueues which overflow vector data in next frame. */
68 #define VLIB_FRAME_SIZE_EXTRA 4
69   n_bytes += (VLIB_FRAME_SIZE + VLIB_FRAME_SIZE_EXTRA) * n_vector_bytes;
70
71   /* Magic number is first 32bit number after vector data.
72      Used to make sure that vector data is never overrun. */
73 #define VLIB_FRAME_MAGIC (0xabadc0ed)
74   n_bytes += sizeof (u32);
75
76   /* Pad to cache line. */
77   n_bytes = round_pow2 (n_bytes, CLIB_CACHE_LINE_BYTES);
78
79   return n_bytes;
80 }
81
82 always_inline u32 *
83 vlib_frame_find_magic (vlib_frame_t * f, vlib_node_t * node)
84 {
85   void *p = f;
86
87   p += vlib_frame_vector_byte_offset (node->scalar_size);
88
89   p += (VLIB_FRAME_SIZE + VLIB_FRAME_SIZE_EXTRA) * node->vector_size;
90
91   return p;
92 }
93
94 static vlib_frame_size_t *
95 get_frame_size_info (vlib_node_main_t * nm,
96                      u32 n_scalar_bytes, u32 n_vector_bytes)
97 {
98   uword key = (n_scalar_bytes << 16) | n_vector_bytes;
99   uword *p, i;
100
101   p = hash_get (nm->frame_size_hash, key);
102   if (p)
103     i = p[0];
104   else
105     {
106       i = vec_len (nm->frame_sizes);
107       vec_validate (nm->frame_sizes, i);
108       hash_set (nm->frame_size_hash, key, i);
109     }
110
111   return vec_elt_at_index (nm->frame_sizes, i);
112 }
113
114 static u32
115 vlib_frame_alloc_to_node (vlib_main_t * vm, u32 to_node_index,
116                           u32 frame_flags)
117 {
118   vlib_node_main_t *nm = &vm->node_main;
119   vlib_frame_size_t *fs;
120   vlib_node_t *to_node;
121   vlib_frame_t *f;
122   u32 fi, l, n, scalar_size, vector_size;
123
124   to_node = vlib_get_node (vm, to_node_index);
125
126   scalar_size = to_node->scalar_size;
127   vector_size = to_node->vector_size;
128
129   fs = get_frame_size_info (nm, scalar_size, vector_size);
130   n = vlib_frame_bytes (scalar_size, vector_size);
131   if ((l = vec_len (fs->free_frame_indices)) > 0)
132     {
133       /* Allocate from end of free list. */
134       fi = fs->free_frame_indices[l - 1];
135       f = vlib_get_frame_no_check (vm, fi);
136       _vec_len (fs->free_frame_indices) = l - 1;
137     }
138   else
139     {
140       f = clib_mem_alloc_aligned_no_fail (n, VLIB_FRAME_ALIGN);
141       fi = vlib_frame_index_no_check (vm, f);
142     }
143
144   /* Poison frame when debugging. */
145   if (CLIB_DEBUG > 0)
146     clib_memset (f, 0xfe, n);
147
148   /* Insert magic number. */
149   {
150     u32 *magic;
151
152     magic = vlib_frame_find_magic (f, to_node);
153     *magic = VLIB_FRAME_MAGIC;
154   }
155
156   f->frame_flags = VLIB_FRAME_IS_ALLOCATED | frame_flags;
157   f->n_vectors = 0;
158   f->scalar_size = scalar_size;
159   f->vector_size = vector_size;
160   f->flags = 0;
161
162   fs->n_alloc_frames += 1;
163
164   return fi;
165 }
166
167 /* Allocate a frame for from FROM_NODE to TO_NODE via TO_NEXT_INDEX.
168    Returns frame index. */
169 static u32
170 vlib_frame_alloc (vlib_main_t * vm, vlib_node_runtime_t * from_node_runtime,
171                   u32 to_next_index)
172 {
173   vlib_node_t *from_node;
174
175   from_node = vlib_get_node (vm, from_node_runtime->node_index);
176   ASSERT (to_next_index < vec_len (from_node->next_nodes));
177
178   return vlib_frame_alloc_to_node (vm, from_node->next_nodes[to_next_index],
179                                    /* frame_flags */ 0);
180 }
181
182 vlib_frame_t *
183 vlib_get_frame_to_node (vlib_main_t * vm, u32 to_node_index)
184 {
185   u32 fi = vlib_frame_alloc_to_node (vm, to_node_index,
186                                      /* frame_flags */
187                                      VLIB_FRAME_FREE_AFTER_DISPATCH);
188   return vlib_get_frame (vm, fi);
189 }
190
191 void
192 vlib_put_frame_to_node (vlib_main_t * vm, u32 to_node_index, vlib_frame_t * f)
193 {
194   vlib_pending_frame_t *p;
195   vlib_node_t *to_node;
196
197   if (f->n_vectors == 0)
198     return;
199
200   to_node = vlib_get_node (vm, to_node_index);
201
202   vec_add2 (vm->node_main.pending_frames, p, 1);
203
204   f->frame_flags |= VLIB_FRAME_PENDING;
205   p->frame_index = vlib_frame_index (vm, f);
206   p->node_runtime_index = to_node->runtime_index;
207   p->next_frame_index = VLIB_PENDING_FRAME_NO_NEXT_FRAME;
208 }
209
210 /* Free given frame. */
211 void
212 vlib_frame_free (vlib_main_t * vm, vlib_node_runtime_t * r, vlib_frame_t * f)
213 {
214   vlib_node_main_t *nm = &vm->node_main;
215   vlib_node_t *node;
216   vlib_frame_size_t *fs;
217   u32 frame_index;
218
219   ASSERT (f->frame_flags & VLIB_FRAME_IS_ALLOCATED);
220
221   node = vlib_get_node (vm, r->node_index);
222   fs = get_frame_size_info (nm, node->scalar_size, node->vector_size);
223
224   frame_index = vlib_frame_index (vm, f);
225
226   ASSERT (f->frame_flags & VLIB_FRAME_IS_ALLOCATED);
227
228   /* No next frames may point to freed frame. */
229   if (CLIB_DEBUG > 0)
230     {
231       vlib_next_frame_t *nf;
232       vec_foreach (nf, vm->node_main.next_frames)
233         ASSERT (nf->frame_index != frame_index);
234     }
235
236   f->frame_flags &= ~VLIB_FRAME_IS_ALLOCATED;
237
238   vec_add1 (fs->free_frame_indices, frame_index);
239   ASSERT (fs->n_alloc_frames > 0);
240   fs->n_alloc_frames -= 1;
241 }
242
243 static clib_error_t *
244 show_frame_stats (vlib_main_t * vm,
245                   unformat_input_t * input, vlib_cli_command_t * cmd)
246 {
247   vlib_node_main_t *nm = &vm->node_main;
248   vlib_frame_size_t *fs;
249
250   vlib_cli_output (vm, "%=6s%=12s%=12s", "Size", "# Alloc", "# Free");
251   vec_foreach (fs, nm->frame_sizes)
252   {
253     u32 n_alloc = fs->n_alloc_frames;
254     u32 n_free = vec_len (fs->free_frame_indices);
255
256     if (n_alloc + n_free > 0)
257       vlib_cli_output (vm, "%=6d%=12d%=12d",
258                        fs - nm->frame_sizes, n_alloc, n_free);
259   }
260
261   return 0;
262 }
263
264 /* *INDENT-OFF* */
265 VLIB_CLI_COMMAND (show_frame_stats_cli, static) = {
266   .path = "show vlib frame-allocation",
267   .short_help = "Show node dispatch frame statistics",
268   .function = show_frame_stats,
269 };
270 /* *INDENT-ON* */
271
272 /* Change ownership of enqueue rights to given next node. */
273 static void
274 vlib_next_frame_change_ownership (vlib_main_t * vm,
275                                   vlib_node_runtime_t * node_runtime,
276                                   u32 next_index)
277 {
278   vlib_node_main_t *nm = &vm->node_main;
279   vlib_next_frame_t *next_frame;
280   vlib_node_t *node, *next_node;
281
282   node = vec_elt (nm->nodes, node_runtime->node_index);
283
284   /* Only internal & input nodes are allowed to call other nodes. */
285   ASSERT (node->type == VLIB_NODE_TYPE_INTERNAL
286           || node->type == VLIB_NODE_TYPE_INPUT
287           || node->type == VLIB_NODE_TYPE_PROCESS);
288
289   ASSERT (vec_len (node->next_nodes) == node_runtime->n_next_nodes);
290
291   next_frame =
292     vlib_node_runtime_get_next_frame (vm, node_runtime, next_index);
293   next_node = vec_elt (nm->nodes, node->next_nodes[next_index]);
294
295   if (next_node->owner_node_index != VLIB_INVALID_NODE_INDEX)
296     {
297       /* Get frame from previous owner. */
298       vlib_next_frame_t *owner_next_frame;
299       vlib_next_frame_t tmp;
300
301       owner_next_frame =
302         vlib_node_get_next_frame (vm,
303                                   next_node->owner_node_index,
304                                   next_node->owner_next_index);
305
306       /* Swap target next frame with owner's. */
307       tmp = owner_next_frame[0];
308       owner_next_frame[0] = next_frame[0];
309       next_frame[0] = tmp;
310
311       /*
312        * If next_frame is already pending, we have to track down
313        * all pending frames and fix their next_frame_index fields.
314        */
315       if (next_frame->flags & VLIB_FRAME_PENDING)
316         {
317           vlib_pending_frame_t *p;
318           if (next_frame->frame_index != ~0)
319             {
320               vec_foreach (p, nm->pending_frames)
321               {
322                 if (p->frame_index == next_frame->frame_index)
323                   {
324                     p->next_frame_index =
325                       next_frame - vm->node_main.next_frames;
326                   }
327               }
328             }
329         }
330     }
331   else
332     {
333       /* No previous owner. Take ownership. */
334       next_frame->flags |= VLIB_FRAME_OWNER;
335     }
336
337   /* Record new owner. */
338   next_node->owner_node_index = node->index;
339   next_node->owner_next_index = next_index;
340
341   /* Now we should be owner. */
342   ASSERT (next_frame->flags & VLIB_FRAME_OWNER);
343 }
344
345 /* Make sure that magic number is still there.
346    Otherwise, it is likely that caller has overrun frame arguments. */
347 always_inline void
348 validate_frame_magic (vlib_main_t * vm,
349                       vlib_frame_t * f, vlib_node_t * n, uword next_index)
350 {
351   vlib_node_t *next_node = vlib_get_node (vm, n->next_nodes[next_index]);
352   u32 *magic = vlib_frame_find_magic (f, next_node);
353   ASSERT (VLIB_FRAME_MAGIC == magic[0]);
354 }
355
356 vlib_frame_t *
357 vlib_get_next_frame_internal (vlib_main_t * vm,
358                               vlib_node_runtime_t * node,
359                               u32 next_index, u32 allocate_new_next_frame)
360 {
361   vlib_frame_t *f;
362   vlib_next_frame_t *nf;
363   u32 n_used;
364
365   nf = vlib_node_runtime_get_next_frame (vm, node, next_index);
366
367   /* Make sure this next frame owns right to enqueue to destination frame. */
368   if (PREDICT_FALSE (!(nf->flags & VLIB_FRAME_OWNER)))
369     vlib_next_frame_change_ownership (vm, node, next_index);
370
371   /* ??? Don't need valid flag: can use frame_index == ~0 */
372   if (PREDICT_FALSE (!(nf->flags & VLIB_FRAME_IS_ALLOCATED)))
373     {
374       nf->frame_index = vlib_frame_alloc (vm, node, next_index);
375       nf->flags |= VLIB_FRAME_IS_ALLOCATED;
376     }
377
378   f = vlib_get_frame (vm, nf->frame_index);
379
380   /* Has frame been removed from pending vector (e.g. finished dispatching)?
381      If so we can reuse frame. */
382   if ((nf->flags & VLIB_FRAME_PENDING)
383       && !(f->frame_flags & VLIB_FRAME_PENDING))
384     {
385       nf->flags &= ~VLIB_FRAME_PENDING;
386       f->n_vectors = 0;
387       f->flags = 0;
388     }
389
390   /* Allocate new frame if current one is already full. */
391   n_used = f->n_vectors;
392   if (n_used >= VLIB_FRAME_SIZE || (allocate_new_next_frame && n_used > 0))
393     {
394       /* Old frame may need to be freed after dispatch, since we'll have
395          two redundant frames from node -> next node. */
396       if (!(nf->flags & VLIB_FRAME_NO_FREE_AFTER_DISPATCH))
397         {
398           vlib_frame_t *f_old = vlib_get_frame (vm, nf->frame_index);
399           f_old->frame_flags |= VLIB_FRAME_FREE_AFTER_DISPATCH;
400         }
401
402       /* Allocate new frame to replace full one. */
403       nf->frame_index = vlib_frame_alloc (vm, node, next_index);
404       f = vlib_get_frame (vm, nf->frame_index);
405       n_used = f->n_vectors;
406     }
407
408   /* Should have free vectors in frame now. */
409   ASSERT (n_used < VLIB_FRAME_SIZE);
410
411   if (CLIB_DEBUG > 0)
412     {
413       validate_frame_magic (vm, f,
414                             vlib_get_node (vm, node->node_index), next_index);
415     }
416
417   return f;
418 }
419
420 static void
421 vlib_put_next_frame_validate (vlib_main_t * vm,
422                               vlib_node_runtime_t * rt,
423                               u32 next_index, u32 n_vectors_left)
424 {
425   vlib_node_main_t *nm = &vm->node_main;
426   vlib_next_frame_t *nf;
427   vlib_frame_t *f;
428   vlib_node_runtime_t *next_rt;
429   vlib_node_t *next_node;
430   u32 n_before, n_after;
431
432   nf = vlib_node_runtime_get_next_frame (vm, rt, next_index);
433   f = vlib_get_frame (vm, nf->frame_index);
434
435   ASSERT (n_vectors_left <= VLIB_FRAME_SIZE);
436   n_after = VLIB_FRAME_SIZE - n_vectors_left;
437   n_before = f->n_vectors;
438
439   ASSERT (n_after >= n_before);
440
441   next_rt = vec_elt_at_index (nm->nodes_by_type[VLIB_NODE_TYPE_INTERNAL],
442                               nf->node_runtime_index);
443   next_node = vlib_get_node (vm, next_rt->node_index);
444   if (n_after > 0 && next_node->validate_frame)
445     {
446       u8 *msg = next_node->validate_frame (vm, rt, f);
447       if (msg)
448         {
449           clib_warning ("%v", msg);
450           ASSERT (0);
451         }
452       vec_free (msg);
453     }
454 }
455
456 void
457 vlib_put_next_frame (vlib_main_t * vm,
458                      vlib_node_runtime_t * r,
459                      u32 next_index, u32 n_vectors_left)
460 {
461   vlib_node_main_t *nm = &vm->node_main;
462   vlib_next_frame_t *nf;
463   vlib_frame_t *f;
464   u32 n_vectors_in_frame;
465
466   if (buffer_main.callbacks_registered == 0 && CLIB_DEBUG > 0)
467     vlib_put_next_frame_validate (vm, r, next_index, n_vectors_left);
468
469   nf = vlib_node_runtime_get_next_frame (vm, r, next_index);
470   f = vlib_get_frame (vm, nf->frame_index);
471
472   /* Make sure that magic number is still there.  Otherwise, caller
473      has overrun frame meta data. */
474   if (CLIB_DEBUG > 0)
475     {
476       vlib_node_t *node = vlib_get_node (vm, r->node_index);
477       validate_frame_magic (vm, f, node, next_index);
478     }
479
480   /* Convert # of vectors left -> number of vectors there. */
481   ASSERT (n_vectors_left <= VLIB_FRAME_SIZE);
482   n_vectors_in_frame = VLIB_FRAME_SIZE - n_vectors_left;
483
484   f->n_vectors = n_vectors_in_frame;
485
486   /* If vectors were added to frame, add to pending vector. */
487   if (PREDICT_TRUE (n_vectors_in_frame > 0))
488     {
489       vlib_pending_frame_t *p;
490       u32 v0, v1;
491
492       r->cached_next_index = next_index;
493
494       if (!(f->frame_flags & VLIB_FRAME_PENDING))
495         {
496           __attribute__ ((unused)) vlib_node_t *node;
497           vlib_node_t *next_node;
498           vlib_node_runtime_t *next_runtime;
499
500           node = vlib_get_node (vm, r->node_index);
501           next_node = vlib_get_next_node (vm, r->node_index, next_index);
502           next_runtime = vlib_node_get_runtime (vm, next_node->index);
503
504           vec_add2 (nm->pending_frames, p, 1);
505
506           p->frame_index = nf->frame_index;
507           p->node_runtime_index = nf->node_runtime_index;
508           p->next_frame_index = nf - nm->next_frames;
509           nf->flags |= VLIB_FRAME_PENDING;
510           f->frame_flags |= VLIB_FRAME_PENDING;
511
512           /*
513            * If we're going to dispatch this frame on another thread,
514            * force allocation of a new frame. Otherwise, we create
515            * a dangling frame reference. Each thread has its own copy of
516            * the next_frames vector.
517            */
518           if (0 && r->thread_index != next_runtime->thread_index)
519             {
520               nf->frame_index = ~0;
521               nf->flags &= ~(VLIB_FRAME_PENDING | VLIB_FRAME_IS_ALLOCATED);
522             }
523         }
524
525       /* Copy trace flag from next_frame and from runtime. */
526       nf->flags |=
527         (nf->flags & VLIB_NODE_FLAG_TRACE) | (r->
528                                               flags & VLIB_NODE_FLAG_TRACE);
529
530       v0 = nf->vectors_since_last_overflow;
531       v1 = v0 + n_vectors_in_frame;
532       nf->vectors_since_last_overflow = v1;
533       if (PREDICT_FALSE (v1 < v0))
534         {
535           vlib_node_t *node = vlib_get_node (vm, r->node_index);
536           vec_elt (node->n_vectors_by_next_node, next_index) += v0;
537         }
538     }
539 }
540
541 /* Sync up runtime (32 bit counters) and main node stats (64 bit counters). */
542 never_inline void
543 vlib_node_runtime_sync_stats (vlib_main_t * vm,
544                               vlib_node_runtime_t * r,
545                               uword n_calls, uword n_vectors, uword n_clocks,
546                               uword n_ticks)
547 {
548   vlib_node_t *n = vlib_get_node (vm, r->node_index);
549
550   n->stats_total.calls += n_calls + r->calls_since_last_overflow;
551   n->stats_total.vectors += n_vectors + r->vectors_since_last_overflow;
552   n->stats_total.clocks += n_clocks + r->clocks_since_last_overflow;
553   n->stats_total.perf_counter_ticks += n_ticks +
554     r->perf_counter_ticks_since_last_overflow;
555   n->stats_total.perf_counter_vectors += n_vectors +
556     r->perf_counter_vectors_since_last_overflow;
557   n->stats_total.max_clock = r->max_clock;
558   n->stats_total.max_clock_n = r->max_clock_n;
559
560   r->calls_since_last_overflow = 0;
561   r->vectors_since_last_overflow = 0;
562   r->clocks_since_last_overflow = 0;
563   r->perf_counter_ticks_since_last_overflow = 0ULL;
564   r->perf_counter_vectors_since_last_overflow = 0ULL;
565 }
566
567 always_inline void __attribute__ ((unused))
568 vlib_process_sync_stats (vlib_main_t * vm,
569                          vlib_process_t * p,
570                          uword n_calls, uword n_vectors, uword n_clocks,
571                          uword n_ticks)
572 {
573   vlib_node_runtime_t *rt = &p->node_runtime;
574   vlib_node_t *n = vlib_get_node (vm, rt->node_index);
575   vlib_node_runtime_sync_stats (vm, rt, n_calls, n_vectors, n_clocks,
576                                 n_ticks);
577   n->stats_total.suspends += p->n_suspends;
578   p->n_suspends = 0;
579 }
580
581 void
582 vlib_node_sync_stats (vlib_main_t * vm, vlib_node_t * n)
583 {
584   vlib_node_runtime_t *rt;
585
586   if (n->type == VLIB_NODE_TYPE_PROCESS)
587     {
588       /* Nothing to do for PROCESS nodes except in main thread */
589       if (vm != &vlib_global_main)
590         return;
591
592       vlib_process_t *p = vlib_get_process_from_node (vm, n);
593       n->stats_total.suspends += p->n_suspends;
594       p->n_suspends = 0;
595       rt = &p->node_runtime;
596     }
597   else
598     rt =
599       vec_elt_at_index (vm->node_main.nodes_by_type[n->type],
600                         n->runtime_index);
601
602   vlib_node_runtime_sync_stats (vm, rt, 0, 0, 0, 0);
603
604   /* Sync up runtime next frame vector counters with main node structure. */
605   {
606     vlib_next_frame_t *nf;
607     uword i;
608     for (i = 0; i < rt->n_next_nodes; i++)
609       {
610         nf = vlib_node_runtime_get_next_frame (vm, rt, i);
611         vec_elt (n->n_vectors_by_next_node, i) +=
612           nf->vectors_since_last_overflow;
613         nf->vectors_since_last_overflow = 0;
614       }
615   }
616 }
617
618 always_inline u32
619 vlib_node_runtime_update_stats (vlib_main_t * vm,
620                                 vlib_node_runtime_t * node,
621                                 uword n_calls,
622                                 uword n_vectors, uword n_clocks,
623                                 uword n_ticks)
624 {
625   u32 ca0, ca1, v0, v1, cl0, cl1, r;
626   u32 ptick0, ptick1, pvec0, pvec1;
627
628   cl0 = cl1 = node->clocks_since_last_overflow;
629   ca0 = ca1 = node->calls_since_last_overflow;
630   v0 = v1 = node->vectors_since_last_overflow;
631   ptick0 = ptick1 = node->perf_counter_ticks_since_last_overflow;
632   pvec0 = pvec1 = node->perf_counter_vectors_since_last_overflow;
633
634   ca1 = ca0 + n_calls;
635   v1 = v0 + n_vectors;
636   cl1 = cl0 + n_clocks;
637   ptick1 = ptick0 + n_ticks;
638   pvec1 = pvec0 + n_vectors;
639
640   node->calls_since_last_overflow = ca1;
641   node->clocks_since_last_overflow = cl1;
642   node->vectors_since_last_overflow = v1;
643   node->perf_counter_ticks_since_last_overflow = ptick1;
644   node->perf_counter_vectors_since_last_overflow = pvec1;
645
646   node->max_clock_n = node->max_clock > n_clocks ?
647     node->max_clock_n : n_vectors;
648   node->max_clock = node->max_clock > n_clocks ? node->max_clock : n_clocks;
649
650   r = vlib_node_runtime_update_main_loop_vector_stats (vm, node, n_vectors);
651
652   if (PREDICT_FALSE (ca1 < ca0 || v1 < v0 || cl1 < cl0) || (ptick1 < ptick0)
653       || (pvec1 < pvec0))
654     {
655       node->calls_since_last_overflow = ca0;
656       node->clocks_since_last_overflow = cl0;
657       node->vectors_since_last_overflow = v0;
658       node->perf_counter_ticks_since_last_overflow = ptick0;
659       node->perf_counter_vectors_since_last_overflow = pvec0;
660
661       vlib_node_runtime_sync_stats (vm, node, n_calls, n_vectors, n_clocks,
662                                     n_ticks);
663     }
664
665   return r;
666 }
667
668 static inline u64
669 vlib_node_runtime_perf_counter (vlib_main_t * vm)
670 {
671   if (PREDICT_FALSE (vm->vlib_node_runtime_perf_counter_cb != 0))
672     return ((*vm->vlib_node_runtime_perf_counter_cb) (vm));
673   return 0ULL;
674 }
675
676 always_inline void
677 vlib_process_update_stats (vlib_main_t * vm,
678                            vlib_process_t * p,
679                            uword n_calls, uword n_vectors, uword n_clocks,
680                            uword n_ticks)
681 {
682   vlib_node_runtime_update_stats (vm, &p->node_runtime,
683                                   n_calls, n_vectors, n_clocks, n_ticks);
684 }
685
686 static clib_error_t *
687 vlib_cli_elog_clear (vlib_main_t * vm,
688                      unformat_input_t * input, vlib_cli_command_t * cmd)
689 {
690   elog_reset_buffer (&vm->elog_main);
691   return 0;
692 }
693
694 /* *INDENT-OFF* */
695 VLIB_CLI_COMMAND (elog_clear_cli, static) = {
696   .path = "event-logger clear",
697   .short_help = "Clear the event log",
698   .function = vlib_cli_elog_clear,
699 };
700 /* *INDENT-ON* */
701
702 #ifdef CLIB_UNIX
703 static clib_error_t *
704 elog_save_buffer (vlib_main_t * vm,
705                   unformat_input_t * input, vlib_cli_command_t * cmd)
706 {
707   elog_main_t *em = &vm->elog_main;
708   char *file, *chroot_file;
709   clib_error_t *error = 0;
710
711   if (!unformat (input, "%s", &file))
712     {
713       vlib_cli_output (vm, "expected file name, got `%U'",
714                        format_unformat_error, input);
715       return 0;
716     }
717
718   /* It's fairly hard to get "../oopsie" through unformat; just in case */
719   if (strstr (file, "..") || index (file, '/'))
720     {
721       vlib_cli_output (vm, "illegal characters in filename '%s'", file);
722       return 0;
723     }
724
725   chroot_file = (char *) format (0, "/tmp/%s%c", file, 0);
726
727   vec_free (file);
728
729   vlib_cli_output (vm, "Saving %wd of %wd events to %s",
730                    elog_n_events_in_buffer (em),
731                    elog_buffer_capacity (em), chroot_file);
732
733   vlib_worker_thread_barrier_sync (vm);
734   error = elog_write_file (em, chroot_file, 1 /* flush ring */ );
735   vlib_worker_thread_barrier_release (vm);
736   vec_free (chroot_file);
737   return error;
738 }
739
740 void
741 elog_post_mortem_dump (void)
742 {
743   vlib_main_t *vm = &vlib_global_main;
744   elog_main_t *em = &vm->elog_main;
745   u8 *filename;
746   clib_error_t *error;
747
748   if (!vm->elog_post_mortem_dump)
749     return;
750
751   filename = format (0, "/tmp/elog_post_mortem.%d%c", getpid (), 0);
752   error = elog_write_file (em, (char *) filename, 1 /* flush ring */ );
753   if (error)
754     clib_error_report (error);
755   vec_free (filename);
756 }
757
758 /* *INDENT-OFF* */
759 VLIB_CLI_COMMAND (elog_save_cli, static) = {
760   .path = "event-logger save",
761   .short_help = "event-logger save <filename> (saves log in /tmp/<filename>)",
762   .function = elog_save_buffer,
763 };
764 /* *INDENT-ON* */
765
766 static clib_error_t *
767 elog_stop (vlib_main_t * vm,
768            unformat_input_t * input, vlib_cli_command_t * cmd)
769 {
770   elog_main_t *em = &vm->elog_main;
771
772   em->n_total_events_disable_limit = em->n_total_events;
773
774   vlib_cli_output (vm, "Stopped the event logger...");
775   return 0;
776 }
777
778 /* *INDENT-OFF* */
779 VLIB_CLI_COMMAND (elog_stop_cli, static) = {
780   .path = "event-logger stop",
781   .short_help = "Stop the event-logger",
782   .function = elog_stop,
783 };
784 /* *INDENT-ON* */
785
786 static clib_error_t *
787 elog_restart (vlib_main_t * vm,
788               unformat_input_t * input, vlib_cli_command_t * cmd)
789 {
790   elog_main_t *em = &vm->elog_main;
791
792   em->n_total_events_disable_limit = ~0;
793
794   vlib_cli_output (vm, "Restarted the event logger...");
795   return 0;
796 }
797
798 /* *INDENT-OFF* */
799 VLIB_CLI_COMMAND (elog_restart_cli, static) = {
800   .path = "event-logger restart",
801   .short_help = "Restart the event-logger",
802   .function = elog_restart,
803 };
804 /* *INDENT-ON* */
805
806 static clib_error_t *
807 elog_resize (vlib_main_t * vm,
808              unformat_input_t * input, vlib_cli_command_t * cmd)
809 {
810   elog_main_t *em = &vm->elog_main;
811   u32 tmp;
812
813   /* Stop the parade */
814   elog_reset_buffer (&vm->elog_main);
815
816   if (unformat (input, "%d", &tmp))
817     {
818       elog_alloc (em, tmp);
819       em->n_total_events_disable_limit = ~0;
820     }
821   else
822     return clib_error_return (0, "Must specify how many events in the ring");
823
824   vlib_cli_output (vm, "Resized ring and restarted the event logger...");
825   return 0;
826 }
827
828 /* *INDENT-OFF* */
829 VLIB_CLI_COMMAND (elog_resize_cli, static) = {
830   .path = "event-logger resize",
831   .short_help = "event-logger resize <nnn>",
832   .function = elog_resize,
833 };
834 /* *INDENT-ON* */
835
836 #endif /* CLIB_UNIX */
837
838 static void
839 elog_show_buffer_internal (vlib_main_t * vm, u32 n_events_to_show)
840 {
841   elog_main_t *em = &vm->elog_main;
842   elog_event_t *e, *es;
843   f64 dt;
844
845   /* Show events in VLIB time since log clock starts after VLIB clock. */
846   dt = (em->init_time.cpu - vm->clib_time.init_cpu_time)
847     * vm->clib_time.seconds_per_clock;
848
849   es = elog_peek_events (em);
850   vlib_cli_output (vm, "%d of %d events in buffer, logger %s", vec_len (es),
851                    em->event_ring_size,
852                    em->n_total_events < em->n_total_events_disable_limit ?
853                    "running" : "stopped");
854   vec_foreach (e, es)
855   {
856     vlib_cli_output (vm, "%18.9f: %U",
857                      e->time + dt, format_elog_event, em, e);
858     n_events_to_show--;
859     if (n_events_to_show == 0)
860       break;
861   }
862   vec_free (es);
863
864 }
865
866 static clib_error_t *
867 elog_show_buffer (vlib_main_t * vm,
868                   unformat_input_t * input, vlib_cli_command_t * cmd)
869 {
870   u32 n_events_to_show;
871   clib_error_t *error = 0;
872
873   n_events_to_show = 250;
874   while (unformat_check_input (input) != UNFORMAT_END_OF_INPUT)
875     {
876       if (unformat (input, "%d", &n_events_to_show))
877         ;
878       else if (unformat (input, "all"))
879         n_events_to_show = ~0;
880       else
881         return unformat_parse_error (input);
882     }
883   elog_show_buffer_internal (vm, n_events_to_show);
884   return error;
885 }
886
887 /* *INDENT-OFF* */
888 VLIB_CLI_COMMAND (elog_show_cli, static) = {
889   .path = "show event-logger",
890   .short_help = "Show event logger info",
891   .function = elog_show_buffer,
892 };
893 /* *INDENT-ON* */
894
895 void
896 vlib_gdb_show_event_log (void)
897 {
898   elog_show_buffer_internal (vlib_get_main (), (u32) ~ 0);
899 }
900
901 static inline void
902 vlib_elog_main_loop_event (vlib_main_t * vm,
903                            u32 node_index,
904                            u64 time, u32 n_vectors, u32 is_return)
905 {
906   vlib_main_t *evm = &vlib_global_main;
907   elog_main_t *em = &evm->elog_main;
908
909   if (VLIB_ELOG_MAIN_LOOP && n_vectors)
910     elog_track (em,
911                 /* event type */
912                 vec_elt_at_index (is_return
913                                   ? evm->node_return_elog_event_types
914                                   : evm->node_call_elog_event_types,
915                                   node_index),
916                 /* track */
917                 (vm->thread_index ? &vlib_worker_threads[vm->thread_index].
918                  elog_track : &em->default_track),
919                 /* data to log */ n_vectors);
920 }
921
922 #if VLIB_BUFFER_TRACE_TRAJECTORY > 0
923 void (*vlib_buffer_trace_trajectory_cb) (vlib_buffer_t * b, u32 node_index);
924 void (*vlib_buffer_trace_trajectory_init_cb) (vlib_buffer_t * b);
925
926 void
927 vlib_buffer_trace_trajectory_init (vlib_buffer_t * b)
928 {
929   if (PREDICT_TRUE (vlib_buffer_trace_trajectory_init_cb != 0))
930     {
931       (*vlib_buffer_trace_trajectory_init_cb) (b);
932     }
933 }
934
935 #endif
936
937 static inline void
938 add_trajectory_trace (vlib_buffer_t * b, u32 node_index)
939 {
940 #if VLIB_BUFFER_TRACE_TRAJECTORY > 0
941   if (PREDICT_TRUE (vlib_buffer_trace_trajectory_cb != 0))
942     {
943       (*vlib_buffer_trace_trajectory_cb) (b, node_index);
944     }
945 #endif
946 }
947
948 static void
949 dispatch_pcap_trace (vlib_main_t * vm,
950                      vlib_node_runtime_t * node, vlib_frame_t * frame)
951 {
952   int i;
953   vlib_buffer_t *bufs[VLIB_FRAME_SIZE], **bufp, *b;
954   u8 name_tlv[64];
955   pcap_main_t *pm = &vm->dispatch_pcap_main;
956   vlib_trace_main_t *tm = &vm->trace_main;
957   u32 capture_size;
958   vlib_node_t *n;
959   u8 *packet_trace = 0;
960   i32 n_left;
961   f64 time_now = vlib_time_now (vm);
962   u32 *from;
963   u32 name_length;
964   u16 trace_length;
965   u8 version[2];
966   u8 *d;
967
968   /* Input nodes don't have frames yet */
969   if (frame == 0 || frame->n_vectors == 0)
970     return;
971
972   from = vlib_frame_vector_args (frame);
973   vlib_get_buffers (vm, from, bufs, frame->n_vectors);
974   bufp = bufs;
975
976   /* Create a node name TLV, since WS can't possibly guess */
977   n = vlib_get_node (vm, node->node_index);
978   name_length = vec_len (n->name);
979   name_length = name_length < ARRAY_LEN (name_tlv) - 2 ?
980     name_length : ARRAY_LEN (name_tlv) - 2;
981
982   name_tlv[0] = (u8) name_length;
983   clib_memcpy_fast (name_tlv + 1, n->name, name_length);
984   name_tlv[name_length + 1] = 0;
985
986   for (i = 0; i < frame->n_vectors; i++)
987     {
988       if (PREDICT_TRUE (pm->n_packets_captured < pm->n_packets_to_capture))
989         {
990           b = bufp[i];
991
992           version[0] = VLIB_PCAP_MAJOR_VERSION;
993           version[1] = VLIB_PCAP_MINOR_VERSION;
994
995           vec_reset_length (packet_trace);
996
997           /* Is this packet traced? */
998           if (PREDICT_FALSE (b->flags & VLIB_BUFFER_IS_TRACED))
999             {
1000               vlib_trace_header_t **h
1001                 = pool_elt_at_index (tm->trace_buffer_pool, b->trace_index);
1002
1003               packet_trace = format (packet_trace, "%U%c",
1004                                      format_vlib_trace, vm, h[0], 0);
1005             }
1006
1007           /* Figure out how many bytes we're capturing */
1008           /* *INDENT-OFF* */
1009           capture_size = (sizeof (vlib_buffer_t) - VLIB_BUFFER_PRE_DATA_SIZE)
1010             + sizeof (version)
1011             + vlib_buffer_length_in_chain (vm, b)
1012             + sizeof (u32) + (name_length + 2)  /* +2: count plus NULL byte */
1013             + (vec_len (packet_trace) + 2);     /* +2: trace count */
1014           /* *INDENT-ON* */
1015
1016           clib_spinlock_lock_if_init (&pm->lock);
1017           n_left = clib_min (capture_size, 16384);
1018           d = pcap_add_packet (pm, time_now, n_left, capture_size);
1019
1020           /* Copy the (major, minor) version numbers */
1021           clib_memcpy_fast (d, version, sizeof (version));
1022           d += sizeof (version);
1023
1024           /* Copy the buffer index */
1025           clib_memcpy_fast (d, &from[i], sizeof (u32));
1026           d += 4;
1027
1028           /* Copy the name TLV */
1029           clib_memcpy_fast (d, name_tlv, name_length + 2);
1030           d += name_length + 2;
1031
1032           /* Copy the buffer metadata, but not the rewrite space */
1033           clib_memcpy_fast (d, b, sizeof (*b) - VLIB_BUFFER_PRE_DATA_SIZE);
1034           d += sizeof (*b) - VLIB_BUFFER_PRE_DATA_SIZE;
1035
1036           trace_length = vec_len (packet_trace);
1037           /* Copy the trace data length (may be zero) */
1038           clib_memcpy_fast (d, &trace_length, sizeof (trace_length));
1039           d += 2;
1040
1041           /* Copy packet trace data (if any) */
1042           if (vec_len (packet_trace))
1043             clib_memcpy_fast (d, packet_trace, vec_len (packet_trace));
1044
1045           d += vec_len (packet_trace);
1046
1047           n_left = clib_min
1048             (vlib_buffer_length_in_chain (vm, b),
1049              16384 -
1050              ((sizeof (*b) - VLIB_BUFFER_PRE_DATA_SIZE) +
1051               (trace_length + 2)));
1052           /* Copy the packet data */
1053           while (1)
1054             {
1055               u32 copy_length = clib_min ((u32) n_left, b->current_length);
1056               clib_memcpy_fast (d, b->data + b->current_data, copy_length);
1057               n_left -= b->current_length;
1058               if (n_left <= 0)
1059                 break;
1060               d += b->current_length;
1061               ASSERT (b->flags & VLIB_BUFFER_NEXT_PRESENT);
1062               b = vlib_get_buffer (vm, b->next_buffer);
1063             }
1064           clib_spinlock_unlock_if_init (&pm->lock);
1065         }
1066     }
1067   vec_free (packet_trace);
1068 }
1069
1070 static_always_inline u64
1071 dispatch_node (vlib_main_t * vm,
1072                vlib_node_runtime_t * node,
1073                vlib_node_type_t type,
1074                vlib_node_state_t dispatch_state,
1075                vlib_frame_t * frame, u64 last_time_stamp)
1076 {
1077   uword n, v;
1078   u64 t;
1079   vlib_node_main_t *nm = &vm->node_main;
1080   vlib_next_frame_t *nf;
1081
1082   if (CLIB_DEBUG > 0)
1083     {
1084       vlib_node_t *n = vlib_get_node (vm, node->node_index);
1085       ASSERT (n->type == type);
1086     }
1087
1088   /* Only non-internal nodes may be disabled. */
1089   if (type != VLIB_NODE_TYPE_INTERNAL && node->state != dispatch_state)
1090     {
1091       ASSERT (type != VLIB_NODE_TYPE_INTERNAL);
1092       return last_time_stamp;
1093     }
1094
1095   if ((type == VLIB_NODE_TYPE_PRE_INPUT || type == VLIB_NODE_TYPE_INPUT)
1096       && dispatch_state != VLIB_NODE_STATE_INTERRUPT)
1097     {
1098       u32 c = node->input_main_loops_per_call;
1099       /* Only call node when count reaches zero. */
1100       if (c)
1101         {
1102           node->input_main_loops_per_call = c - 1;
1103           return last_time_stamp;
1104         }
1105     }
1106
1107   /* Speculatively prefetch next frames. */
1108   if (node->n_next_nodes > 0)
1109     {
1110       nf = vec_elt_at_index (nm->next_frames, node->next_frame_index);
1111       CLIB_PREFETCH (nf, 4 * sizeof (nf[0]), WRITE);
1112     }
1113
1114   vm->cpu_time_last_node_dispatch = last_time_stamp;
1115
1116   if (1 /* || vm->thread_index == node->thread_index */ )
1117     {
1118       u64 pmc_before, pmc_delta;
1119
1120       vlib_elog_main_loop_event (vm, node->node_index,
1121                                  last_time_stamp,
1122                                  frame ? frame->n_vectors : 0,
1123                                  /* is_after */ 0);
1124
1125       /*
1126        * To validate accounting: pmc_before = last_time_stamp
1127        * perf ticks should equal clocks/pkt...
1128        */
1129       pmc_before = vlib_node_runtime_perf_counter (vm);
1130
1131       /*
1132        * Turn this on if you run into
1133        * "bad monkey" contexts, and you want to know exactly
1134        * which nodes they've visited... See ixge.c...
1135        */
1136       if (VLIB_BUFFER_TRACE_TRAJECTORY && frame)
1137         {
1138           int i;
1139           u32 *from;
1140           from = vlib_frame_vector_args (frame);
1141           for (i = 0; i < frame->n_vectors; i++)
1142             {
1143               vlib_buffer_t *b = vlib_get_buffer (vm, from[i]);
1144               add_trajectory_trace (b, node->node_index);
1145             }
1146           if (PREDICT_FALSE (vm->dispatch_pcap_enable))
1147             dispatch_pcap_trace (vm, node, frame);
1148           n = node->function (vm, node, frame);
1149         }
1150       else
1151         {
1152           if (PREDICT_FALSE (vm->dispatch_pcap_enable))
1153             dispatch_pcap_trace (vm, node, frame);
1154           n = node->function (vm, node, frame);
1155         }
1156
1157       t = clib_cpu_time_now ();
1158
1159       /*
1160        * To validate accounting: pmc_delta = t - pmc_before;
1161        * perf ticks should equal clocks/pkt...
1162        */
1163       pmc_delta = vlib_node_runtime_perf_counter (vm) - pmc_before;
1164
1165       vlib_elog_main_loop_event (vm, node->node_index, t, n,    /* is_after */
1166                                  1);
1167
1168       vm->main_loop_vectors_processed += n;
1169       vm->main_loop_nodes_processed += n > 0;
1170
1171       v = vlib_node_runtime_update_stats (vm, node,
1172                                           /* n_calls */ 1,
1173                                           /* n_vectors */ n,
1174                                           /* n_clocks */ t - last_time_stamp,
1175                                           pmc_delta /* PMC ticks */ );
1176
1177       /* When in interrupt mode and vector rate crosses threshold switch to
1178          polling mode. */
1179       if ((dispatch_state == VLIB_NODE_STATE_INTERRUPT)
1180           || (dispatch_state == VLIB_NODE_STATE_POLLING
1181               && (node->flags
1182                   & VLIB_NODE_FLAG_SWITCH_FROM_INTERRUPT_TO_POLLING_MODE)))
1183         {
1184 #ifdef DISPATCH_NODE_ELOG_REQUIRED
1185           ELOG_TYPE_DECLARE (e) =
1186           {
1187             .function = (char *) __FUNCTION__,.format =
1188               "%s vector length %d, switching to %s",.format_args =
1189               "T4i4t4",.n_enum_strings = 2,.enum_strings =
1190             {
1191           "interrupt", "polling",},};
1192           struct
1193           {
1194             u32 node_name, vector_length, is_polling;
1195           } *ed;
1196           vlib_worker_thread_t *w = vlib_worker_threads + vm->thread_index;
1197 #endif
1198
1199           if ((dispatch_state == VLIB_NODE_STATE_INTERRUPT
1200                && v >= nm->polling_threshold_vector_length) &&
1201               !(node->flags &
1202                 VLIB_NODE_FLAG_SWITCH_FROM_INTERRUPT_TO_POLLING_MODE))
1203             {
1204               vlib_node_t *n = vlib_get_node (vm, node->node_index);
1205               n->state = VLIB_NODE_STATE_POLLING;
1206               node->state = VLIB_NODE_STATE_POLLING;
1207               node->flags &=
1208                 ~VLIB_NODE_FLAG_SWITCH_FROM_POLLING_TO_INTERRUPT_MODE;
1209               node->flags |=
1210                 VLIB_NODE_FLAG_SWITCH_FROM_INTERRUPT_TO_POLLING_MODE;
1211               nm->input_node_counts_by_state[VLIB_NODE_STATE_INTERRUPT] -= 1;
1212               nm->input_node_counts_by_state[VLIB_NODE_STATE_POLLING] += 1;
1213
1214 #ifdef DISPATCH_NODE_ELOG_REQUIRED
1215               ed = ELOG_TRACK_DATA (&vlib_global_main.elog_main, e,
1216                                     w->elog_track);
1217               ed->node_name = n->name_elog_string;
1218               ed->vector_length = v;
1219               ed->is_polling = 1;
1220 #endif
1221             }
1222           else if (dispatch_state == VLIB_NODE_STATE_POLLING
1223                    && v <= nm->interrupt_threshold_vector_length)
1224             {
1225               vlib_node_t *n = vlib_get_node (vm, node->node_index);
1226               if (node->flags &
1227                   VLIB_NODE_FLAG_SWITCH_FROM_POLLING_TO_INTERRUPT_MODE)
1228                 {
1229                   /* Switch to interrupt mode after dispatch in polling one more time.
1230                      This allows driver to re-enable interrupts. */
1231                   n->state = VLIB_NODE_STATE_INTERRUPT;
1232                   node->state = VLIB_NODE_STATE_INTERRUPT;
1233                   node->flags &=
1234                     ~VLIB_NODE_FLAG_SWITCH_FROM_INTERRUPT_TO_POLLING_MODE;
1235                   nm->input_node_counts_by_state[VLIB_NODE_STATE_POLLING] -=
1236                     1;
1237                   nm->input_node_counts_by_state[VLIB_NODE_STATE_INTERRUPT] +=
1238                     1;
1239
1240                 }
1241               else
1242                 {
1243                   node->flags |=
1244                     VLIB_NODE_FLAG_SWITCH_FROM_POLLING_TO_INTERRUPT_MODE;
1245 #ifdef DISPATCH_NODE_ELOG_REQUIRED
1246                   ed = ELOG_TRACK_DATA (&vlib_global_main.elog_main, e,
1247                                         w->elog_track);
1248                   ed->node_name = n->name_elog_string;
1249                   ed->vector_length = v;
1250                   ed->is_polling = 0;
1251 #endif
1252                 }
1253             }
1254         }
1255     }
1256
1257   return t;
1258 }
1259
1260 static u64
1261 dispatch_pending_node (vlib_main_t * vm, uword pending_frame_index,
1262                        u64 last_time_stamp)
1263 {
1264   vlib_node_main_t *nm = &vm->node_main;
1265   vlib_frame_t *f;
1266   vlib_next_frame_t *nf, nf_dummy;
1267   vlib_node_runtime_t *n;
1268   u32 restore_frame_index;
1269   vlib_pending_frame_t *p;
1270
1271   /* See comment below about dangling references to nm->pending_frames */
1272   p = nm->pending_frames + pending_frame_index;
1273
1274   n = vec_elt_at_index (nm->nodes_by_type[VLIB_NODE_TYPE_INTERNAL],
1275                         p->node_runtime_index);
1276
1277   f = vlib_get_frame (vm, p->frame_index);
1278   if (p->next_frame_index == VLIB_PENDING_FRAME_NO_NEXT_FRAME)
1279     {
1280       /* No next frame: so use dummy on stack. */
1281       nf = &nf_dummy;
1282       nf->flags = f->frame_flags & VLIB_NODE_FLAG_TRACE;
1283       nf->frame_index = ~p->frame_index;
1284     }
1285   else
1286     nf = vec_elt_at_index (nm->next_frames, p->next_frame_index);
1287
1288   ASSERT (f->frame_flags & VLIB_FRAME_IS_ALLOCATED);
1289
1290   /* Force allocation of new frame while current frame is being
1291      dispatched. */
1292   restore_frame_index = ~0;
1293   if (nf->frame_index == p->frame_index)
1294     {
1295       nf->frame_index = ~0;
1296       nf->flags &= ~VLIB_FRAME_IS_ALLOCATED;
1297       if (!(n->flags & VLIB_NODE_FLAG_FRAME_NO_FREE_AFTER_DISPATCH))
1298         restore_frame_index = p->frame_index;
1299     }
1300
1301   /* Frame must be pending. */
1302   ASSERT (f->frame_flags & VLIB_FRAME_PENDING);
1303   ASSERT (f->n_vectors > 0);
1304
1305   /* Copy trace flag from next frame to node.
1306      Trace flag indicates that at least one vector in the dispatched
1307      frame is traced. */
1308   n->flags &= ~VLIB_NODE_FLAG_TRACE;
1309   n->flags |= (nf->flags & VLIB_FRAME_TRACE) ? VLIB_NODE_FLAG_TRACE : 0;
1310   nf->flags &= ~VLIB_FRAME_TRACE;
1311
1312   last_time_stamp = dispatch_node (vm, n,
1313                                    VLIB_NODE_TYPE_INTERNAL,
1314                                    VLIB_NODE_STATE_POLLING,
1315                                    f, last_time_stamp);
1316
1317   f->frame_flags &= ~VLIB_FRAME_PENDING;
1318
1319   /* Frame is ready to be used again, so restore it. */
1320   if (restore_frame_index != ~0)
1321     {
1322       /*
1323        * We musn't restore a frame that is flagged to be freed. This
1324        * shouldn't happen since frames to be freed post dispatch are
1325        * those used when the to-node frame becomes full i.e. they form a
1326        * sort of queue of frames to a single node. If we get here then
1327        * the to-node frame and the pending frame *were* the same, and so
1328        * we removed the to-node frame.  Therefore this frame is no
1329        * longer part of the queue for that node and hence it cannot be
1330        * it's overspill.
1331        */
1332       ASSERT (!(f->frame_flags & VLIB_FRAME_FREE_AFTER_DISPATCH));
1333
1334       /*
1335        * NB: dispatching node n can result in the creation and scheduling
1336        * of new frames, and hence in the reallocation of nm->pending_frames.
1337        * Recompute p, or no supper. This was broken for more than 10 years.
1338        */
1339       p = nm->pending_frames + pending_frame_index;
1340
1341       /*
1342        * p->next_frame_index can change during node dispatch if node
1343        * function decides to change graph hook up.
1344        */
1345       nf = vec_elt_at_index (nm->next_frames, p->next_frame_index);
1346       nf->flags |= VLIB_FRAME_IS_ALLOCATED;
1347
1348       if (~0 == nf->frame_index)
1349         {
1350           /* no new frame has been assigned to this node, use the saved one */
1351           nf->frame_index = restore_frame_index;
1352           f->n_vectors = 0;
1353         }
1354       else
1355         {
1356           /* The node has gained a frame, implying packets from the current frame
1357              were re-queued to this same node. we don't need the saved one
1358              anymore */
1359           vlib_frame_free (vm, n, f);
1360         }
1361     }
1362   else
1363     {
1364       if (f->frame_flags & VLIB_FRAME_FREE_AFTER_DISPATCH)
1365         {
1366           ASSERT (!(n->flags & VLIB_NODE_FLAG_FRAME_NO_FREE_AFTER_DISPATCH));
1367           vlib_frame_free (vm, n, f);
1368         }
1369     }
1370
1371   return last_time_stamp;
1372 }
1373
1374 always_inline uword
1375 vlib_process_stack_is_valid (vlib_process_t * p)
1376 {
1377   return p->stack[0] == VLIB_PROCESS_STACK_MAGIC;
1378 }
1379
1380 typedef struct
1381 {
1382   vlib_main_t *vm;
1383   vlib_process_t *process;
1384   vlib_frame_t *frame;
1385 } vlib_process_bootstrap_args_t;
1386
1387 /* Called in process stack. */
1388 static uword
1389 vlib_process_bootstrap (uword _a)
1390 {
1391   vlib_process_bootstrap_args_t *a;
1392   vlib_main_t *vm;
1393   vlib_node_runtime_t *node;
1394   vlib_frame_t *f;
1395   vlib_process_t *p;
1396   uword n;
1397
1398   a = uword_to_pointer (_a, vlib_process_bootstrap_args_t *);
1399
1400   vm = a->vm;
1401   p = a->process;
1402   f = a->frame;
1403   node = &p->node_runtime;
1404
1405   n = node->function (vm, node, f);
1406
1407   ASSERT (vlib_process_stack_is_valid (p));
1408
1409   clib_longjmp (&p->return_longjmp, n);
1410
1411   return n;
1412 }
1413
1414 /* Called in main stack. */
1415 static_always_inline uword
1416 vlib_process_startup (vlib_main_t * vm, vlib_process_t * p, vlib_frame_t * f)
1417 {
1418   vlib_process_bootstrap_args_t a;
1419   uword r;
1420
1421   a.vm = vm;
1422   a.process = p;
1423   a.frame = f;
1424
1425   r = clib_setjmp (&p->return_longjmp, VLIB_PROCESS_RETURN_LONGJMP_RETURN);
1426   if (r == VLIB_PROCESS_RETURN_LONGJMP_RETURN)
1427     r = clib_calljmp (vlib_process_bootstrap, pointer_to_uword (&a),
1428                       (void *) p->stack + (1 << p->log2_n_stack_bytes));
1429
1430   return r;
1431 }
1432
1433 static_always_inline uword
1434 vlib_process_resume (vlib_process_t * p)
1435 {
1436   uword r;
1437   p->flags &= ~(VLIB_PROCESS_IS_SUSPENDED_WAITING_FOR_CLOCK
1438                 | VLIB_PROCESS_IS_SUSPENDED_WAITING_FOR_EVENT
1439                 | VLIB_PROCESS_RESUME_PENDING);
1440   r = clib_setjmp (&p->return_longjmp, VLIB_PROCESS_RETURN_LONGJMP_RETURN);
1441   if (r == VLIB_PROCESS_RETURN_LONGJMP_RETURN)
1442     clib_longjmp (&p->resume_longjmp, VLIB_PROCESS_RESUME_LONGJMP_RESUME);
1443   return r;
1444 }
1445
1446 static u64
1447 dispatch_process (vlib_main_t * vm,
1448                   vlib_process_t * p, vlib_frame_t * f, u64 last_time_stamp)
1449 {
1450   vlib_node_main_t *nm = &vm->node_main;
1451   vlib_node_runtime_t *node_runtime = &p->node_runtime;
1452   vlib_node_t *node = vlib_get_node (vm, node_runtime->node_index);
1453   u32 old_process_index;
1454   u64 t;
1455   uword n_vectors, is_suspend;
1456
1457   if (node->state != VLIB_NODE_STATE_POLLING
1458       || (p->flags & (VLIB_PROCESS_IS_SUSPENDED_WAITING_FOR_CLOCK
1459                       | VLIB_PROCESS_IS_SUSPENDED_WAITING_FOR_EVENT)))
1460     return last_time_stamp;
1461
1462   p->flags |= VLIB_PROCESS_IS_RUNNING;
1463
1464   t = last_time_stamp;
1465   vlib_elog_main_loop_event (vm, node_runtime->node_index, t,
1466                              f ? f->n_vectors : 0, /* is_after */ 0);
1467
1468   /* Save away current process for suspend. */
1469   old_process_index = nm->current_process_index;
1470   nm->current_process_index = node->runtime_index;
1471
1472   n_vectors = vlib_process_startup (vm, p, f);
1473
1474   nm->current_process_index = old_process_index;
1475
1476   ASSERT (n_vectors != VLIB_PROCESS_RETURN_LONGJMP_RETURN);
1477   is_suspend = n_vectors == VLIB_PROCESS_RETURN_LONGJMP_SUSPEND;
1478   if (is_suspend)
1479     {
1480       vlib_pending_frame_t *pf;
1481
1482       n_vectors = 0;
1483       pool_get (nm->suspended_process_frames, pf);
1484       pf->node_runtime_index = node->runtime_index;
1485       pf->frame_index = f ? vlib_frame_index (vm, f) : ~0;
1486       pf->next_frame_index = ~0;
1487
1488       p->n_suspends += 1;
1489       p->suspended_process_frame_index = pf - nm->suspended_process_frames;
1490
1491       if (p->flags & VLIB_PROCESS_IS_SUSPENDED_WAITING_FOR_CLOCK)
1492         {
1493           TWT (tw_timer_wheel) * tw =
1494             (TWT (tw_timer_wheel) *) nm->timing_wheel;
1495           p->stop_timer_handle =
1496             TW (tw_timer_start) (tw,
1497                                  vlib_timing_wheel_data_set_suspended_process
1498                                  (node->runtime_index) /* [sic] pool idex */ ,
1499                                  0 /* timer_id */ ,
1500                                  p->resume_clock_interval);
1501         }
1502     }
1503   else
1504     p->flags &= ~VLIB_PROCESS_IS_RUNNING;
1505
1506   t = clib_cpu_time_now ();
1507
1508   vlib_elog_main_loop_event (vm, node_runtime->node_index, t, is_suspend,
1509                              /* is_after */ 1);
1510
1511   vlib_process_update_stats (vm, p,
1512                              /* n_calls */ !is_suspend,
1513                              /* n_vectors */ n_vectors,
1514                              /* n_clocks */ t - last_time_stamp,
1515                              /* pmc_ticks */ 0ULL);
1516
1517   return t;
1518 }
1519
1520 void
1521 vlib_start_process (vlib_main_t * vm, uword process_index)
1522 {
1523   vlib_node_main_t *nm = &vm->node_main;
1524   vlib_process_t *p = vec_elt (nm->processes, process_index);
1525   dispatch_process (vm, p, /* frame */ 0, /* cpu_time_now */ 0);
1526 }
1527
1528 static u64
1529 dispatch_suspended_process (vlib_main_t * vm,
1530                             uword process_index, u64 last_time_stamp)
1531 {
1532   vlib_node_main_t *nm = &vm->node_main;
1533   vlib_node_runtime_t *node_runtime;
1534   vlib_node_t *node;
1535   vlib_frame_t *f;
1536   vlib_process_t *p;
1537   vlib_pending_frame_t *pf;
1538   u64 t, n_vectors, is_suspend;
1539
1540   t = last_time_stamp;
1541
1542   p = vec_elt (nm->processes, process_index);
1543   if (PREDICT_FALSE (!(p->flags & VLIB_PROCESS_IS_RUNNING)))
1544     return last_time_stamp;
1545
1546   ASSERT (p->flags & (VLIB_PROCESS_IS_SUSPENDED_WAITING_FOR_CLOCK
1547                       | VLIB_PROCESS_IS_SUSPENDED_WAITING_FOR_EVENT));
1548
1549   pf = pool_elt_at_index (nm->suspended_process_frames,
1550                           p->suspended_process_frame_index);
1551
1552   node_runtime = &p->node_runtime;
1553   node = vlib_get_node (vm, node_runtime->node_index);
1554   f = pf->frame_index != ~0 ? vlib_get_frame (vm, pf->frame_index) : 0;
1555
1556   vlib_elog_main_loop_event (vm, node_runtime->node_index, t,
1557                              f ? f->n_vectors : 0, /* is_after */ 0);
1558
1559   /* Save away current process for suspend. */
1560   nm->current_process_index = node->runtime_index;
1561
1562   n_vectors = vlib_process_resume (p);
1563   t = clib_cpu_time_now ();
1564
1565   nm->current_process_index = ~0;
1566
1567   is_suspend = n_vectors == VLIB_PROCESS_RETURN_LONGJMP_SUSPEND;
1568   if (is_suspend)
1569     {
1570       /* Suspend it again. */
1571       n_vectors = 0;
1572       p->n_suspends += 1;
1573       if (p->flags & VLIB_PROCESS_IS_SUSPENDED_WAITING_FOR_CLOCK)
1574         {
1575           p->stop_timer_handle =
1576             TW (tw_timer_start) ((TWT (tw_timer_wheel) *) nm->timing_wheel,
1577                                  vlib_timing_wheel_data_set_suspended_process
1578                                  (node->runtime_index) /* [sic] pool idex */ ,
1579                                  0 /* timer_id */ ,
1580                                  p->resume_clock_interval);
1581         }
1582     }
1583   else
1584     {
1585       p->flags &= ~VLIB_PROCESS_IS_RUNNING;
1586       pool_put_index (nm->suspended_process_frames,
1587                       p->suspended_process_frame_index);
1588       p->suspended_process_frame_index = ~0;
1589     }
1590
1591   t = clib_cpu_time_now ();
1592   vlib_elog_main_loop_event (vm, node_runtime->node_index, t, !is_suspend,
1593                              /* is_after */ 1);
1594
1595   vlib_process_update_stats (vm, p,
1596                              /* n_calls */ !is_suspend,
1597                              /* n_vectors */ n_vectors,
1598                              /* n_clocks */ t - last_time_stamp,
1599                              /* pmc_ticks */ 0ULL);
1600
1601   return t;
1602 }
1603
1604 void vl_api_send_pending_rpc_requests (vlib_main_t *) __attribute__ ((weak));
1605 void
1606 vl_api_send_pending_rpc_requests (vlib_main_t * vm)
1607 {
1608 }
1609
1610
1611 static_always_inline void
1612 vlib_main_or_worker_loop (vlib_main_t * vm, int is_main)
1613 {
1614   vlib_node_main_t *nm = &vm->node_main;
1615   vlib_thread_main_t *tm = vlib_get_thread_main ();
1616   uword i;
1617   u64 cpu_time_now;
1618   vlib_frame_queue_main_t *fqm;
1619   u32 *last_node_runtime_indices = 0;
1620
1621   /* Initialize pending node vector. */
1622   if (is_main)
1623     {
1624       vec_resize (nm->pending_frames, 32);
1625       _vec_len (nm->pending_frames) = 0;
1626     }
1627
1628   /* Mark time of main loop start. */
1629   if (is_main)
1630     {
1631       cpu_time_now = vm->clib_time.last_cpu_time;
1632       vm->cpu_time_main_loop_start = cpu_time_now;
1633     }
1634   else
1635     cpu_time_now = clib_cpu_time_now ();
1636
1637   /* Pre-allocate interupt runtime indices and lock. */
1638   vec_alloc (nm->pending_interrupt_node_runtime_indices, 32);
1639   vec_alloc (last_node_runtime_indices, 32);
1640   if (!is_main)
1641     clib_spinlock_init (&nm->pending_interrupt_lock);
1642
1643   /* Pre-allocate expired nodes. */
1644   if (!nm->polling_threshold_vector_length)
1645     nm->polling_threshold_vector_length = 10;
1646   if (!nm->interrupt_threshold_vector_length)
1647     nm->interrupt_threshold_vector_length = 5;
1648
1649   /* Make sure the performance monitor counter is disabled */
1650   vm->perf_counter_id = ~0;
1651
1652   /* Start all processes. */
1653   if (is_main)
1654     {
1655       uword i;
1656       nm->current_process_index = ~0;
1657       for (i = 0; i < vec_len (nm->processes); i++)
1658         cpu_time_now = dispatch_process (vm, nm->processes[i], /* frame */ 0,
1659                                          cpu_time_now);
1660     }
1661
1662   while (1)
1663     {
1664       vlib_node_runtime_t *n;
1665
1666       if (PREDICT_FALSE (_vec_len (vm->pending_rpc_requests) > 0))
1667         {
1668           if (!is_main)
1669             vl_api_send_pending_rpc_requests (vm);
1670         }
1671
1672       if (!is_main)
1673         {
1674           vlib_worker_thread_barrier_check ();
1675           vec_foreach (fqm, tm->frame_queue_mains)
1676             vlib_frame_queue_dequeue (vm, fqm);
1677           if (PREDICT_FALSE (vm->worker_thread_main_loop_callback != 0))
1678             ((void (*)(vlib_main_t *)) vm->worker_thread_main_loop_callback)
1679               (vm);
1680         }
1681
1682       /* Process pre-input nodes. */
1683       vec_foreach (n, nm->nodes_by_type[VLIB_NODE_TYPE_PRE_INPUT])
1684         cpu_time_now = dispatch_node (vm, n,
1685                                       VLIB_NODE_TYPE_PRE_INPUT,
1686                                       VLIB_NODE_STATE_POLLING,
1687                                       /* frame */ 0,
1688                                       cpu_time_now);
1689
1690       /* Next process input nodes. */
1691       vec_foreach (n, nm->nodes_by_type[VLIB_NODE_TYPE_INPUT])
1692         cpu_time_now = dispatch_node (vm, n,
1693                                       VLIB_NODE_TYPE_INPUT,
1694                                       VLIB_NODE_STATE_POLLING,
1695                                       /* frame */ 0,
1696                                       cpu_time_now);
1697
1698       if (PREDICT_TRUE (is_main && vm->queue_signal_pending == 0))
1699         vm->queue_signal_callback (vm);
1700
1701       /* Next handle interrupts. */
1702       {
1703         /* unlocked read, for performance */
1704         uword l = _vec_len (nm->pending_interrupt_node_runtime_indices);
1705         uword i;
1706         if (PREDICT_FALSE (l > 0))
1707           {
1708             u32 *tmp;
1709             if (!is_main)
1710               {
1711                 clib_spinlock_lock (&nm->pending_interrupt_lock);
1712                 /* Re-read w/ lock held, in case another thread added an item */
1713                 l = _vec_len (nm->pending_interrupt_node_runtime_indices);
1714               }
1715
1716             tmp = nm->pending_interrupt_node_runtime_indices;
1717             nm->pending_interrupt_node_runtime_indices =
1718               last_node_runtime_indices;
1719             last_node_runtime_indices = tmp;
1720             _vec_len (last_node_runtime_indices) = 0;
1721             if (!is_main)
1722               clib_spinlock_unlock (&nm->pending_interrupt_lock);
1723             for (i = 0; i < l; i++)
1724               {
1725                 n = vec_elt_at_index (nm->nodes_by_type[VLIB_NODE_TYPE_INPUT],
1726                                       last_node_runtime_indices[i]);
1727                 cpu_time_now =
1728                   dispatch_node (vm, n, VLIB_NODE_TYPE_INPUT,
1729                                  VLIB_NODE_STATE_INTERRUPT,
1730                                  /* frame */ 0,
1731                                  cpu_time_now);
1732               }
1733           }
1734       }
1735       /* Input nodes may have added work to the pending vector.
1736          Process pending vector until there is nothing left.
1737          All pending vectors will be processed from input -> output. */
1738       for (i = 0; i < _vec_len (nm->pending_frames); i++)
1739         cpu_time_now = dispatch_pending_node (vm, i, cpu_time_now);
1740       /* Reset pending vector for next iteration. */
1741       _vec_len (nm->pending_frames) = 0;
1742
1743       if (is_main)
1744         {
1745           /* Check if process nodes have expired from timing wheel. */
1746           ASSERT (nm->data_from_advancing_timing_wheel != 0);
1747
1748           nm->data_from_advancing_timing_wheel =
1749             TW (tw_timer_expire_timers_vec)
1750             ((TWT (tw_timer_wheel) *) nm->timing_wheel, vlib_time_now (vm),
1751              nm->data_from_advancing_timing_wheel);
1752
1753           ASSERT (nm->data_from_advancing_timing_wheel != 0);
1754
1755           if (PREDICT_FALSE
1756               (_vec_len (nm->data_from_advancing_timing_wheel) > 0))
1757             {
1758               uword i;
1759
1760               for (i = 0; i < _vec_len (nm->data_from_advancing_timing_wheel);
1761                    i++)
1762                 {
1763                   u32 d = nm->data_from_advancing_timing_wheel[i];
1764                   u32 di = vlib_timing_wheel_data_get_index (d);
1765
1766                   if (vlib_timing_wheel_data_is_timed_event (d))
1767                     {
1768                       vlib_signal_timed_event_data_t *te =
1769                         pool_elt_at_index (nm->signal_timed_event_data_pool,
1770                                            di);
1771                       vlib_node_t *n =
1772                         vlib_get_node (vm, te->process_node_index);
1773                       vlib_process_t *p =
1774                         vec_elt (nm->processes, n->runtime_index);
1775                       void *data;
1776                       data =
1777                         vlib_process_signal_event_helper (nm, n, p,
1778                                                           te->event_type_index,
1779                                                           te->n_data_elts,
1780                                                           te->n_data_elt_bytes);
1781                       if (te->n_data_bytes < sizeof (te->inline_event_data))
1782                         clib_memcpy_fast (data, te->inline_event_data,
1783                                           te->n_data_bytes);
1784                       else
1785                         {
1786                           clib_memcpy_fast (data, te->event_data_as_vector,
1787                                             te->n_data_bytes);
1788                           vec_free (te->event_data_as_vector);
1789                         }
1790                       pool_put (nm->signal_timed_event_data_pool, te);
1791                     }
1792                   else
1793                     {
1794                       cpu_time_now = clib_cpu_time_now ();
1795                       cpu_time_now =
1796                         dispatch_suspended_process (vm, di, cpu_time_now);
1797                     }
1798                 }
1799               _vec_len (nm->data_from_advancing_timing_wheel) = 0;
1800             }
1801         }
1802       vlib_increment_main_loop_counter (vm);
1803
1804       /* Record time stamp in case there are no enabled nodes and above
1805          calls do not update time stamp. */
1806       cpu_time_now = clib_cpu_time_now ();
1807     }
1808 }
1809
1810 static void
1811 vlib_main_loop (vlib_main_t * vm)
1812 {
1813   vlib_main_or_worker_loop (vm, /* is_main */ 1);
1814 }
1815
1816 void
1817 vlib_worker_loop (vlib_main_t * vm)
1818 {
1819   vlib_main_or_worker_loop (vm, /* is_main */ 0);
1820 }
1821
1822 vlib_main_t vlib_global_main;
1823
1824 static clib_error_t *
1825 vlib_main_configure (vlib_main_t * vm, unformat_input_t * input)
1826 {
1827   int turn_on_mem_trace = 0;
1828
1829   while (unformat_check_input (input) != UNFORMAT_END_OF_INPUT)
1830     {
1831       if (unformat (input, "memory-trace"))
1832         turn_on_mem_trace = 1;
1833
1834       else if (unformat (input, "elog-events %d",
1835                          &vm->elog_main.event_ring_size))
1836         ;
1837       else if (unformat (input, "elog-post-mortem-dump"))
1838         vm->elog_post_mortem_dump = 1;
1839       else
1840         return unformat_parse_error (input);
1841     }
1842
1843   unformat_free (input);
1844
1845   /* Enable memory trace as early as possible. */
1846   if (turn_on_mem_trace)
1847     clib_mem_trace (1);
1848
1849   return 0;
1850 }
1851
1852 VLIB_EARLY_CONFIG_FUNCTION (vlib_main_configure, "vlib");
1853
1854 static void
1855 dummy_queue_signal_callback (vlib_main_t * vm)
1856 {
1857 }
1858
1859 #define foreach_weak_reference_stub             \
1860 _(vlib_map_stat_segment_init)                   \
1861 _(vpe_api_init)                                 \
1862 _(vlibmemory_init)                              \
1863 _(map_api_segment_init)
1864
1865 #define _(name)                                                 \
1866 clib_error_t *name (vlib_main_t *vm) __attribute__((weak));     \
1867 clib_error_t *name (vlib_main_t *vm) { return 0; }
1868 foreach_weak_reference_stub;
1869 #undef _
1870
1871 /* Main function. */
1872 int
1873 vlib_main (vlib_main_t * volatile vm, unformat_input_t * input)
1874 {
1875   clib_error_t *volatile error;
1876   vlib_node_main_t *nm = &vm->node_main;
1877
1878   vm->queue_signal_callback = dummy_queue_signal_callback;
1879
1880   clib_time_init (&vm->clib_time);
1881
1882   /* Turn on event log. */
1883   if (!vm->elog_main.event_ring_size)
1884     vm->elog_main.event_ring_size = 128 << 10;
1885   elog_init (&vm->elog_main, vm->elog_main.event_ring_size);
1886   elog_enable_disable (&vm->elog_main, 1);
1887
1888   /* Default name. */
1889   if (!vm->name)
1890     vm->name = "VLIB";
1891
1892   if ((error = vlib_physmem_init (vm)))
1893     {
1894       clib_error_report (error);
1895       goto done;
1896     }
1897
1898   if ((error = vlib_buffer_main_init (vm)))
1899     {
1900       clib_error_report (error);
1901       goto done;
1902     }
1903
1904   if ((error = vlib_thread_init (vm)))
1905     {
1906       clib_error_report (error);
1907       goto done;
1908     }
1909
1910   if ((error = vlib_map_stat_segment_init (vm)))
1911     {
1912       clib_error_report (error);
1913       goto done;
1914     }
1915
1916   /* Register static nodes so that init functions may use them. */
1917   vlib_register_all_static_nodes (vm);
1918
1919   /* Set seed for random number generator.
1920      Allow user to specify seed to make random sequence deterministic. */
1921   if (!unformat (input, "seed %wd", &vm->random_seed))
1922     vm->random_seed = clib_cpu_time_now ();
1923   clib_random_buffer_init (&vm->random_buffer, vm->random_seed);
1924
1925   /* Initialize node graph. */
1926   if ((error = vlib_node_main_init (vm)))
1927     {
1928       /* Arrange for graph hook up error to not be fatal when debugging. */
1929       if (CLIB_DEBUG > 0)
1930         clib_error_report (error);
1931       else
1932         goto done;
1933     }
1934
1935   /* Direct call / weak reference, for vlib standalone use-cases */
1936   if ((error = vpe_api_init (vm)))
1937     {
1938       clib_error_report (error);
1939       goto done;
1940     }
1941
1942   if ((error = vlibmemory_init (vm)))
1943     {
1944       clib_error_report (error);
1945       goto done;
1946     }
1947
1948   if ((error = map_api_segment_init (vm)))
1949     {
1950       clib_error_report (error);
1951       goto done;
1952     }
1953
1954   /* See unix/main.c; most likely already set up */
1955   if (vm->init_functions_called == 0)
1956     vm->init_functions_called = hash_create (0, /* value bytes */ 0);
1957   if ((error = vlib_call_all_init_functions (vm)))
1958     goto done;
1959
1960   /* Create default buffer free list. */
1961   vlib_buffer_create_free_list (vm, VLIB_BUFFER_DEFAULT_FREE_LIST_BYTES,
1962                                 "default");
1963
1964   nm->timing_wheel = clib_mem_alloc_aligned (sizeof (TWT (tw_timer_wheel)),
1965                                              CLIB_CACHE_LINE_BYTES);
1966
1967   vec_validate (nm->data_from_advancing_timing_wheel, 10);
1968   _vec_len (nm->data_from_advancing_timing_wheel) = 0;
1969
1970   /* Create the process timing wheel */
1971   TW (tw_timer_wheel_init) ((TWT (tw_timer_wheel) *) nm->timing_wheel,
1972                             0 /* no callback */ ,
1973                             10e-6 /* timer period 10us */ ,
1974                             ~0 /* max expirations per call */ );
1975
1976   vec_validate (vm->pending_rpc_requests, 0);
1977   _vec_len (vm->pending_rpc_requests) = 0;
1978   vec_validate (vm->processing_rpc_requests, 0);
1979   _vec_len (vm->processing_rpc_requests) = 0;
1980
1981   switch (clib_setjmp (&vm->main_loop_exit, VLIB_MAIN_LOOP_EXIT_NONE))
1982     {
1983     case VLIB_MAIN_LOOP_EXIT_NONE:
1984       vm->main_loop_exit_set = 1;
1985       break;
1986
1987     case VLIB_MAIN_LOOP_EXIT_CLI:
1988       goto done;
1989
1990     default:
1991       error = vm->main_loop_error;
1992       goto done;
1993     }
1994
1995   if ((error = vlib_call_all_config_functions (vm, input, 0 /* is_early */ )))
1996     goto done;
1997
1998   /* Call all main loop enter functions. */
1999   {
2000     clib_error_t *sub_error;
2001     sub_error = vlib_call_all_main_loop_enter_functions (vm);
2002     if (sub_error)
2003       clib_error_report (sub_error);
2004   }
2005
2006   vlib_main_loop (vm);
2007
2008 done:
2009   /* Call all exit functions. */
2010   {
2011     clib_error_t *sub_error;
2012     sub_error = vlib_call_all_main_loop_exit_functions (vm);
2013     if (sub_error)
2014       clib_error_report (sub_error);
2015   }
2016
2017   if (error)
2018     clib_error_report (error);
2019
2020   return 0;
2021 }
2022
2023 static inline clib_error_t *
2024 pcap_dispatch_trace_command_internal (vlib_main_t * vm,
2025                                       unformat_input_t * input,
2026                                       vlib_cli_command_t * cmd, int rx_tx)
2027 {
2028 #define PCAP_DEF_PKT_TO_CAPTURE (100)
2029
2030   unformat_input_t _line_input, *line_input = &_line_input;
2031   pcap_main_t *pm = &vm->dispatch_pcap_main;
2032   u8 *filename;
2033   u8 *chroot_filename = 0;
2034   u32 max = 0;
2035   int enabled = 0;
2036   int errorFlag = 0;
2037   clib_error_t *error = 0;
2038   u32 node_index, add;
2039   vlib_trace_main_t *tm;
2040   vlib_trace_node_t *tn;
2041
2042   /* Get a line of input. */
2043   if (!unformat_user (input, unformat_line_input, line_input))
2044     return 0;
2045
2046   while (unformat_check_input (line_input) != UNFORMAT_END_OF_INPUT)
2047     {
2048       if (unformat (line_input, "on"))
2049         {
2050           if (vm->dispatch_pcap_enable == 0)
2051             {
2052               enabled = 1;
2053             }
2054           else
2055             {
2056               vlib_cli_output (vm, "pcap dispatch capture already on...");
2057               errorFlag = 1;
2058               break;
2059             }
2060         }
2061       else if (unformat (line_input, "off"))
2062         {
2063           if (vm->dispatch_pcap_enable)
2064             {
2065               vlib_cli_output
2066                 (vm, "captured %d pkts...", pm->n_packets_captured);
2067               if (pm->n_packets_captured)
2068                 {
2069                   pm->n_packets_to_capture = pm->n_packets_captured;
2070                   error = pcap_write (pm);
2071                   if (error)
2072                     clib_error_report (error);
2073                   else
2074                     vlib_cli_output (vm, "saved to %s...", pm->file_name);
2075                 }
2076               vm->dispatch_pcap_enable = 0;
2077             }
2078           else
2079             {
2080               vlib_cli_output (vm, "pcap tx capture already off...");
2081               errorFlag = 1;
2082               break;
2083             }
2084         }
2085       else if (unformat (line_input, "max %d", &max))
2086         {
2087           if (vm->dispatch_pcap_enable)
2088             {
2089               vlib_cli_output
2090                 (vm,
2091                  "can't change max value while pcap tx capture active...");
2092               errorFlag = 1;
2093               break;
2094             }
2095           pm->n_packets_to_capture = max;
2096         }
2097       else if (unformat (line_input, "file %s", &filename))
2098         {
2099           if (vm->dispatch_pcap_enable)
2100             {
2101               vlib_cli_output
2102                 (vm, "can't change file while pcap tx capture active...");
2103               errorFlag = 1;
2104               break;
2105             }
2106
2107           /* Brain-police user path input */
2108           if (strstr ((char *) filename, "..")
2109               || index ((char *) filename, '/'))
2110             {
2111               vlib_cli_output (vm, "illegal characters in filename '%s'",
2112                                filename);
2113               vlib_cli_output (vm, "Hint: .. and / are not allowed.");
2114               vec_free (filename);
2115               errorFlag = 1;
2116               break;
2117             }
2118
2119           chroot_filename = format (0, "/tmp/%s%c", filename, 0);
2120           vec_free (filename);
2121         }
2122       else if (unformat (line_input, "status"))
2123         {
2124           if (vm->dispatch_pcap_enable)
2125             {
2126               vlib_cli_output
2127                 (vm, "pcap dispatch capture is on: %d of %d pkts...",
2128                  pm->n_packets_captured, pm->n_packets_to_capture);
2129               vlib_cli_output (vm, "Capture to file %s", pm->file_name);
2130             }
2131           else
2132             {
2133               vlib_cli_output (vm, "pcap dispatch capture is off...");
2134             }
2135           break;
2136         }
2137       else if (unformat (line_input, "buffer-trace %U %d",
2138                          unformat_vlib_node, vm, &node_index, &add))
2139         {
2140           if (vnet_trace_dummy == 0)
2141             vec_validate_aligned (vnet_trace_dummy, 2048,
2142                                   CLIB_CACHE_LINE_BYTES);
2143           vlib_cli_output (vm, "Buffer tracing of %d pkts from %U enabled...",
2144                            add, format_vlib_node_name, vm, node_index);
2145
2146           /* *INDENT-OFF* */
2147           foreach_vlib_main ((
2148             {
2149               tm = &this_vlib_main->trace_main;
2150               tm->verbose = 0;  /* not sure this ever did anything... */
2151               vec_validate (tm->nodes, node_index);
2152               tn = tm->nodes + node_index;
2153               tn->limit += add;
2154               tm->trace_enable = 1;
2155             }));
2156           /* *INDENT-ON* */
2157         }
2158
2159       else
2160         {
2161           error = clib_error_return (0, "unknown input `%U'",
2162                                      format_unformat_error, line_input);
2163           errorFlag = 1;
2164           break;
2165         }
2166     }
2167   unformat_free (line_input);
2168
2169
2170   if (errorFlag == 0)
2171     {
2172       /* Since no error, save configured values. */
2173       if (chroot_filename)
2174         {
2175           if (pm->file_name)
2176             vec_free (pm->file_name);
2177           vec_add1 (chroot_filename, 0);
2178           pm->file_name = (char *) chroot_filename;
2179         }
2180
2181       if (max)
2182         pm->n_packets_to_capture = max;
2183
2184       if (enabled)
2185         {
2186           if (pm->file_name == 0)
2187             pm->file_name = (char *) format (0, "/tmp/dispatch.pcap%c", 0);
2188
2189           pm->n_packets_captured = 0;
2190           pm->packet_type = PCAP_PACKET_TYPE_user13;
2191           if (pm->lock == 0)
2192             clib_spinlock_init (&(pm->lock));
2193           vm->dispatch_pcap_enable = 1;
2194           vlib_cli_output (vm, "pcap dispatch capture on...");
2195         }
2196     }
2197   else if (chroot_filename)
2198     vec_free (chroot_filename);
2199
2200   return error;
2201 }
2202
2203 static clib_error_t *
2204 pcap_dispatch_trace_command_fn (vlib_main_t * vm,
2205                                 unformat_input_t * input,
2206                                 vlib_cli_command_t * cmd)
2207 {
2208   return pcap_dispatch_trace_command_internal (vm, input, cmd, VLIB_RX);
2209 }
2210
2211 /*?
2212  * This command is used to start or stop pcap dispatch trace capture, or show
2213  * the capture status.
2214  *
2215  * This command has the following optional parameters:
2216  *
2217  * - <b>on|off</b> - Used to start or stop capture.
2218  *
2219  * - <b>max <nn></b> - Depth of local buffer. Once '<em>nn</em>' number
2220  *   of packets have been received, buffer is flushed to file. Once another
2221  *   '<em>nn</em>' number of packets have been received, buffer is flushed
2222  *   to file, overwriting previous write. If not entered, value defaults
2223  *   to 100. Can only be updated if packet capture is off.
2224  *
2225  * - <b>file <name></b> - Used to specify the output filename. The file will
2226  *   be placed in the '<em>/tmp</em>' directory, so only the filename is
2227  *   supported. Directory should not be entered. If file already exists, file
2228  *   will be overwritten. If no filename is provided, '<em>/tmp/vpe.pcap</em>'
2229  *   will be used. Can only be updated if packet capture is off.
2230  *
2231  * - <b>status</b> - Displays the current status and configured attributes
2232  *   associated with a packet capture. If packet capture is in progress,
2233  *   '<em>status</em>' also will return the number of packets currently in
2234  *   the local buffer. All additional attributes entered on command line
2235  *   with '<em>status</em>' will be ignored and not applied.
2236  *
2237  * @cliexpar
2238  * Example of how to display the status of capture when off:
2239  * @cliexstart{pcap dispatch trace status}
2240  * max is 100, for any interface to file /tmp/vpe.pcap
2241  * pcap dispatch capture is off...
2242  * @cliexend
2243  * Example of how to start a dispatch trace capture:
2244  * @cliexstart{pcap dispatch trace on max 35 file dispatchTrace.pcap}
2245  * pcap dispatch capture on...
2246  * @cliexend
2247  * Example of how to start a dispatch trace capture with buffer tracing
2248  * @cliexstart{pcap dispatch trace on max 10000 file dispatchTrace.pcap buffer-trace dpdk-input 1000}
2249  * pcap dispatch capture on...
2250  * @cliexend
2251  * Example of how to display the status of a tx packet capture in progress:
2252  * @cliexstart{pcap tx trace status}
2253  * max is 35, dispatch trace to file /tmp/vppTest.pcap
2254  * pcap tx capture is on: 20 of 35 pkts...
2255  * @cliexend
2256  * Example of how to stop a tx packet capture:
2257  * @cliexstart{vppctl pcap dispatch trace off}
2258  * captured 21 pkts...
2259  * saved to /tmp/dispatchTrace.pcap...
2260  * @cliexend
2261 ?*/
2262 /* *INDENT-OFF* */
2263 VLIB_CLI_COMMAND (pcap_dispatch_trace_command, static) = {
2264     .path = "pcap dispatch trace",
2265     .short_help =
2266     "pcap dispatch trace [on|off] [max <nn>] [file <name>] [status]\n"
2267     "              [buffer-trace <input-node-name> <nn>]",
2268     .function = pcap_dispatch_trace_command_fn,
2269 };
2270 /* *INDENT-ON* */
2271
2272 /*
2273  * fd.io coding-style-patch-verification: ON
2274  *
2275  * Local Variables:
2276  * eval: (c-set-style "gnu")
2277  * End:
2278  */