memif: memory leak when deleting memif interface
[vpp.git] / src / plugins / perfmon / perfmon.c
index 4a220c7..cc97888 100644 (file)
@@ -70,7 +70,7 @@ perfmon_reset (vlib_main_t *vm)
       vec_free (tr->node_stats);
       for (int j = 0; j < PERF_MAX_EVENTS; j++)
        if (tr->mmap_pages[j])
-         munmap (tr->mmap_pages, page_size);
+         munmap (tr->mmap_pages[j], page_size);
     }
   vec_free (pm->thread_runtimes);
 
@@ -196,6 +196,7 @@ perfmon_set (vlib_main_t *vm, perfmon_bundle_t *b)
          rt->bundle = b;
          rt->n_events = b->n_events;
          rt->n_nodes = n_nodes;
+         rt->preserve_samples = b->preserve_samples;
          vec_validate_aligned (rt->node_stats, n_nodes - 1,
                                CLIB_CACHE_LINE_BYTES);
        }
@@ -212,6 +213,33 @@ error:
   return err;
 }
 
+static_always_inline u32
+perfmon_mmap_read_index (const struct perf_event_mmap_page *mmap_page)
+{
+  u32 idx;
+  u32 seq;
+
+  /* See documentation in /usr/include/linux/perf_event.h, for more details
+   * but the 2 main important things are:
+   *  1) if seq != mmap_page->lock, it means the kernel is currently updating
+   *     the user page and we need to read it again
+   *  2) if idx == 0, it means the perf event is currently turned off and we
+   *     just need to read the kernel-updated 'offset', otherwise we must also
+   *     add the current hw value (hence rdmpc) */
+  do
+    {
+      seq = mmap_page->lock;
+      CLIB_COMPILER_BARRIER ();
+
+      idx = mmap_page->index;
+
+      CLIB_COMPILER_BARRIER ();
+    }
+  while (mmap_page->lock != seq);
+
+  return idx;
+}
+
 clib_error_t *
 perfmon_start (vlib_main_t *vm, perfmon_bundle_t *b)
 {
@@ -238,20 +266,28 @@ perfmon_start (vlib_main_t *vm, perfmon_bundle_t *b)
     }
   if (b->active_type == PERFMON_BUNDLE_TYPE_NODE)
     {
+      for (int i = 0; i < vec_len (pm->thread_runtimes); i++)
+       {
+         perfmon_thread_runtime_t *tr;
+         tr = vec_elt_at_index (pm->thread_runtimes, i);
 
-      vlib_node_function_t *funcs[PERFMON_OFFSET_TYPE_MAX];
-#define _(type, pfunc) funcs[type] = pfunc;
-
-      foreach_permon_offset_type
-#undef _
+         for (int j = 0; j < b->n_events; j++)
+           {
+             tr->indexes[j] = perfmon_mmap_read_index (tr->mmap_pages[j]);
 
-       ASSERT (funcs[b->offset_type]);
+             /* if a zero index is returned generate error */
+             if (!tr->indexes[j])
+               {
+                 perfmon_reset (vm);
+                 return clib_error_return (0, "invalid rdpmc index");
+               }
+           }
+       }
 
       for (int i = 0; i < vlib_get_n_threads (); i++)
-       vlib_node_set_dispatch_wrapper (vlib_get_main_by_index (i),
-                                       funcs[b->offset_type]);
+       vlib_node_set_dispatch_wrapper (
+         vlib_get_main_by_index (i), perfmon_dispatch_wrappers[b->n_events]);
     }
-
   pm->sample_time = vlib_time_now (vm);
   pm->is_running = 1;
 
@@ -288,11 +324,43 @@ perfmon_stop (vlib_main_t *vm)
   return 0;
 }
 
+static_always_inline u8
+is_enough_counters (perfmon_bundle_t *b)
+{
+  u8 bl[PERFMON_EVENT_TYPE_MAX];
+  u8 cpu[PERFMON_EVENT_TYPE_MAX];
+
+  clib_memset (&bl, 0, sizeof (bl));
+  clib_memset (&cpu, 0, sizeof (cpu));
+
+  /* how many does this uarch support */
+  if (!clib_get_pmu_counter_count (&cpu[PERFMON_EVENT_TYPE_FIXED],
+                                  &cpu[PERFMON_EVENT_TYPE_GENERAL]))
+    return 0;
+
+  /* how many does the bundle require */
+  for (u16 i = 0; i < b->n_events; i++)
+    {
+      /* if source allows us to identify events, otherwise assume general */
+      if (b->src->get_event_type)
+       bl[b->src->get_event_type (b->events[i])]++;
+      else
+       bl[PERFMON_EVENT_TYPE_GENERAL]++;
+    }
+
+  /* consciously ignoring pseudo events here */
+  return cpu[PERFMON_EVENT_TYPE_GENERAL] >= bl[PERFMON_EVENT_TYPE_GENERAL] &&
+        cpu[PERFMON_EVENT_TYPE_FIXED] >= bl[PERFMON_EVENT_TYPE_FIXED];
+}
+
 static_always_inline u8
 is_bundle_supported (perfmon_bundle_t *b)
 {
   perfmon_cpu_supports_t *supports = b->cpu_supports;
 
+  if (!is_enough_counters (b))
+    return 0;
+
   if (!b->cpu_supports)
     return 1;
 
@@ -326,7 +394,7 @@ perfmon_init (vlib_main_t *vm)
        }
 
       hash_set_mem (pm->source_by_name, s->name, s);
-      log_debug ("source '%s' regisrtered", s->name);
+      log_debug ("source '%s' registered", s->name);
       s = s->next;
     }
 
@@ -336,25 +404,22 @@ perfmon_init (vlib_main_t *vm)
       clib_error_t *err;
       uword *p;
 
-      if (!is_bundle_supported (b))
+      if ((p = hash_get_mem (pm->source_by_name, b->source)) == 0)
        {
-         log_warn ("skipping bundle '%s' - not supported", b->name);
+         log_debug ("missing source '%s', skipping bundle '%s'", b->source,
+                    b->name);
          b = b->next;
          continue;
        }
 
-      if (hash_get_mem (pm->bundle_by_name, b->name) != 0)
-       clib_panic ("duplicate bundle name '%s'", b->name);
-
-      if ((p = hash_get_mem (pm->source_by_name, b->source)) == 0)
+      b->src = (perfmon_source_t *) p[0];
+      if (!is_bundle_supported (b))
        {
-         log_debug ("missing source '%s', skipping bundle '%s'", b->source,
-                    b->name);
+         log_debug ("skipping bundle '%s' - not supported", b->name);
          b = b->next;
          continue;
        }
 
-      b->src = (perfmon_source_t *) p[0];
       if (b->init_fn && ((err = (b->init_fn) (vm, b))))
        {
          log_warn ("skipping bundle '%s' - %U", b->name, format_clib_error,
@@ -364,8 +429,11 @@ perfmon_init (vlib_main_t *vm)
          continue;
        }
 
+      if (hash_get_mem (pm->bundle_by_name, b->name) != 0)
+       clib_panic ("duplicate bundle name '%s'", b->name);
+
       hash_set_mem (pm->bundle_by_name, b->name, b);
-      log_debug ("bundle '%s' regisrtered", b->name);
+      log_debug ("bundle '%s' registered", b->name);
 
       b = b->next;
     }