perfmon: properly unmap mmapped pages
[vpp.git] / src / plugins / perfmon / perfmon.c
1 /*
2  * Copyright (c) 2020 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 #include <vnet/vnet.h>
17
18 #include <vlibapi/api.h>
19 #include <vlibmemory/api.h>
20 #include <vnet/plugin/plugin.h>
21 #include <vpp/app/version.h>
22 #include <linux/limits.h>
23 #include <sys/ioctl.h>
24
25 #include <perfmon/perfmon.h>
26
27 perfmon_main_t perfmon_main;
28
29 VLIB_PLUGIN_REGISTER () = {
30   .version = VPP_BUILD_VER,
31   .description = "Performance Monitor",
32 };
33
34 VLIB_REGISTER_LOG_CLASS (if_default_log, static) = {
35   .class_name = "perfmon",
36 };
37
38 #define log_debug(fmt, ...)                                                   \
39   vlib_log_debug (if_default_log.class, fmt, __VA_ARGS__)
40 #define log_warn(fmt, ...)                                                    \
41   vlib_log_warn (if_default_log.class, fmt, __VA_ARGS__)
42 #define log_err(fmt, ...) vlib_log_err (if_default_log.class, fmt, __VA_ARGS__)
43
44 void
45 perfmon_reset (vlib_main_t *vm)
46 {
47   perfmon_main_t *pm = &perfmon_main;
48   uword page_size = clib_mem_get_page_size ();
49
50   if (pm->is_running)
51     for (int i = 0; i < vlib_get_n_threads (); i++)
52       vlib_node_set_dispatch_wrapper (vlib_get_main_by_index (i), 0);
53
54   for (int i = 0; i < vec_len (pm->fds_to_close); i++)
55     close (pm->fds_to_close[i]);
56   vec_free (pm->fds_to_close);
57   vec_free (pm->group_fds);
58   if (pm->default_instance_type)
59     {
60       perfmon_instance_type_t *it = pm->default_instance_type;
61       for (int i = 0; i < vec_len (it->instances); i++)
62         vec_free (it->instances[i].name);
63       vec_free (it->instances);
64       vec_free (pm->default_instance_type);
65     }
66
67   for (int i = 0; i < vec_len (pm->thread_runtimes); i++)
68     {
69       perfmon_thread_runtime_t *tr = vec_elt_at_index (pm->thread_runtimes, i);
70       vec_free (tr->node_stats);
71       for (int j = 0; j < PERF_MAX_EVENTS; j++)
72         if (tr->mmap_pages[j])
73           munmap (tr->mmap_pages[j], page_size);
74     }
75   vec_free (pm->thread_runtimes);
76
77   pm->is_running = 0;
78   pm->active_instance_type = 0;
79   pm->active_bundle = 0;
80 }
81
82 static clib_error_t *
83 perfmon_set (vlib_main_t *vm, perfmon_bundle_t *b)
84 {
85   clib_error_t *err = 0;
86   perfmon_main_t *pm = &perfmon_main;
87   perfmon_source_t *s;
88   int is_node = 0;
89   int n_nodes = vec_len (vm->node_main.nodes);
90   uword page_size = clib_mem_get_page_size ();
91   u32 instance_type = 0;
92   perfmon_event_t *e;
93   perfmon_instance_type_t *it = 0;
94
95   perfmon_reset (vm);
96
97   s = b->src;
98   ASSERT (b->n_events);
99
100   if (b->active_type == PERFMON_BUNDLE_TYPE_NODE)
101     is_node = 1;
102
103   if (s->instances_by_type == 0)
104     {
105       vec_add2 (pm->default_instance_type, it, 1);
106       it->name = is_node ? "Thread/Node" : "Thread";
107       for (int i = 0; i < vlib_get_n_threads (); i++)
108         {
109           vlib_worker_thread_t *w = vlib_worker_threads + i;
110           perfmon_instance_t *in;
111           vec_add2 (it->instances, in, 1);
112           in->cpu = w->cpu_id;
113           in->pid = w->lwp;
114           in->name = (char *) format (0, "%s (%u)%c", w->name, i, 0);
115         }
116       if (is_node)
117         vec_validate (pm->thread_runtimes, vlib_get_n_threads () - 1);
118     }
119   else
120     {
121       e = s->events + b->events[0];
122
123       if (e->type_from_instance)
124         {
125           instance_type = e->instance_type;
126           for (int i = 1; i < b->n_events; i++)
127             {
128               e = s->events + b->events[i];
129               ASSERT (e->type_from_instance == 1 &&
130                       e->instance_type == instance_type);
131             }
132         }
133       it = vec_elt_at_index (s->instances_by_type, instance_type);
134     }
135
136   pm->active_instance_type = it;
137
138   for (int i = 0; i < vec_len (it->instances); i++)
139     {
140       perfmon_instance_t *in = vec_elt_at_index (it->instances, i);
141
142       vec_validate (pm->group_fds, i);
143       pm->group_fds[i] = -1;
144
145       for (int j = 0; j < b->n_events; j++)
146         {
147           int fd;
148           perfmon_event_t *e = s->events + b->events[j];
149           struct perf_event_attr pe = {
150             .size = sizeof (struct perf_event_attr),
151             .type = e->type_from_instance ? in->type : e->type,
152             .config = e->config,
153             .exclude_kernel = e->exclude_kernel,
154             .read_format =
155               (PERF_FORMAT_GROUP | PERF_FORMAT_TOTAL_TIME_ENABLED |
156                PERF_FORMAT_TOTAL_TIME_RUNNING),
157             .disabled = 1,
158           };
159
160           log_debug ("perf_event_open pe.type=%u pe.config=0x%x pid=%d "
161                      "cpu=%d group_fd=%d",
162                      pe.type, pe.config, in->pid, in->cpu, pm->group_fds[i]);
163           fd = syscall (__NR_perf_event_open, &pe, in->pid, in->cpu,
164                         pm->group_fds[i], 0);
165
166           if (fd == -1)
167             {
168               err = clib_error_return_unix (0, "perf_event_open");
169               goto error;
170             }
171
172           vec_add1 (pm->fds_to_close, fd);
173
174           if (pm->group_fds[i] == -1)
175             pm->group_fds[i] = fd;
176
177           if (is_node)
178             {
179               perfmon_thread_runtime_t *tr;
180               tr = vec_elt_at_index (pm->thread_runtimes, i);
181               tr->mmap_pages[j] =
182                 mmap (0, page_size, PROT_READ, MAP_SHARED, fd, 0);
183
184               if (tr->mmap_pages[j] == MAP_FAILED)
185                 {
186                   err = clib_error_return_unix (0, "mmap");
187                   goto error;
188                 }
189             }
190         }
191
192       if (is_node)
193         {
194           perfmon_thread_runtime_t *rt;
195           rt = vec_elt_at_index (pm->thread_runtimes, i);
196           rt->bundle = b;
197           rt->n_events = b->n_events;
198           rt->n_nodes = n_nodes;
199           vec_validate_aligned (rt->node_stats, n_nodes - 1,
200                                 CLIB_CACHE_LINE_BYTES);
201         }
202     }
203
204   pm->active_bundle = b;
205
206 error:
207   if (err)
208     {
209       log_err ("%U", format_clib_error, err);
210       perfmon_reset (vm);
211     }
212   return err;
213 }
214
215 clib_error_t *
216 perfmon_start (vlib_main_t *vm, perfmon_bundle_t *b)
217 {
218   clib_error_t *err = 0;
219   perfmon_main_t *pm = &perfmon_main;
220   int n_groups;
221
222   if (pm->is_running == 1)
223     return clib_error_return (0, "already running");
224
225   if ((err = perfmon_set (vm, b)) != 0)
226     return err;
227
228   n_groups = vec_len (pm->group_fds);
229
230   for (int i = 0; i < n_groups; i++)
231     {
232       if (ioctl (pm->group_fds[i], PERF_EVENT_IOC_ENABLE,
233                  PERF_IOC_FLAG_GROUP) == -1)
234         {
235           perfmon_reset (vm);
236           return clib_error_return_unix (0, "ioctl(PERF_EVENT_IOC_ENABLE)");
237         }
238     }
239   if (b->active_type == PERFMON_BUNDLE_TYPE_NODE)
240     {
241
242       vlib_node_function_t *funcs[PERFMON_OFFSET_TYPE_MAX];
243 #define _(type, pfunc) funcs[type] = pfunc;
244
245       foreach_permon_offset_type
246 #undef _
247
248         ASSERT (funcs[b->offset_type]);
249
250       for (int i = 0; i < vlib_get_n_threads (); i++)
251         vlib_node_set_dispatch_wrapper (vlib_get_main_by_index (i),
252                                         funcs[b->offset_type]);
253     }
254
255   pm->sample_time = vlib_time_now (vm);
256   pm->is_running = 1;
257
258   return 0;
259 }
260
261 clib_error_t *
262 perfmon_stop (vlib_main_t *vm)
263 {
264   perfmon_main_t *pm = &perfmon_main;
265   int n_groups = vec_len (pm->group_fds);
266
267   if (pm->is_running != 1)
268     return clib_error_return (0, "not running");
269
270   if (pm->active_bundle->active_type == PERFMON_BUNDLE_TYPE_NODE)
271     {
272       for (int i = 0; i < vlib_get_n_threads (); i++)
273         vlib_node_set_dispatch_wrapper (vlib_get_main_by_index (i), 0);
274     }
275
276   for (int i = 0; i < n_groups; i++)
277     {
278       if (ioctl (pm->group_fds[i], PERF_EVENT_IOC_DISABLE,
279                  PERF_IOC_FLAG_GROUP) == -1)
280         {
281           perfmon_reset (vm);
282           return clib_error_return_unix (0, "ioctl(PERF_EVENT_IOC_DISABLE)");
283         }
284     }
285
286   pm->is_running = 0;
287   pm->sample_time = vlib_time_now (vm) - pm->sample_time;
288   return 0;
289 }
290
291 static_always_inline u8
292 is_bundle_supported (perfmon_bundle_t *b)
293 {
294   perfmon_cpu_supports_t *supports = b->cpu_supports;
295
296   if (!b->cpu_supports)
297     return 1;
298
299   for (int i = 0; i < b->n_cpu_supports; ++i)
300     if (supports[i].cpu_supports ())
301       return 1;
302
303   return 0;
304 }
305
306 static clib_error_t *
307 perfmon_init (vlib_main_t *vm)
308 {
309   perfmon_main_t *pm = &perfmon_main;
310   perfmon_source_t *s = pm->sources;
311   perfmon_bundle_t *b = pm->bundles;
312
313   pm->source_by_name = hash_create_string (0, sizeof (uword));
314   while (s)
315     {
316       clib_error_t *err;
317       if (hash_get_mem (pm->source_by_name, s->name) != 0)
318         clib_panic ("duplicate source name '%s'", s->name);
319       if (s->init_fn && ((err = (s->init_fn) (vm, s))))
320         {
321           log_warn ("skipping source '%s' - %U", s->name, format_clib_error,
322                     err);
323           clib_error_free (err);
324           s = s->next;
325           continue;
326         }
327
328       hash_set_mem (pm->source_by_name, s->name, s);
329       log_debug ("source '%s' regisrtered", s->name);
330       s = s->next;
331     }
332
333   pm->bundle_by_name = hash_create_string (0, sizeof (uword));
334   while (b)
335     {
336       clib_error_t *err;
337       uword *p;
338
339       if (!is_bundle_supported (b))
340         {
341           log_warn ("skipping bundle '%s' - not supported", b->name);
342           b = b->next;
343           continue;
344         }
345
346       if (hash_get_mem (pm->bundle_by_name, b->name) != 0)
347         clib_panic ("duplicate bundle name '%s'", b->name);
348
349       if ((p = hash_get_mem (pm->source_by_name, b->source)) == 0)
350         {
351           log_debug ("missing source '%s', skipping bundle '%s'", b->source,
352                      b->name);
353           b = b->next;
354           continue;
355         }
356
357       b->src = (perfmon_source_t *) p[0];
358       if (b->init_fn && ((err = (b->init_fn) (vm, b))))
359         {
360           log_warn ("skipping bundle '%s' - %U", b->name, format_clib_error,
361                     err);
362           clib_error_free (err);
363           b = b->next;
364           continue;
365         }
366
367       hash_set_mem (pm->bundle_by_name, b->name, b);
368       log_debug ("bundle '%s' regisrtered", b->name);
369
370       b = b->next;
371     }
372
373   return 0;
374 }
375
376 VLIB_INIT_FUNCTION (perfmon_init);