ead4b7d8ea4753f94e7768a5b3ef2de3f41ab3ef
[vpp.git] / src / vppinfra / time.h
1 /*
2  * Copyright (c) 2015 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 /*
16   Copyright (c) 2001, 2002, 2003 Eliot Dresselhaus
17
18   Permission is hereby granted, free of charge, to any person obtaining
19   a copy of this software and associated documentation files (the
20   "Software"), to deal in the Software without restriction, including
21   without limitation the rights to use, copy, modify, merge, publish,
22   distribute, sublicense, and/or sell copies of the Software, and to
23   permit persons to whom the Software is furnished to do so, subject to
24   the following conditions:
25
26   The above copyright notice and this permission notice shall be
27   included in all copies or substantial portions of the Software.
28
29   THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
30   EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
31   MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
32   NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE
33   LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION
34   OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION
35   WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
36 */
37
38 #ifndef included_time_h
39 #define included_time_h
40
41 #include <vppinfra/clib.h>
42
43 typedef struct
44 {
45   /* Total run time in clock cycles
46      since clib_time_init call. */
47   u64 total_cpu_time;
48
49   /* Last recorded time stamp. */
50   u64 last_cpu_time;
51
52   /* CPU clock frequency. */
53   f64 clocks_per_second;
54
55   /* 1 / cpu clock frequency: conversion factor
56      from clock cycles into seconds. */
57   f64 seconds_per_clock;
58
59   /* Time stamp of call to clib_time_init call. */
60   u64 init_cpu_time;
61
62   u64 last_verify_cpu_time;
63
64   /* Same but for reference time (if present). */
65   f64 last_verify_reference_time;
66
67   u32 log2_clocks_per_second, log2_clocks_per_frequency_verify;
68 } clib_time_t;
69
70 /* Return CPU time stamp as 64bit number. */
71 #if defined(__x86_64__) || defined(i386)
72 always_inline u64
73 clib_cpu_time_now (void)
74 {
75   u32 a, d;
76   asm volatile ("rdtsc":"=a" (a), "=d" (d));
77   return (u64) a + ((u64) d << (u64) 32);
78 }
79
80 #elif defined (__powerpc64__)
81
82 always_inline u64
83 clib_cpu_time_now (void)
84 {
85   u64 t;
86   asm volatile ("mftb %0":"=r" (t));
87   return t;
88 }
89
90 #elif defined (__SPU__)
91
92 always_inline u64
93 clib_cpu_time_now (void)
94 {
95 #ifdef _XLC
96   return spu_rdch (0x8);
97 #else
98   return 0 /* __builtin_si_rdch (0x8) FIXME */ ;
99 #endif
100 }
101
102 #elif defined (__powerpc__)
103
104 always_inline u64
105 clib_cpu_time_now (void)
106 {
107   u32 hi1, hi2, lo;
108   asm volatile ("1:\n"
109                 "mftbu %[hi1]\n"
110                 "mftb  %[lo]\n"
111                 "mftbu %[hi2]\n"
112                 "cmpw %[hi1],%[hi2]\n"
113                 "bne 1b\n":[hi1] "=r" (hi1),[hi2] "=r" (hi2),[lo] "=r" (lo));
114   return (u64) lo + ((u64) hi2 << (u64) 32);
115 }
116
117 #elif defined (__aarch64__)
118 always_inline u64
119 clib_cpu_time_now (void)
120 {
121   u64 vct;
122   /* User access to cntvct_el0 is enabled in Linux kernel since 3.12. */
123   asm volatile ("mrs %0, cntvct_el0":"=r" (vct));
124   return vct;
125 }
126
127 #elif defined (__arm__)
128 #if defined(__ARM_ARCH_8A__)
129 always_inline u64
130 clib_cpu_time_now (void)        /* We may run arm64 in aarch32 mode, to leverage 64bit counter */
131 {
132   u64 tsc;
133   asm volatile ("mrrc p15, 0, %Q0, %R0, c9":"=r" (tsc));
134   return tsc;
135 }
136 #elif defined(__ARM_ARCH_7A__)
137 always_inline u64
138 clib_cpu_time_now (void)
139 {
140   u32 tsc;
141   asm volatile ("mrc p15, 0, %0, c9, c13, 0":"=r" (tsc));
142   return (u64) tsc;
143 }
144 #else
145 always_inline u64
146 clib_cpu_time_now (void)
147 {
148   u32 lo;
149   asm volatile ("mrc p15, 0, %[lo], c15, c12, 1":[lo] "=r" (lo));
150   return (u64) lo;
151 }
152 #endif
153
154 #elif defined (__xtensa__)
155
156 /* Stub for now. */
157 always_inline u64
158 clib_cpu_time_now (void)
159 {
160   return 0;
161 }
162
163 #elif defined (__TMS320C6X__)
164
165 always_inline u64
166 clib_cpu_time_now (void)
167 {
168   u32 l, h;
169
170   asm volatile (" dint\n"
171                 " mvc .s2 TSCL,%0\n"
172                 " mvc .s2 TSCH,%1\n" " rint\n":"=b" (l), "=b" (h));
173
174   return ((u64) h << 32) | l;
175 }
176
177 #else
178 #error "don't know how to read CPU time stamp"
179
180 #endif
181
182 void clib_time_verify_frequency (clib_time_t * c);
183
184 always_inline f64
185 clib_time_now_internal (clib_time_t * c, u64 n)
186 {
187   u64 l = c->last_cpu_time;
188   u64 t = c->total_cpu_time;
189   t += n - l;
190   c->total_cpu_time = t;
191   c->last_cpu_time = n;
192   if (PREDICT_FALSE
193       ((c->last_cpu_time -
194         c->last_verify_cpu_time) >> c->log2_clocks_per_frequency_verify))
195     clib_time_verify_frequency (c);
196   return t * c->seconds_per_clock;
197 }
198
199 always_inline f64
200 clib_time_now (clib_time_t * c)
201 {
202   return clib_time_now_internal (c, clib_cpu_time_now ());
203 }
204
205 always_inline void
206 clib_cpu_time_wait (u64 dt)
207 {
208   u64 t_end = clib_cpu_time_now () + dt;
209   while (clib_cpu_time_now () < t_end)
210     ;
211 }
212
213 void clib_time_init (clib_time_t * c);
214
215 #ifdef CLIB_UNIX
216
217 #include <time.h>
218 #include <sys/time.h>
219 #include <sys/resource.h>
220 #include <unistd.h>
221 #include <sys/syscall.h>
222
223 /* Use 64bit floating point to represent time offset from epoch. */
224 always_inline f64
225 unix_time_now (void)
226 {
227   /* clock_gettime without indirect syscall uses GLIBC wrappers which
228      we don't want.  Just the bare metal, please. */
229   struct timespec ts;
230   syscall (SYS_clock_gettime, CLOCK_REALTIME, &ts);
231   return ts.tv_sec + 1e-9 * ts.tv_nsec;
232 }
233
234 /* As above but integer number of nano-seconds. */
235 always_inline u64
236 unix_time_now_nsec (void)
237 {
238   struct timespec ts;
239   syscall (SYS_clock_gettime, CLOCK_REALTIME, &ts);
240   return 1e9 * ts.tv_sec + ts.tv_nsec;
241 }
242
243 always_inline void
244 unix_time_now_nsec_fraction (u32 * sec, u32 * nsec)
245 {
246   struct timespec ts;
247   syscall (SYS_clock_gettime, CLOCK_REALTIME, &ts);
248   *sec = ts.tv_sec;
249   *nsec = ts.tv_nsec;
250 }
251
252 always_inline f64
253 unix_usage_now (void)
254 {
255   struct rusage u;
256   getrusage (RUSAGE_SELF, &u);
257   return u.ru_utime.tv_sec + 1e-6 * u.ru_utime.tv_usec
258     + u.ru_stime.tv_sec + 1e-6 * u.ru_stime.tv_usec;
259 }
260
261 always_inline void
262 unix_sleep (f64 dt)
263 {
264   struct timespec ts, tsrem;
265   ts.tv_sec = dt;
266   ts.tv_nsec = 1e9 * (dt - (f64) ts.tv_sec);
267
268   while (nanosleep (&ts, &tsrem) < 0)
269     ts = tsrem;
270 }
271
272 #else /* ! CLIB_UNIX */
273
274 always_inline f64
275 unix_time_now (void)
276 {
277   return 0;
278 }
279
280 always_inline u64
281 unix_time_now_nsec (void)
282 {
283   return 0;
284 }
285
286 always_inline void
287 unix_time_now_nsec_fraction (u32 * sec, u32 * nsec)
288 {
289 }
290
291 always_inline f64
292 unix_usage_now (void)
293 {
294   return 0;
295 }
296
297 always_inline void
298 unix_sleep (f64 dt)
299 {
300 }
301
302 #endif
303
304 #endif /* included_time_h */
305
306 /*
307  * fd.io coding-style-patch-verification: ON
308  *
309  * Local Variables:
310  * eval: (c-set-style "gnu")
311  * End:
312  */