f261f9421e2f6e7c8634c7bf900d449f749c8068
[csit.git] / resources / libraries / python / CpuUtils.py
1 # Copyright (c) 2021 Cisco and/or its affiliates.
2 # Licensed under the Apache License, Version 2.0 (the "License");
3 # you may not use this file except in compliance with the License.
4 # You may obtain a copy of the License at:
5 #
6 #     http://www.apache.org/licenses/LICENSE-2.0
7 #
8 # Unless required by applicable law or agreed to in writing, software
9 # distributed under the License is distributed on an "AS IS" BASIS,
10 # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
11 # See the License for the specific language governing permissions and
12 # limitations under the License.
13
14 """CPU utilities library."""
15
16 from robot.libraries.BuiltIn import BuiltIn
17
18 from resources.libraries.python.Constants import Constants
19 from resources.libraries.python.ssh import exec_cmd_no_error
20 from resources.libraries.python.topology import Topology
21
22 __all__ = [u"CpuUtils"]
23
24
25 class CpuUtils:
26     """CPU utilities"""
27
28     # Number of threads per core.
29     NR_OF_THREADS = 2
30
31     @staticmethod
32     def __str2int(string):
33         """Conversion from string to integer, 0 in case of empty string.
34
35         :param string: Input string.
36         :type string: str
37         :returns: Integer converted from string, 0 in case of ValueError.
38         :rtype: int
39         """
40         try:
41             return int(string)
42         except ValueError:
43             return 0
44
45     @staticmethod
46     def is_smt_enabled(cpu_info):
47         """Uses CPU mapping to find out if SMT is enabled or not. If SMT is
48         enabled, the L1d,L1i,L2,L3 setting is the same for two processors. These
49         two processors are two threads of one core.
50
51         :param cpu_info: CPU info, the output of "lscpu -p".
52         :type cpu_info: list
53         :returns: True if SMT is enabled, False if SMT is disabled.
54         :rtype: bool
55         """
56         cpu_mems = [item[-4:] for item in cpu_info]
57         cpu_mems_len = len(cpu_mems) // CpuUtils.NR_OF_THREADS
58         count = 0
59         for cpu_mem in cpu_mems[:cpu_mems_len]:
60             if cpu_mem in cpu_mems[cpu_mems_len:]:
61                 count += 1
62         return bool(count == cpu_mems_len)
63
64     @staticmethod
65     def get_cpu_info_from_all_nodes(nodes):
66         """Assuming all nodes are Linux nodes, retrieve the following
67            cpu information from all nodes:
68                - cpu architecture
69                - cpu layout
70
71         :param nodes: DICT__nodes from Topology.DICT__nodes.
72         :type nodes: dict
73         :raises RuntimeError: If an ssh command retrieving cpu information
74             fails.
75         """
76         for node in nodes.values():
77             stdout, _ = exec_cmd_no_error(node, u"uname -m")
78             node[u"arch"] = stdout.strip()
79             stdout, _ = exec_cmd_no_error(node, u"lscpu -p")
80             node[u"cpuinfo"] = list()
81             for line in stdout.split(u"\n"):
82                 if line and line[0] != u"#":
83                     node[u"cpuinfo"].append(
84                         [CpuUtils.__str2int(x) for x in line.split(u",")]
85                     )
86
87     @staticmethod
88     def cpu_node_count(node):
89         """Return count of numa nodes.
90
91         :param node: Targeted node.
92         :type node: dict
93         :returns: Count of numa nodes.
94         :rtype: int
95         :raises RuntimeError: If node cpuinfo is not available.
96         """
97         cpu_info = node.get(u"cpuinfo")
98         if cpu_info is not None:
99             return node[u"cpuinfo"][-1][3] + 1
100
101         raise RuntimeError(u"Node cpuinfo not available.")
102
103     @staticmethod
104     def cpu_list_per_node(node, cpu_node, smt_used=False):
105         """Return node related list of CPU numbers.
106
107         :param node: Node dictionary with cpuinfo.
108         :param cpu_node: Numa node number.
109         :param smt_used: True - we want to use SMT, otherwise false.
110         :type node: dict
111         :type cpu_node: int
112         :type smt_used: bool
113         :returns: List of cpu numbers related to numa from argument.
114         :rtype: list of int
115         :raises RuntimeError: If node cpuinfo is not available
116             or if SMT is not enabled.
117         """
118         cpu_node = int(cpu_node)
119         cpu_info = node.get(u"cpuinfo")
120         if cpu_info is None:
121             raise RuntimeError(u"Node cpuinfo not available.")
122
123         smt_enabled = CpuUtils.is_smt_enabled(cpu_info)
124         if not smt_enabled and smt_used:
125             raise RuntimeError(u"SMT is not enabled.")
126
127         cpu_list = []
128         for cpu in cpu_info:
129             if cpu[3] == cpu_node:
130                 cpu_list.append(cpu[0])
131
132         if not smt_enabled or smt_enabled and smt_used:
133             pass
134
135         if smt_enabled and not smt_used:
136             cpu_list_len = len(cpu_list)
137             cpu_list = cpu_list[:cpu_list_len // CpuUtils.NR_OF_THREADS]
138
139         return cpu_list
140
141     @staticmethod
142     def cpu_slice_of_list_per_node(
143             node, cpu_node, skip_cnt=0, cpu_cnt=0, smt_used=False):
144         """Return node related subset of list of CPU numbers.
145
146         :param node: Node dictionary with cpuinfo.
147         :param cpu_node: Numa node number.
148         :param skip_cnt: Skip first "skip_cnt" CPUs.
149         :param cpu_cnt: Count of cpus to return, if 0 then return all.
150         :param smt_used: True - we want to use SMT, otherwise false.
151         :type node: dict
152         :type cpu_node: int
153         :type skip_cnt: int
154         :type cpu_cnt: int
155         :type smt_used: bool
156         :returns: Cpu numbers related to numa from argument.
157         :rtype: list
158         :raises RuntimeError: If we require more cpus than available.
159         """
160         cpu_list = CpuUtils.cpu_list_per_node(node, cpu_node, smt_used)
161
162         cpu_list_len = len(cpu_list)
163         if cpu_cnt + skip_cnt > cpu_list_len:
164             raise RuntimeError(u"cpu_cnt + skip_cnt > length(cpu list).")
165
166         if cpu_cnt == 0:
167             cpu_cnt = cpu_list_len - skip_cnt
168
169         if smt_used:
170             cpu_list_0 = cpu_list[:cpu_list_len // CpuUtils.NR_OF_THREADS]
171             cpu_list_1 = cpu_list[cpu_list_len // CpuUtils.NR_OF_THREADS:]
172             cpu_list = cpu_list_0[skip_cnt:skip_cnt + cpu_cnt]
173             cpu_list_ex = cpu_list_1[skip_cnt:skip_cnt + cpu_cnt]
174             cpu_list.extend(cpu_list_ex)
175         else:
176             cpu_list = cpu_list[skip_cnt:skip_cnt + cpu_cnt]
177
178         return cpu_list
179
180     @staticmethod
181     def cpu_list_per_node_str(
182             node, cpu_node, skip_cnt=0, cpu_cnt=0, sep=u",", smt_used=False):
183         """Return string of node related list of CPU numbers.
184
185         :param node: Node dictionary with cpuinfo.
186         :param cpu_node: Numa node number.
187         :param skip_cnt: Skip first "skip_cnt" CPUs.
188         :param cpu_cnt: Count of cpus to return, if 0 then return all.
189         :param sep: Separator, default: 1,2,3,4,....
190         :param smt_used: True - we want to use SMT, otherwise false.
191         :type node: dict
192         :type cpu_node: int
193         :type skip_cnt: int
194         :type cpu_cnt: int
195         :type sep: str
196         :type smt_used: bool
197         :returns: Cpu numbers related to numa from argument.
198         :rtype: str
199         """
200         cpu_list = CpuUtils.cpu_slice_of_list_per_node(
201             node, cpu_node, skip_cnt=skip_cnt, cpu_cnt=cpu_cnt,
202             smt_used=smt_used
203         )
204         return sep.join(str(cpu) for cpu in cpu_list)
205
206     @staticmethod
207     def cpu_range_per_node_str(
208             node, cpu_node, skip_cnt=0, cpu_cnt=0, sep=u"-", smt_used=False):
209         """Return string of node related range of CPU numbers, e.g. 0-4.
210
211         :param node: Node dictionary with cpuinfo.
212         :param cpu_node: Numa node number.
213         :param skip_cnt: Skip first "skip_cnt" CPUs.
214         :param cpu_cnt: Count of cpus to return, if 0 then return all.
215         :param sep: Separator, default: "-".
216         :param smt_used: True - we want to use SMT, otherwise false.
217         :type node: dict
218         :type cpu_node: int
219         :type skip_cnt: int
220         :type cpu_cnt: int
221         :type sep: str
222         :type smt_used: bool
223         :returns: String of node related range of CPU numbers.
224         :rtype: str
225         """
226         cpu_list = CpuUtils.cpu_slice_of_list_per_node(
227             node, cpu_node, skip_cnt=skip_cnt, cpu_cnt=cpu_cnt,
228             smt_used=smt_used
229         )
230         if smt_used:
231             cpu_list_len = len(cpu_list)
232             cpu_list_0 = cpu_list[:cpu_list_len // CpuUtils.NR_OF_THREADS]
233             cpu_list_1 = cpu_list[cpu_list_len // CpuUtils.NR_OF_THREADS:]
234             cpu_range = f"{cpu_list_0[0]}{sep}{cpu_list_0[-1]}," \
235                 f"{cpu_list_1[0]}{sep}{cpu_list_1[-1]}"
236         else:
237             cpu_range = f"{cpu_list[0]}{sep}{cpu_list[-1]}"
238
239         return cpu_range
240
241     @staticmethod
242     def cpu_slice_of_list_for_nf(
243             node, cpu_node, nf_chains=1, nf_nodes=1, nf_chain=1, nf_node=1,
244             nf_dtc=1, nf_mtcr=2, nf_dtcr=1, skip_cnt=0):
245         """Return list of DUT node related list of CPU numbers. The main
246         computing unit is physical core count.
247
248         :param node: DUT node.
249         :param cpu_node: Numa node number.
250         :param nf_chains: Number of NF chains.
251         :param nf_nodes: Number of NF nodes in chain.
252         :param nf_chain: Chain number indexed from 1.
253         :param nf_node: Node number indexed from 1.
254         :param nf_dtc: Amount of physical cores for NF data plane.
255         :param nf_mtcr: NF main thread per core ratio.
256         :param nf_dtcr: NF data plane thread per core ratio.
257         :param skip_cnt: Skip first "skip_cnt" CPUs.
258         :type node: dict
259         :param cpu_node: int.
260         :type nf_chains: int
261         :type nf_nodes: int
262         :type nf_chain: int
263         :type nf_node: int
264         :type nf_dtc: int or float
265         :type nf_mtcr: int
266         :type nf_dtcr: int
267         :type skip_cnt: int
268         :returns: List of CPUs allocated to NF.
269         :rtype: list
270         :raises RuntimeError: If we require more cpus than available or if
271         placement is not possible due to wrong parameters.
272         """
273         if not 1 <= nf_chain <= nf_chains:
274             raise RuntimeError(u"ChainID is out of range!")
275         if not 1 <= nf_node <= nf_nodes:
276             raise RuntimeError(u"NodeID is out of range!")
277
278         smt_used = CpuUtils.is_smt_enabled(node[u"cpuinfo"])
279         cpu_list = CpuUtils.cpu_list_per_node(node, cpu_node, smt_used)
280         # CPU thread sibling offset.
281         sib = len(cpu_list) // CpuUtils.NR_OF_THREADS
282
283         dtc_is_integer = isinstance(nf_dtc, int)
284         if not smt_used and not dtc_is_integer:
285             raise RuntimeError(u"Cannot allocate if SMT is not enabled!")
286         if not dtc_is_integer:
287             nf_dtc = 1
288
289         mt_req = ((nf_chains * nf_nodes) + nf_mtcr - 1) // nf_mtcr
290         dt_req = ((nf_chains * nf_nodes) + nf_dtcr - 1) // nf_dtcr
291
292         if (skip_cnt + mt_req + dt_req) > (sib if smt_used else len(cpu_list)):
293             raise RuntimeError(u"Not enough CPU cores available for placement!")
294
295         offset = (nf_node - 1) + (nf_chain - 1) * nf_nodes
296         mt_skip = skip_cnt + (offset % mt_req)
297         dt_skip = skip_cnt + mt_req + (offset % dt_req) * nf_dtc
298
299         result = cpu_list[dt_skip:dt_skip + nf_dtc]
300         if smt_used:
301             if (offset // mt_req) & 1:  # check oddness
302                 mt_skip += sib
303
304             dt_skip += sib
305             if dtc_is_integer:
306                 result.extend(cpu_list[dt_skip:dt_skip + nf_dtc])
307             elif (offset // dt_req) & 1:  # check oddness
308                 result = cpu_list[dt_skip:dt_skip + nf_dtc]
309
310         result[0:0] = cpu_list[mt_skip:mt_skip + 1]
311         return result
312
313     @staticmethod
314     def get_affinity_nf(
315             nodes, node, nf_chains=1, nf_nodes=1, nf_chain=1, nf_node=1,
316             vs_dtc=1, nf_dtc=1, nf_mtcr=2, nf_dtcr=1):
317
318         """Get affinity of NF (network function). Result will be used to compute
319         the amount of CPUs and also affinity.
320
321         :param nodes: Physical topology nodes.
322         :param node: SUT node.
323         :param nf_chains: Number of NF chains.
324         :param nf_nodes: Number of NF nodes in chain.
325         :param nf_chain: Chain number indexed from 1.
326         :param nf_node: Node number indexed from 1.
327         :param vs_dtc: Amount of physical cores for vswitch data plane.
328         :param nf_dtc: Amount of physical cores for NF data plane.
329         :param nf_mtcr: NF main thread per core ratio.
330         :param nf_dtcr: NF data plane thread per core ratio.
331         :type nodes: dict
332         :type node: dict
333         :type nf_chains: int
334         :type nf_nodes: int
335         :type nf_chain: int
336         :type nf_node: int
337         :type vs_dtc: int
338         :type nf_dtc: int or float
339         :type nf_mtcr: int
340         :type nf_dtcr: int
341         :returns: List of CPUs allocated to NF.
342         :rtype: list
343         """
344         skip_cnt = Constants.CPU_CNT_SYSTEM + Constants.CPU_CNT_MAIN + vs_dtc
345
346         interface_list = list()
347         interface_list.append(BuiltIn().get_variable_value(f"${{{node}_if1}}"))
348         interface_list.append(BuiltIn().get_variable_value(f"${{{node}_if2}}"))
349
350         cpu_node = Topology.get_interfaces_numa_node(
351             nodes[node], *interface_list)
352
353         return CpuUtils.cpu_slice_of_list_for_nf(
354             node=nodes[node], cpu_node=cpu_node, nf_chains=nf_chains,
355             nf_nodes=nf_nodes, nf_chain=nf_chain, nf_node=nf_node,
356             nf_mtcr=nf_mtcr, nf_dtcr=nf_dtcr, nf_dtc=nf_dtc, skip_cnt=skip_cnt
357         )
358
359     @staticmethod
360     def get_affinity_trex(
361             node, if1_pci, if2_pci, tg_mtc=1, tg_dtc=1, tg_ltc=1):
362         """Get affinity for T-Rex. Result will be used to pin T-Rex threads.
363
364         :param node: TG node.
365         :param if1_pci: TG first interface.
366         :param if2_pci: TG second interface.
367         :param tg_mtc: TG main thread count.
368         :param tg_dtc: TG dataplane thread count.
369         :param tg_ltc: TG latency thread count.
370         :type node: dict
371         :type if1_pci: str
372         :type if2_pci: str
373         :type tg_mtc: int
374         :type tg_dtc: int
375         :type tg_ltc: int
376         :returns: List of CPUs allocated to T-Rex including numa node.
377         :rtype: int, int, int, list
378         """
379         interface_list = [if1_pci, if2_pci]
380         cpu_node = Topology.get_interfaces_numa_node(node, *interface_list)
381
382         master_thread_id = CpuUtils.cpu_slice_of_list_per_node(
383             node, cpu_node, skip_cnt=0, cpu_cnt=tg_mtc,
384             smt_used=False)
385
386         threads = CpuUtils.cpu_slice_of_list_per_node(
387             node, cpu_node, skip_cnt=tg_mtc, cpu_cnt=tg_dtc,
388             smt_used=False)
389
390         latency_thread_id = CpuUtils.cpu_slice_of_list_per_node(
391             node, cpu_node, skip_cnt=tg_mtc + tg_dtc, cpu_cnt=tg_ltc,
392             smt_used=False)
393
394         return master_thread_id[0], latency_thread_id[0], cpu_node, threads
395
396     @staticmethod
397     def get_affinity_iperf(
398             node, pf_key, cpu_skip_cnt=0, cpu_cnt=1):
399         """Get affinity for iPerf3. Result will be used to pin iPerf3 threads.
400
401         :param node: Topology node.
402         :param pf_key: Topology interface.
403         :param cpu_skip_cnt: Amount of CPU cores to skip.
404         :param cpu_cnt: CPU threads count.
405         :type node: dict
406         :type pf_key: str
407         :type cpu_skip_cnt: int
408         :type cpu_cnt: int
409         :returns: List of CPUs allocated to iPerf3.
410         :rtype: str
411         """
412         if pf_key:
413             cpu_node = Topology.get_interface_numa_node(node, pf_key)
414         else:
415             cpu_node = 0
416
417         return CpuUtils.cpu_range_per_node_str(
418             node, cpu_node, skip_cnt=cpu_skip_cnt, cpu_cnt=cpu_cnt,
419             smt_used=False)
420
421     @staticmethod
422     def get_affinity_vhost(
423             node, pf_key, skip_cnt=0, cpu_cnt=1):
424         """Get affinity for vhost. Result will be used to pin vhost threads.
425
426         :param node: Topology node.
427         :param pf_key: Topology interface.
428         :param skip_cnt: Amount of CPU cores to skip.
429         :param cpu_cnt: CPU threads count.
430         :type node: dict
431         :type pf_key: str
432         :type skip_cnt: int
433         :type cpu_cnt: int
434         :returns: List of CPUs allocated to vhost process.
435         :rtype: str
436         """
437         if pf_key:
438             cpu_node = Topology.get_interface_numa_node(node, pf_key)
439         else:
440             cpu_node = 0
441
442         smt_used = CpuUtils.is_smt_enabled(node[u"cpuinfo"])
443         if smt_used:
444             cpu_cnt = cpu_cnt // CpuUtils.NR_OF_THREADS
445
446         return CpuUtils.cpu_slice_of_list_per_node(
447             node, cpu_node=cpu_node, skip_cnt=skip_cnt, cpu_cnt=cpu_cnt,
448             smt_used=smt_used)