report: added report static content for new testbed type AMD EPYC Zen2 7532
[csit.git] / docs / report / introduction / physical_testbeds.rst
1 .. _tested_physical_topologies:
2
3 Physical Testbeds
4 =================
5
6 All :abbr:`FD.io (Fast Data Input/Ouput)` :abbr:`CSIT (Continuous System
7 Integration and Testing)` performance test results included in this
8 report are executed on the physical testbeds hosted by :abbr:`LF (Linux
9 Foundation)` FD.io project, unless otherwise noted.
10
11 Two physical server topology types are used:
12
13 - **2-Node Topology**: Consists of one server acting as a System Under
14   Test (SUT) and one server acting as a Traffic Generator (TG), with
15   both servers connected into a ring topology. Used for executing tests
16   that require frame encapsulations supported by TG.
17
18 - **3-Node Topology**: Consists of two servers acting as a Systems Under
19   Test (SUTs) and one server acting as a Traffic Generator (TG), with
20   all servers connected into a ring topology. Used for executing tests
21   that require frame encapsulations not supported by TG e.g. certain
22   overlay tunnel encapsulations and IPsec. Number of native Ethernet,
23   IPv4 and IPv6 encapsulation tests are also executed on these testbeds,
24   for comparison with 2-Node Topology.
25
26 Current FD.io production testbeds are built with SUT servers based on
27 the following processor architectures:
28
29 - Intel Xeon: Skylake Platinum 8180, Haswell-SP E5-2699v3,
30   Cascade Lake Platinum 8280, Cascade Lake 6252N.
31 - Intel Atom: Denverton C3858.
32 - Arm: TaiShan 2280, hip07-d05.
33 - AMD EPYC: Zen2 7532.
34
35 Server SUT performance depends on server and processor type, hence
36 results for testbeds based on different servers must be reported
37 separately, and compared if appropriate.
38
39 Complete technical specifications of compute servers used in CSIT
40 physical testbeds are maintained in FD.io CSIT repository:
41 https://git.fd.io/csit/tree/docs/lab/testbed_specifications.md.
42
43 Following is the description of existing production testbeds.
44
45 2-Node AMD EPYC Zen2 (2n-zn2)
46 -----------------------------
47
48 One 2n-zn2 testbed in in operation in FD.io labs. It is built based on
49 two SuperMicro SuperMicro AS-1114S-WTRT servers, with SUT and TG servers
50 equipped with one AMD EPYC Zen2 7532 processor each (256 MB Cache, 2.40
51 GHz, 32 cores). 2n-zn2 physical topology is shown below.
52
53 .. only:: latex
54
55     .. raw:: latex
56
57         \begin{figure}[H]
58             \centering
59                 \graphicspath{{../_tmp/src/introduction/}}
60                 \includegraphics[width=0.90\textwidth]{testbed-2n-zn2}
61                 \label{fig:testbed-2n-zn2}
62         \end{figure}
63
64 .. only:: html
65
66     .. figure:: testbed-2n-zn2.svg
67         :alt: testbed-2n-zn2
68         :align: center
69
70 SUT server is populated with the following NIC models:
71
72 #. NIC-1: x710-DA4 4p10GE Intel.
73 #. NIC-2: xxv710-DA2 2p25GE Intel.
74 #. NIC-3: cx556a-edat ConnectX5 2p100GE Mellanox.
75
76 TG server runs TRex application and is populated with the following
77 NIC models:
78
79 #. NIC-1: x710-DA4 4p10GE Intel.
80 #. NIC-2: xxv710-DA2 2p25GE Intel.
81 #. NIC-3: cx556a-edat ConnectX5 2p100GE Mellanox.
82
83 All AMD EPYC Zen2 7532 servers run with AMD SMT enabled, doubling the
84 number of logical cores exposed to Linux.
85
86 2-Node Xeon Cascade Lake (2n-clx)
87 ---------------------------------
88
89 Three 2n-clx testbeds are in operation in FD.io labs. Each 2n-clx testbed
90 is built with two SuperMicro SYS-7049GP-TRT servers, SUTs are equipped with two
91 Intel Xeon Gold 6252N processors (35.75 MB Cache, 2.30 GHz, 24 cores).
92 TGs are equiped with Intel Xeon Cascade Lake Platinum 8280 processors (38.5 MB
93 Cache, 2.70 GHz, 28 cores). 2n-clx physical topology is shown below.
94
95 .. only:: latex
96
97     .. raw:: latex
98
99         \begin{figure}[H]
100             \centering
101                 \graphicspath{{../_tmp/src/introduction/}}
102                 \includegraphics[width=0.90\textwidth]{testbed-2n-clx}
103                 \label{fig:testbed-2n-clx}
104         \end{figure}
105
106 .. only:: html
107
108     .. figure:: testbed-2n-clx.svg
109         :alt: testbed-2n-clx
110         :align: center
111
112 SUT servers are populated with the following NIC models:
113
114 #. NIC-1: x710-DA4 4p10GE Intel.
115 #. NIC-2: xxv710-DA2 2p25GE Intel.
116 #. NIC-3: cx556a-edat ConnectX5 2p100GE Mellanox.
117 #. NIC-4: empty, future expansion.
118 #. NIC-5: empty, future expansion.
119 #. NIC-6: empty, future expansion.
120
121 TG servers run T-Rex application and are populated with the following
122 NIC models:
123
124 #. NIC-1: x710-DA4 4p10GE Intel.
125 #. NIC-2: xxv710-DA2 2p25GE Intel.
126 #. NIC-3: cx556a-edat ConnectX5 2p100GE Mellanox.
127 #. NIC-4: empty, future expansion.
128 #. NIC-5: empty, future expansion.
129 #. NIC-6: x710-DA4 4p10GE Intel. (For self-tests.)
130
131 All Intel Xeon Cascade Lake servers run with Intel Hyper-Threading enabled,
132 doubling the number of logical cores exposed to Linux.
133
134 2-Node Xeon Skylake (2n-skx)
135 ----------------------------
136
137 Four 2n-skx testbeds are in operation in FD.io labs. Each 2n-skx testbed
138 is built with two SuperMicro SYS-7049GP-TRT servers, each in turn
139 equipped with two Intel Xeon Skylake Platinum 8180 processors (38.5 MB
140 Cache, 2.50 GHz, 28 cores). 2n-skx physical topology is shown below.
141
142 .. only:: latex
143
144     .. raw:: latex
145
146         \begin{figure}[H]
147             \centering
148                 \graphicspath{{../_tmp/src/introduction/}}
149                 \includegraphics[width=0.90\textwidth]{testbed-2n-skx}
150                 \label{fig:testbed-2n-skx}
151         \end{figure}
152
153 .. only:: html
154
155     .. figure:: testbed-2n-skx.svg
156         :alt: testbed-2n-skx
157         :align: center
158
159 SUT servers are populated with the following NIC models:
160
161 #. NIC-1: x710-DA4 4p10GE Intel.
162 #. NIC-2: xxv710-DA2 2p25GE Intel.
163 #. NIC-3: empty, future expansion.
164 #. NIC-4: empty, future expansion.
165 #. NIC-5: empty, future expansion.
166 #. NIC-6: empty, future expansion.
167
168 TG servers run T-Rex application and are populated with the following
169 NIC models:
170
171 #. NIC-1: x710-DA4 4p10GE Intel.
172 #. NIC-2: xxv710-DA2 2p25GE Intel.
173 #. NIC-3: empty, future expansion.
174 #. NIC-4: empty, future expansion.
175 #. NIC-5: empty, future expansion.
176 #. NIC-6: x710-DA4 4p10GE Intel. (For self-tests.)
177
178 All Intel Xeon Skylake servers run with Intel Hyper-Threading enabled,
179 doubling the number of logical cores exposed to Linux, with 56 logical
180 cores and 28 physical cores per processor socket.
181
182 3-Node Xeon Skylake (3n-skx)
183 ----------------------------
184
185 Two 3n-skx testbeds are in operation in FD.io labs. Each 3n-skx testbed
186 is built with three SuperMicro SYS-7049GP-TRT servers, each in turn
187 equipped with two Intel Xeon Skylake Platinum 8180 processors (38.5 MB
188 Cache, 2.50 GHz, 28 cores). 3n-skx physical topology is shown below.
189
190 .. only:: latex
191
192     .. raw:: latex
193
194         \begin{figure}[H]
195             \centering
196                 \graphicspath{{../_tmp/src/introduction/}}
197                 \includegraphics[width=0.90\textwidth]{testbed-3n-skx}
198                 \label{fig:testbed-3n-skx}
199         \end{figure}
200
201 .. only:: html
202
203     .. figure:: testbed-3n-skx.svg
204         :alt: testbed-3n-skx
205         :align: center
206
207 SUT1 and SUT2 servers are populated with the following NIC models:
208
209 #. NIC-1: x710-DA4 4p10GE Intel.
210 #. NIC-2: xxv710-DA2 2p25GE Intel.
211 #. NIC-3: empty, future expansion.
212 #. NIC-4: empty, future expansion.
213 #. NIC-5: empty, future expansion.
214 #. NIC-6: empty, future expansion.
215
216 TG servers run T-Rex application and are populated with the following
217 NIC models:
218
219 #. NIC-1: x710-DA4 4p10GE Intel.
220 #. NIC-2: xxv710-DA2 2p25GE Intel.
221 #. NIC-3: empty, future expansion.
222 #. NIC-4: empty, future expansion.
223 #. NIC-5: empty, future expansion.
224 #. NIC-6: x710-DA4 4p10GE Intel. (For self-tests.)
225
226 All Intel Xeon Skylake servers run with Intel Hyper-Threading enabled,
227 doubling the number of logical cores exposed to Linux, with 56 logical
228 cores and 28 physical cores per processor socket.
229
230 3-Node Xeon Haswell (3n-hsw)
231 ----------------------------
232
233 Three 3n-hsw testbeds are in operation in FD.io labs. Each 3n-hsw
234 testbed is built with three Cisco UCS-c240m3 servers, each in turn
235 equipped with two Intel Xeon Haswell-SP E5-2699v3 processors (45 MB
236 Cache, 2.3 GHz, 18 cores). 3n-hsw physical topology is shown below.
237
238 .. only:: latex
239
240     .. raw:: latex
241
242         \begin{figure}[H]
243             \centering
244                 \graphicspath{{../_tmp/src/introduction/}}
245                 \includegraphics[width=0.90\textwidth]{testbed-3n-hsw}
246                 \label{fig:testbed-3n-hsw}
247         \end{figure}
248
249 .. only:: html
250
251     .. figure:: testbed-3n-hsw.svg
252         :alt: testbed-3n-hsw
253         :align: center
254
255 SUT1 and SUT2 servers are populated with the following NIC models:
256
257 #. NIC-1: VIC 1385 2p40GE Cisco.
258 #. NIC-2: NIC x520 2p10GE Intel.
259 #. NIC-3: empty.
260 #. NIC-4: NIC xl710-QDA2 2p40GE Intel.
261 #. NIC-5: NIC x710-DA2 2p10GE Intel.
262 #. NIC-6: QAT 8950 50G (Walnut Hill) Intel.
263
264 TG servers run T-Rex application and are populated with the following
265 NIC models:
266
267 #. NIC-1: NIC xl710-QDA2 2p40GE Intel.
268 #. NIC-2: NIC x710-DA2 2p10GE Intel.
269 #. NIC-3: empty.
270 #. NIC-4: NIC xl710-QDA2 2p40GE Intel.
271 #. NIC-5: NIC x710-DA2 2p10GE Intel.
272 #. NIC-6: NIC x710-DA2 2p10GE Intel. (For self-tests.)
273
274 All Intel Xeon Haswell servers run with Intel Hyper-Threading disabled,
275 making the number of logical cores exposed to Linux match the number of
276 18 physical cores per processor socket.
277
278 2-Node Atom Denverton (2n-dnv)
279 ------------------------------
280
281 2n-dnv testbed is built with: i) one Intel S2600WFT server acting as TG
282 and equipped with two Intel Xeon Skylake Platinum 8180 processors (38.5
283 MB Cache, 2.50 GHz, 28 cores), and ii) one SuperMicro SYS-E300-9A server
284 acting as SUT and equipped with one Intel Atom C3858 processor (12 MB
285 Cache, 2.00 GHz, 12 cores). 2n-dnv physical topology is shown below.
286
287 .. only:: latex
288
289     .. raw:: latex
290
291         \begin{figure}[H]
292             \centering
293                 \graphicspath{{../_tmp/src/introduction/}}
294                 \includegraphics[width=0.90\textwidth]{testbed-2n-dnv}
295                 \label{fig:testbed-2n-dnv}
296         \end{figure}
297
298 .. only:: html
299
300     .. figure:: testbed-2n-dnv.svg
301         :alt: testbed-2n-dnv
302         :align: center
303
304 SUT server have four internal 10G NIC port:
305
306 #. P-1: x553 copper port.
307 #. P-2: x553 copper port.
308 #. P-3: x553 fiber port.
309 #. P-4: x553 fiber port.
310
311 TG server run T-Rex software traffic generator and are populated with the
312 following NIC models:
313
314 #. NIC-1: x550-T2 2p10GE Intel.
315 #. NIC-2: x550-T2 2p10GE Intel.
316 #. NIC-3: x520-DA2 2p10GE Intel.
317 #. NIC-4: x520-DA2 2p10GE Intel.
318
319 The 2n-dnv testbed is in operation in Intel SH labs.
320
321 3-Node Atom Denverton (3n-dnv)
322 ------------------------------
323
324 One 3n-dnv testbed is built with: i) one SuperMicro SYS-7049GP-TRT
325 server acting as TG and equipped with two Intel Xeon Skylake Platinum
326 8180 processors (38.5 MB Cache, 2.50 GHz, 28 cores), and ii) one
327 SuperMicro SYS-E300-9A server acting as SUT and equipped with one Intel
328 Atom C3858 processor (12 MB Cache, 2.00 GHz, 12 cores). 3n-dnv physical
329 topology is shown below.
330
331 .. only:: latex
332
333     .. raw:: latex
334
335         \begin{figure}[H]
336             \centering
337                 \graphicspath{{../_tmp/src/introduction/}}
338                 \includegraphics[width=0.90\textwidth]{testbed-3n-dnv}
339                 \label{fig:testbed-3n-dnv}
340         \end{figure}
341
342 .. only:: html
343
344     .. figure:: testbed-3n-dnv.svg
345         :alt: testbed-3n-dnv
346         :align: center
347
348 SUT1 and SUT2 servers are populated with the following NIC models:
349
350 #. NIC-1: x553 2p10GE fiber Intel.
351 #. NIC-2: x553 2p10GE copper Intel.
352
353 TG servers run T-Rex application and are populated with the following
354 NIC models:
355
356 #. NIC-1: x710-DA4 4p10GE Intel.
357
358 3-Node ARM TaiShan (3n-tsh)
359 ---------------------------
360
361 One 3n-tsh testbed is built with: i) one SuperMicro SYS-7049GP-TRT
362 server acting as TG and equipped with two Intel Xeon Skylake Platinum
363 8180 processors (38.5 MB Cache, 2.50 GHz, 28 cores), and ii) one Huawei
364 TaiShan 2280 server acting as SUT and equipped with one  hip07-d05
365 processor (64* ARM Cortex-A72). 3n-tsh physical topology is shown below.
366
367 .. only:: latex
368
369     .. raw:: latex
370
371         \begin{figure}[H]
372             \centering
373                 \graphicspath{{../_tmp/src/introduction/}}
374                 \includegraphics[width=0.90\textwidth]{testbed-3n-tsh}
375                 \label{fig:testbed-3n-tsh}
376         \end{figure}
377
378 .. only:: html
379
380     .. figure:: testbed-3n-tsh.svg
381         :alt: testbed-3n-tsh
382         :align: center
383
384 SUT1 and SUT2 servers are populated with the following NIC models:
385
386 #. NIC-1: connectx4 2p25GE Mellanox.
387 #. NIC-2: x520 2p10GE Intel.
388
389 TG servers run T-Rex application and are populated with the following
390 NIC models:
391
392 #. NIC-1: x710-DA4 4p10GE Intel.
393 #. NIC-2: xxv710-DA2 2p25GE Intel.