fix(docs): Static content
[csit.git] / docs / report / introduction / physical_testbeds.rst
1 .. _tested_physical_topologies:
2
3 Performance Physical Testbeds
4 =============================
5
6 All :abbr:`FD.io (Fast Data Input/Ouput)` :abbr:`CSIT (Continuous System
7 Integration and Testing)` performance test results included in this
8 report are executed on the physical testbeds hosted by :abbr:`LF (Linux
9 Foundation)` FD.io project, unless otherwise noted.
10
11 Two physical server topology types are used:
12
13 - **2-Node Topology**: Consists of one server acting as a System Under
14   Test (SUT) and one server acting as a Traffic Generator (TG), with
15   both servers connected into a ring topology. Used for executing tests
16   that require frame encapsulations supported by TG.
17
18 - **3-Node Topology**: Consists of two servers acting as a Systems Under
19   Test (SUTs) and one server acting as a Traffic Generator (TG), with
20   all servers connected into a ring topology. Used for executing tests
21   that require frame encapsulations not supported by TG e.g. certain
22   overlay tunnel encapsulations and IPsec. Number of native Ethernet,
23   IPv4 and IPv6 encapsulation tests are also executed on these testbeds,
24   for comparison with 2-Node Topology.
25
26 Current FD.io production testbeds are built with SUT servers based on
27 the following processor architectures:
28
29 - Intel Xeon: Cascadelake 6252N, Icelake 8358.
30 - Intel Atom: Denverton C3858, Snowridge P5362.
31 - Arm: TaiShan 2280, hip07-d05, Neoverse N1.
32 - AMD EPYC: Zen2 7532.
33
34 Server SUT performance depends on server and processor type, hence
35 results for testbeds based on different servers must be reported
36 separately, and compared if appropriate.
37
38 Complete technical specifications of compute servers used in CSIT
39 physical testbeds are maintained in FD.io CSIT repository:
40 https://git.fd.io/csit/tree/docs/lab/testbed_specifications.md.
41
42 Physical NICs and Drivers
43 -------------------------
44
45 SUT and TG servers are equipped with a number of different NIC models.
46
47 VPP is performance tested on SUTs with the following NICs and drivers:
48
49 #. 2p10GE: x550, x553 Intel (codename Niantic)
50    - DPDK Poll Mode Driver (PMD).
51 #. 4p10GE: x710-DA4 Intel (codename Fortville, FVL)
52    - DPDK PMD.
53    - AVF in PMD mode.
54    - AF_XDP in PMD mode.
55 #. 2p25GE: xxv710-DA2 Intel (codename Fortville, FVL)
56    - DPDK PMD.
57    - AVF in PMD mode.
58    - AF_XDP in PMD mode.
59 #. 4p25GE: xxv710-DA4 Intel (codename Fortville, FVL)
60    - DPDK PMD.
61    - AVF in PMD mode.
62    - AF_XDP in PMD mode.
63 #. 4p25GE: E822-CQDA4 Intel (codename Columbiaville, CVL)
64    - DPDK PMD.
65    - AVF in PMD mode.
66 #. 2p100GE: cx556a-edat Mellanox ConnectX5
67    - RDMA_core in PMD mode.
68 #. 2p100GE: E810-2CQDA2 Intel (codename Columbiaville, CVL)
69    - DPDK PMD.
70    - AVF in PMD mode.
71
72 DPDK applications, testpmd and l3fwd, are performance tested on the same
73 SUTs exclusively with DPDK drivers for all NICs.
74
75 TRex running on TGs is using DPDK drivers for all NICs.
76
77 VPP hoststack tests utilize ab (Apache HTTP server benchmarking tool)
78 running on TGs and using Linux drivers for all NICs.
79
80 For more information see :ref:`vpp_test_environment`
81 and :ref:`dpdk_test_environment`.
82
83 .. _physical_testbeds_2n_zn2:
84
85 2-Node AMD EPYC Zen2 (2n-zn2)
86 -----------------------------
87
88 One 2n-zn2 testbed in in operation in FD.io labs. It is built based on
89 two SuperMicro SuperMicro AS-1114S-WTRT servers, with SUT and TG servers
90 equipped with one AMD EPYC Zen2 7532 processor each (256 MB Cache, 2.40
91 GHz, 32 cores). 2n-zn2 physical topology is shown below.
92
93 .. only:: latex
94
95     .. raw:: latex
96
97         \begin{figure}[H]
98             \centering
99                 \graphicspath{{../_tmp/src/introduction/}}
100                 \includegraphics[width=0.90\textwidth]{testbed-2n-zn2}
101                 \label{fig:testbed-2n-zn2}
102         \end{figure}
103
104 .. only:: html
105
106     .. figure:: testbed-2n-zn2.svg
107         :alt: testbed-2n-zn2
108         :align: center
109
110 SUT NICs:
111
112 #. NIC-1: x710-DA4 4p10GE Intel.
113 #. NIC-2: xxv710-DA2 2p25GE Intel.
114 #. NIC-3: cx556a-edat ConnectX5 2p100GE Mellanox.
115
116 TG NICs:
117
118 #. NIC-1: x710-DA4 4p10GE Intel.
119 #. NIC-2: xxv710-DA2 2p25GE Intel.
120 #. NIC-3: cx556a-edat ConnectX5 2p100GE Mellanox.
121
122 All AMD EPYC Zen2 7532 servers run with AMD SMT enabled, doubling the
123 number of logical cores exposed to Linux.
124
125 .. _physical_testbeds_2n_clx:
126
127 2-Node Xeon Cascadelake (2n-clx)
128 --------------------------------
129
130 Three 2n-clx testbeds are in operation in FD.io labs. Each 2n-clx testbed
131 is built with two SuperMicro SYS-7049GP-TRT servers, SUTs are equipped with two
132 Intel Xeon Gold 6252N processors (35.75 MB Cache, 2.30 GHz, 24 cores).
133 TGs are equiped with Intel Xeon Cascade Lake Platinum 8280 processors (38.5 MB
134 Cache, 2.70 GHz, 28 cores). 2n-clx physical topology is shown below.
135
136 .. only:: latex
137
138     .. raw:: latex
139
140         \begin{figure}[H]
141             \centering
142                 \graphicspath{{../_tmp/src/introduction/}}
143                 \includegraphics[width=0.90\textwidth]{testbed-2n-clx}
144                 \label{fig:testbed-2n-clx}
145         \end{figure}
146
147 .. only:: html
148
149     .. figure:: testbed-2n-clx.svg
150         :alt: testbed-2n-clx
151         :align: center
152
153 SUT NICs:
154
155 #. NIC-1: x710-DA4 4p10GE Intel.
156 #. NIC-2: xxv710-DA2 2p25GE Intel.
157 #. NIC-3: cx556a-edat ConnectX5 2p100GE Mellanox.
158 #. NIC-4: empty, future expansion.
159 #. NIC-5: empty, future expansion.
160 #. NIC-6: empty, future expansion.
161
162 TG NICs:
163
164 #. NIC-1: x710-DA4 4p10GE Intel.
165 #. NIC-2: xxv710-DA2 2p25GE Intel.
166 #. NIC-3: cx556a-edat ConnectX5 2p100GE Mellanox.
167 #. NIC-4: empty, future expansion.
168 #. NIC-5: empty, future expansion.
169 #. NIC-6: x710-DA4 4p10GE Intel. (For self-tests.)
170
171 All Intel Xeon Cascadelake servers run with Intel Hyper-Threading enabled,
172 doubling the number of logical cores exposed to Linux.
173
174 .. _physical_testbeds_2n_icx:
175
176 2-Node Xeon Icelake (2n-icx)
177 ----------------------------
178
179 One 2n-icx testbed is in operation in FD.io labs. It is built with two
180 SuperMicro SYS-740GP-TNRT servers, each in turn equipped with two Intel Xeon
181 Platinum 8358 processors (48 MB Cache, 2.60 GHz, 32 cores).
182
183 .. only:: latex
184
185     .. raw:: latex
186
187         \begin{figure}[H]
188             \centering
189                 \graphicspath{{../_tmp/src/introduction/}}
190                 \includegraphics[width=0.90\textwidth]{testbed-2n-icx}
191                 \label{fig:testbed-2n-icx}
192         \end{figure}
193
194 .. only:: html
195
196     .. figure:: testbed-2n-icx.svg
197         :alt: testbed-2n-icx
198         :align: center
199
200 SUT and TG NICs:
201
202 #. NIC-1: xxv710-DA2 2p25GE Intel.
203 #. NIC-2: E810-2CQDA2 2p100GbE Intel (* to be added).
204 #. NIC-3: E810-CQDA4 4p100GbE Intel (* to be added).
205
206 All Intel Xeon Icelake servers run with Intel Hyper-Threading enabled,
207 doubling the number of logical cores exposed to Linux.
208
209 .. _physical_testbeds_3n_icx:
210
211 3-Node Xeon Icelake (3n-icx)
212 ----------------------------
213
214 One 3n-icx testbed is in operation in FD.io labs. It is built with three
215 SuperMicro SYS-740GP-TNRT servers, each in turn equipped with two Intel Xeon
216 Platinum 8358 processors (48 MB Cache, 2.60 GHz, 32 cores).
217
218 .. only:: latex
219
220     .. raw:: latex
221
222         \begin{figure}[H]
223             \centering
224                 \graphicspath{{../_tmp/src/introduction/}}
225                 \includegraphics[width=0.90\textwidth]{testbed-3n-icx}
226                 \label{fig:testbed-3n-icx}
227         \end{figure}
228
229 .. only:: html
230
231     .. figure:: testbed-3n-icx.svg
232         :alt: testbed-3n-icx
233         :align: center
234
235 SUT and TG NICs:
236
237 #. NIC-1: xxv710-DA2 2p25GE Intel.
238 #. NIC-2: E810-2CQDA2 2p100GbE Intel (* to be added).
239 #. NIC-3: E810-CQDA4 4p100GbE Intel (* to be added).
240
241 All Intel Xeon Icelake servers run with Intel Hyper-Threading enabled,
242 doubling the number of logical cores exposed to Linux.
243
244 .. _physical_testbeds_2n_dnv:
245
246 2-Node Atom Denverton (2n-dnv)
247 ------------------------------
248
249 2n-dnv testbed is built with: i) one Intel S2600WFT server acting as TG
250 and equipped with two Intel Xeon Skylake Platinum 8180 processors (38.5
251 MB Cache, 2.50 GHz, 28 cores), and ii) one SuperMicro SYS-E300-9A server
252 acting as SUT and equipped with one Intel Atom C3858 processor (12 MB
253 Cache, 2.00 GHz, 12 cores). 2n-dnv physical topology is shown below.
254
255 .. only:: latex
256
257     .. raw:: latex
258
259         \begin{figure}[H]
260             \centering
261                 \graphicspath{{../_tmp/src/introduction/}}
262                 \includegraphics[width=0.90\textwidth]{testbed-2n-dnv}
263                 \label{fig:testbed-2n-dnv}
264         \end{figure}
265
266 .. only:: html
267
268     .. figure:: testbed-2n-dnv.svg
269         :alt: testbed-2n-dnv
270         :align: center
271
272 SUT 10GE NIC ports:
273
274 #. P-1: x553 copper port.
275 #. P-2: x553 copper port.
276 #. P-3: x553 fiber port.
277 #. P-4: x553 fiber port.
278
279 TG NICs:
280
281 #. NIC-1: x550-T2 2p10GE Intel.
282 #. NIC-2: x550-T2 2p10GE Intel.
283 #. NIC-3: x520-DA2 2p10GE Intel.
284 #. NIC-4: x520-DA2 2p10GE Intel.
285
286 The 2n-dnv testbed is in operation in Intel SH labs.
287
288 .. _physical_testbeds_3n_dnv:
289
290 3-Node Atom Denverton (3n-dnv)
291 ------------------------------
292
293 One 3n-dnv testbed is built with: i) one SuperMicro SYS-7049GP-TRT
294 server acting as TG and equipped with two Intel Xeon Skylake Platinum
295 8180 processors (38.5 MB Cache, 2.50 GHz, 28 cores), and ii) one
296 SuperMicro SYS-E300-9A server acting as SUT and equipped with one Intel
297 Atom C3858 processor (12 MB Cache, 2.00 GHz, 12 cores). 3n-dnv physical
298 topology is shown below.
299
300 .. only:: latex
301
302     .. raw:: latex
303
304         \begin{figure}[H]
305             \centering
306                 \graphicspath{{../_tmp/src/introduction/}}
307                 \includegraphics[width=0.90\textwidth]{testbed-3n-dnv}
308                 \label{fig:testbed-3n-dnv}
309         \end{figure}
310
311 .. only:: html
312
313     .. figure:: testbed-3n-dnv.svg
314         :alt: testbed-3n-dnv
315         :align: center
316
317 SUT1 and SUT2 NICs:
318
319 #. NIC-1: x553 2p10GE fiber Intel.
320 #. NIC-2: x553 2p10GE copper Intel.
321
322 TG NICs:
323
324 #. NIC-1: x710-DA4 4p10GE Intel.
325
326 .. _physical_testbeds_3n_alt:
327
328 3-Node ARM Altra (3n-alt)
329 ---------------------------
330
331 One 3n-tsh testbed is built with: i) one SuperMicro SYS-740GP-TNRT
332 server acting as TG and equipped with two Intel Xeon Icelake Platinum
333 8358 processors (80 MB Cache, 2.60 GHz, 32 cores), and ii) one Ampere
334 Altra server acting as SUT and equipped with two Q80-30 processors
335 (80* ARM Neoverse N1). 3n-alt physical topology is shown below.
336
337 .. only:: latex
338
339     .. raw:: latex
340
341         \begin{figure}[H]
342             \centering
343                 \graphicspath{{../_tmp/src/introduction/}}
344                 \includegraphics[width=0.90\textwidth]{testbed-3n-alt}
345                 \label{fig:testbed-3n-alt}
346         \end{figure}
347
348 .. only:: html
349
350     .. figure:: testbed-3n-alt.svg
351         :alt: testbed-3n-alt
352         :align: center
353
354 SUT1 and SUT2 NICs:
355
356 #. NIC-1: xl710-QDA2-2p40GE Intel.
357
358 TG NICs:
359
360 #. NIC-1: xxv710-DA2-2p25GE Intel.
361 #. NIC-2: xl710-QDA2-2p40GE Intel.
362 #. NIC-3: e810-XXVDA4-4p25GE Intel.
363 #. NIC-4: e810-2CQDA2-2p100GE Intel.
364
365 .. _physical_testbeds_3n_tsh:
366
367 3-Node ARM TaiShan (3n-tsh)
368 ---------------------------
369
370 One 3n-tsh testbed is built with: i) one SuperMicro SYS-7049GP-TRT
371 server acting as TG and equipped with two Intel Xeon Skylake Platinum
372 8180 processors (38.5 MB Cache, 2.50 GHz, 28 cores), and ii) one Huawei
373 TaiShan 2280 server acting as SUT and equipped with one  hip07-d05
374 processor (64* ARM Cortex-A72). 3n-tsh physical topology is shown below.
375
376 .. only:: latex
377
378     .. raw:: latex
379
380         \begin{figure}[H]
381             \centering
382                 \graphicspath{{../_tmp/src/introduction/}}
383                 \includegraphics[width=0.90\textwidth]{testbed-3n-tsh}
384                 \label{fig:testbed-3n-tsh}
385         \end{figure}
386
387 .. only:: html
388
389     .. figure:: testbed-3n-tsh.svg
390         :alt: testbed-3n-tsh
391         :align: center
392
393 SUT1 and SUT2 NICs:
394
395 #. NIC-1: connectx4 2p25GE Mellanox.
396 #. NIC-2: x520 2p10GE Intel.
397
398 TG NICs:
399
400 #. NIC-1: x710-DA4 4p10GE Intel.
401 #. NIC-2: xxv710-DA2 2p25GE Intel.
402 #. NIC-3: xl710-QDA2 2p40GE Intel.
403
404 .. _physical_testbeds_2n_tx2:
405
406 2-Node ARM ThunderX2 (2n-tx2)
407 -----------------------------
408
409 One 2n-tx2 testbed is built with: i) one SuperMicro SYS-7049GP-TRT
410 server acting as TG and equipped with two Intel Xeon Skylake Platinum
411 8180 processors (38.5 MB Cache, 2.50 GHz, 28 cores), and ii) one Marvell
412 ThnderX2 9975 (28* ThunderX2) server acting as SUT and equipped with two
413 ThunderX2 ARMv8 CN9975 processors. 2n-tx2 physical topology is shown below.
414
415 .. only:: latex
416
417     .. raw:: latex
418
419         \begin{figure}[H]
420             \centering
421                 \graphicspath{{../_tmp/src/introduction/}}
422                 \includegraphics[width=0.90\textwidth]{testbed-2n-tx2}
423                 \label{fig:testbed-2n-tx2}
424         \end{figure}
425
426 .. only:: html
427
428     .. figure:: testbed-2n-tx2.svg
429         :alt: testbed-2n-tx2
430         :align: center
431
432 SUT NICs:
433
434 #. NIC-1: xl710-QDA2 2p40GE Intel (not connected).
435 #. NIC-2: xl710-QDA2 2p40GE Intel.
436
437 TG NICs:
438
439 #. NIC-1: xl710-QDA2 2p40GE Intel.
440
441 .. _physical_testbeds_3n_snr:
442
443 3-Node Atom Snowridge (3n-snr)
444 ------------------------------
445
446 One 3n-snr testbed is built with: i) one SuperMicro SYS-740GP-TNRT
447 server acting as TG and equipped with two Intel Xeon Icelake Platinum
448 8358 processors (48 MB Cache, 2.60 GHz, 32 cores), and ii) SUT equipped with
449 one Intel Atom P5362 processor (27 MB Cache, 2.20 GHz, 24 cores). 3n-snr
450 physical topology is shown below.
451
452 .. only:: latex
453
454     .. raw:: latex
455
456         \begin{figure}[H]
457             \centering
458                 \graphicspath{{../_tmp/src/introduction/}}
459                 \includegraphics[width=0.90\textwidth]{testbed-3n-snr}
460                 \label{fig:testbed-3n-snr}
461         \end{figure}
462
463 .. only:: html
464
465     .. figure:: testbed-3n-snr.svg
466         :alt: testbed-3n-snr
467         :align: center
468
469 SUT1 and SUT2 NICs:
470
471 #. NIC-1: e822cq-DA4 4p25GE fiber Intel.
472
473 TG NICs:
474
475 #. NIC-1: e810xxv-DA4 4p25GE Intel.