Report: Add diagrams for testbeds
[csit.git] / docs / report / introduction / physical_testbeds.rst
1 .. _tested_physical_topologies:
2
3 Physical Testbeds
4 =================
5
6 All :abbr:`FD.io (Fast Data Input/Ouput)` :abbr:`CSIT (Continuous System
7 Integration and Testing)` performance test results included in this
8 report are executed on the physical testbeds hosted by :abbr:`LF (Linux
9 Foundation)` FD.io project, unless otherwise noted.
10
11 Two physical server topology types are used:
12
13 - **2-Node Topology**: Consists of one server acting as a System Under
14   Test (SUT) and one server acting as a Traffic Generator (TG), with
15   both servers connected into a ring topology. Used for executing tests
16   that require frame encapsulations supported by TG.
17
18 - **3-Node Topology**: Consists of two servers acting as a Systems Under
19   Test (SUTs) and one server acting as a Traffic Generator (TG), with
20   all servers connected into a ring topology. Used for executing tests
21   that require frame encapsulations not supported by TG e.g. certain
22   overlay tunnel encapsulations and IPsec. Number of native Ethernet,
23   IPv4 and IPv6 encapsulation tests are also executed on these testbeds,
24   for comparison with 2-Node Topology.
25
26 Current FD.io production testbeds are built with SUT servers based on
27 the following processor architectures:
28
29 - Intel Xeon: Skylake Platinum 8180, Haswell-SP E5-2699v3,
30   Cascade Lake Platinum 8280, Cascade Lake 6252N.
31 - Intel Atom: Denverton C3858.
32 - ARM: TaiShan 2280, hip07-d05.
33
34 Server SUT performance depends on server and processor type, hence
35 results for testbeds based on different servers must be reported
36 separately, and compared if appropriate.
37
38 Complete technical specifications of compute servers used in CSIT
39 physical testbeds are maintained in FD.io CSIT repository:
40 https://git.fd.io/csit/tree/docs/lab/testbed_specifications.md.
41
42 Following is the description of existing production testbeds.
43
44 2-Node Xeon Cascade Lake (2n-clx)
45 ---------------------------------
46
47 Three 2n-clx testbeds are in operation in FD.io labs. Each 2n-clx testbed
48 is built with two SuperMicro SYS-7049GP-TRT servers, SUTs are equipped with two
49 Intel Xeon Gold 6252N processors (35.75 MB Cache, 2.30 GHz, 24 cores).
50 TGs are equiped with Intel Xeon Cascade Lake Platinum 8280 processors (38.5 MB
51 Cache, 2.70 GHz, 28 cores). 2n-clx physical topology is shown below.
52
53 .. only:: latex
54
55     .. raw:: latex
56
57         \begin{figure}[H]
58             \centering
59                 \graphicspath{{../_tmp/src/introduction/}}
60                 \includegraphics[width=0.90\textwidth]{testbed-2n-clx}
61                 \label{fig:testbed-2n-clx}
62         \end{figure}
63
64 .. only:: html
65
66     .. figure:: testbed-2n-clx.svg
67         :alt: testbed-2n-clx
68         :align: center
69
70 SUT servers are populated with the following NIC models:
71
72 #. NIC-1: x710-DA4 4p10GE Intel.
73 #. NIC-2: xxv710-DA2 2p25GE Intel.
74 #. NIC-3: mcx556a-edat ConnectX5 2p100GE Mellanox. (Only testbed t27, t28)
75 #. NIC-4: empty, future expansion.
76 #. NIC-5: empty, future expansion.
77 #. NIC-6: empty, future expansion.
78
79 TG servers run T-Rex application and are populated with the following
80 NIC models:
81
82 #. NIC-1: x710-DA4 4p10GE Intel.
83 #. NIC-2: xxv710-DA2 2p25GE Intel.
84 #. NIC-3: mcx556a-edat ConnectX5 2p100GE Mellanox. (Only testbed t27, t28)
85 #. NIC-4: empty, future expansion.
86 #. NIC-5: empty, future expansion.
87 #. NIC-6: x710-DA4 4p10GE Intel. (For self-tests.)
88
89 All Intel Xeon Cascade Lake servers run with Intel Hyper-Threading enabled,
90 doubling the number of logical cores exposed to Linux.
91
92 2-Node Xeon Skylake (2n-skx)
93 ----------------------------
94
95 Four 2n-skx testbeds are in operation in FD.io labs. Each 2n-skx testbed
96 is built with two SuperMicro SYS-7049GP-TRT servers, each in turn
97 equipped with two Intel Xeon Skylake Platinum 8180 processors (38.5 MB
98 Cache, 2.50 GHz, 28 cores). 2n-skx physical topology is shown below.
99
100 .. only:: latex
101
102     .. raw:: latex
103
104         \begin{figure}[H]
105             \centering
106                 \graphicspath{{../_tmp/src/introduction/}}
107                 \includegraphics[width=0.90\textwidth]{testbed-2n-skx}
108                 \label{fig:testbed-2n-skx}
109         \end{figure}
110
111 .. only:: html
112
113     .. figure:: testbed-2n-skx.svg
114         :alt: testbed-2n-skx
115         :align: center
116
117 SUT servers are populated with the following NIC models:
118
119 #. NIC-1: x710-DA4 4p10GE Intel.
120 #. NIC-2: xxv710-DA2 2p25GE Intel.
121 #. NIC-3: mcx556a-edat ConnectX5 2p100GE Mellanox. (Not used yet.)
122 #. NIC-4: empty, future expansion.
123 #. NIC-5: empty, future expansion.
124 #. NIC-6: empty, future expansion.
125
126 TG servers run T-Rex application and are populated with the following
127 NIC models:
128
129 #. NIC-1: x710-DA4 4p10GE Intel.
130 #. NIC-2: xxv710-DA2 2p25GE Intel.
131 #. NIC-3: mcx556a-edat ConnectX5 2p100GE Mellanox. (Not used yet.)
132 #. NIC-4: empty, future expansion.
133 #. NIC-5: empty, future expansion.
134 #. NIC-6: x710-DA4 4p10GE Intel. (For self-tests.)
135
136 All Intel Xeon Skylake servers run with Intel Hyper-Threading enabled,
137 doubling the number of logical cores exposed to Linux, with 56 logical
138 cores and 28 physical cores per processor socket.
139
140 3-Node Xeon Skylake (3n-skx)
141 ----------------------------
142
143 Two 3n-skx testbeds are in operation in FD.io labs. Each 3n-skx testbed
144 is built with three SuperMicro SYS-7049GP-TRT servers, each in turn
145 equipped with two Intel Xeon Skylake Platinum 8180 processors (38.5 MB
146 Cache, 2.50 GHz, 28 cores). 3n-skx physical topology is shown below.
147
148 .. only:: latex
149
150     .. raw:: latex
151
152         \begin{figure}[H]
153             \centering
154                 \graphicspath{{../_tmp/src/introduction/}}
155                 \includegraphics[width=0.90\textwidth]{testbed-3n-skx}
156                 \label{fig:testbed-3n-skx}
157         \end{figure}
158
159 .. only:: html
160
161     .. figure:: testbed-3n-skx.svg
162         :alt: testbed-3n-skx
163         :align: center
164
165 SUT1 and SUT2 servers are populated with the following NIC models:
166
167 #. NIC-1: x710-DA4 4p10GE Intel.
168 #. NIC-2: xxv710-DA2 2p25GE Intel.
169 #. NIC-3: empty, future expansion.
170 #. NIC-4: empty, future expansion.
171 #. NIC-5: empty, future expansion.
172 #. NIC-6: empty, future expansion.
173
174 TG servers run T-Rex application and are populated with the following
175 NIC models:
176
177 #. NIC-1: x710-DA4 4p10GE Intel.
178 #. NIC-2: xxv710-DA2 2p25GE Intel.
179 #. NIC-3: empty, future expansion.
180 #. NIC-4: empty, future expansion.
181 #. NIC-5: empty, future expansion.
182 #. NIC-6: x710-DA4 4p10GE Intel. (For self-tests.)
183
184 All Intel Xeon Skylake servers run with Intel Hyper-Threading enabled,
185 doubling the number of logical cores exposed to Linux, with 56 logical
186 cores and 28 physical cores per processor socket.
187
188 3-Node Xeon Haswell (3n-hsw)
189 ----------------------------
190
191 Three 3n-hsw testbeds are in operation in FD.io labs. Each 3n-hsw
192 testbed is built with three Cisco UCS-c240m3 servers, each in turn
193 equipped with two Intel Xeon Haswell-SP E5-2699v3 processors (45 MB
194 Cache, 2.3 GHz, 18 cores). 3n-hsw physical topology is shown below.
195
196 .. only:: latex
197
198     .. raw:: latex
199
200         \begin{figure}[H]
201             \centering
202                 \graphicspath{{../_tmp/src/introduction/}}
203                 \includegraphics[width=0.90\textwidth]{testbed-3n-hsw}
204                 \label{fig:testbed-3n-hsw}
205         \end{figure}
206
207 .. only:: html
208
209     .. figure:: testbed-3n-hsw.svg
210         :alt: testbed-3n-hsw
211         :align: center
212
213 SUT1 and SUT2 servers are populated with the following NIC models:
214
215 #. NIC-1: VIC 1385 2p40GE Cisco.
216 #. NIC-2: NIC x520 2p10GE Intel.
217 #. NIC-3: empty.
218 #. NIC-4: NIC xl710-QDA2 2p40GE Intel.
219 #. NIC-5: NIC x710-DA2 2p10GE Intel.
220 #. NIC-6: QAT 8950 50G (Walnut Hill) Intel.
221
222 TG servers run T-Rex application and are populated with the following
223 NIC models:
224
225 #. NIC-1: NIC xl710-QDA2 2p40GE Intel.
226 #. NIC-2: NIC x710-DA2 2p10GE Intel.
227 #. NIC-3: empty.
228 #. NIC-4: NIC xl710-QDA2 2p40GE Intel.
229 #. NIC-5: NIC x710-DA2 2p10GE Intel.
230 #. NIC-6: NIC x710-DA2 2p10GE Intel. (For self-tests.)
231
232 All Intel Xeon Haswell servers run with Intel Hyper-Threading disabled,
233 making the number of logical cores exposed to Linux match the number of
234 18 physical cores per processor socket.
235
236 2-Node Atom Denverton (2n-dnv)
237 ------------------------------
238
239 2n-dnv testbed is built with: i) one Intel S2600WFT server acting as TG
240 and equipped with two Intel Xeon Skylake Platinum 8180 processors (38.5
241 MB Cache, 2.50 GHz, 28 cores), and ii) one SuperMicro SYS-E300-9A server
242 acting as SUT and equipped with one Intel Atom C3858 processor (12 MB
243 Cache, 2.00 GHz, 12 cores). 2n-dnv physical topology is shown below.
244
245 .. only:: latex
246
247     .. raw:: latex
248
249         \begin{figure}[H]
250             \centering
251                 \graphicspath{{../_tmp/src/introduction/}}
252                 \includegraphics[width=0.90\textwidth]{testbed-2n-dnv}
253                 \label{fig:testbed-2n-dnv}
254         \end{figure}
255
256 .. only:: html
257
258     .. figure:: testbed-2n-dnv.svg
259         :alt: testbed-2n-dnv
260         :align: center
261
262 SUT server have four internal 10G NIC port:
263
264 #. P-1: x553 copper port.
265 #. P-2: x553 copper port.
266 #. P-3: x553 fiber port.
267 #. P-4: x553 fiber port.
268
269 TG server run T-Rex software traffic generator and are populated with the
270 following NIC models:
271
272 #. NIC-1: x550-T2 2p10GE Intel.
273 #. NIC-2: x550-T2 2p10GE Intel.
274 #. NIC-3: x520-DA2 2p10GE Intel.
275 #. NIC-4: x520-DA2 2p10GE Intel.
276
277 The 2n-dnv testbed is in operation in Intel SH labs.
278
279 3-Node Atom Denverton (3n-dnv)
280 ------------------------------
281
282 One 3n-dnv testbed is built with: i) one SuperMicro SYS-7049GP-TRT
283 server acting as TG and equipped with two Intel Xeon Skylake Platinum
284 8180 processors (38.5 MB Cache, 2.50 GHz, 28 cores), and ii) one
285 SuperMicro SYS-E300-9A server acting as SUT and equipped with one Intel
286 Atom C3858 processor (12 MB Cache, 2.00 GHz, 12 cores). 3n-dnv physical
287 topology is shown below.
288
289 .. only:: latex
290
291     .. raw:: latex
292
293         \begin{figure}[H]
294             \centering
295                 \graphicspath{{../_tmp/src/introduction/}}
296                 \includegraphics[width=0.90\textwidth]{testbed-3n-dnv}
297                 \label{fig:testbed-3n-dnv}
298         \end{figure}
299
300 .. only:: html
301
302     .. figure:: testbed-3n-dnv.svg
303         :alt: testbed-3n-dnv
304         :align: center
305
306 SUT1 and SUT2 servers are populated with the following NIC models:
307
308 #. NIC-1: x553 2p10GE fiber Intel.
309 #. NIC-2: x553 2p10GE copper Intel.
310
311 TG servers run T-Rex application and are populated with the following
312 NIC models:
313
314 #. NIC-1: x710-DA4 4p10GE Intel.
315
316 3-Node ARM TaiShan (3n-tsh)
317 ---------------------------
318
319 One 3n-tsh testbed is built with: i) one SuperMicro SYS-7049GP-TRT
320 server acting as TG and equipped with two Intel Xeon Skylake Platinum
321 8180 processors (38.5 MB Cache, 2.50 GHz, 28 cores), and ii) one Huawei
322 TaiShan 2280 server acting as SUT and equipped with one  hip07-d05
323 processor (64* ARM Cortex-A72). 3n-tsh physical topology is shown below.
324
325 .. only:: latex
326
327     .. raw:: latex
328
329         \begin{figure}[H]
330             \centering
331                 \graphicspath{{../_tmp/src/introduction/}}
332                 \includegraphics[width=0.90\textwidth]{testbed-3n-tsh}
333                 \label{fig:testbed-3n-tsh}
334         \end{figure}
335
336 .. only:: html
337
338     .. figure:: testbed-3n-tsh.svg
339         :alt: testbed-3n-tsh
340         :align: center
341
342 SUT1 and SUT2 servers are populated with the following NIC models:
343
344 #. NIC-1: connectx4 2p25GE Mellanox.
345 #. NIC-2: x520 2p10GE Intel.
346
347 TG servers run T-Rex application and are populated with the following
348 NIC models:
349
350 #. NIC-1: x710-DA4 4p10GE Intel.
351 #. NIC-2: xxv710-DA2 2p25GE Intel.