CSIT-1438: Remove Denverton from Report
[csit.git] / docs / report / introduction / physical_testbeds.rst
1 .. _tested_physical_topologies:
2
3 Physical Testbeds
4 =================
5
6 All :abbr:`FD.io (Fast Data Input/Ouput)` :abbr:`CSIT (Continuous System
7 Integration and Testing)` performance testing listed in this report are
8 executed on physical testbeds built with bare-metal servers hosted by
9 :abbr:`LF (Linux Foundation)` FD.io project. Two testbed topologies are
10 used:
11
12 - **3-Node Topology**: Consisting of two servers acting as SUTs
13   (Systems Under Test) and one server as TG (Traffic Generator), all
14   connected in ring topology. Used for executing all of the data plane
15   tests including overlay tunnels and IPSec tests.
16 - **2-Node Topology**: Consisting of one server acting as SUTs (Systems
17   Under Test) and one server as TG (Traffic Generator), both connected
18   in ring topology. Used for execution of tests without any overlay
19   tunnel encapsulations. Added in CSIT rls18.07.
20
21 Current FD.io production testbeds are built with servers based on two
22 processor generations of Intel Xeons: Haswell-SP (E5-2699v3) and Skylake
23 (Platinum 8180). Testbeds built with servers based on Arm processors are
24 in the process of being added to FD.io production.
25
26 Server SUT and DUT performance depends on server and processor type,
27 hence results for testbeds based on different servers must be reported
28 separately, and compared if appropriate.
29
30 Following sections describe existing production testbed types.
31
32 3-Node Xeon Haswell (3n-hsw)
33 ----------------------------
34
35 3n-hsw testbed is based on three Cisco UCS-c240m3 servers each equipped
36 with two Intel Xeon Haswell-SP E5-2699v3 2.3 GHz 18 core processors.
37 Physical testbed topology is depicted in a figure below.
38
39 .. only:: latex
40
41     .. raw:: latex
42
43         \begin{figure}[H]
44             \centering
45                 \graphicspath{{../_tmp/src/introduction/}}
46                 \includegraphics[width=0.90\textwidth]{testbed-3n-hsw}
47                 \label{fig:testbed-3n-hsw}
48         \end{figure}
49
50 .. only:: html
51
52     .. figure:: testbed-3n-hsw.svg
53         :alt: testbed-3n-hsw
54         :align: center
55
56 SUT1 and SUT2 servers are populated with the following NIC models:
57
58 #. NIC-1: VIC 1385 2p40GE Cisco.
59 #. NIC-2: NIC x520 2p10GE Intel.
60 #. NIC-3: empty.
61 #. NIC-4: NIC xl710-QDA2 2p40GE Intel.
62 #. NIC-5: NIC x710-DA2 2p10GE Intel.
63 #. NIC-6: QAT 8950 50G (Walnut Hill) Intel.
64
65 TG servers run T-Rex application and are populated with the following
66 NIC models:
67
68 #. NIC-1: NIC xl710-QDA2 2p40GE Intel.
69 #. NIC-2: NIC x710-DA2 2p10GE Intel.
70 #. NIC-3: empty.
71 #. NIC-4: NIC xl710-QDA2 2p40GE Intel.
72 #. NIC-5: NIC x710-DA2 2p10GE Intel.
73 #. NIC-6: NIC x710-DA2 2p10GE Intel. (For self-tests.)
74
75 All Intel Xeon Haswell servers run with Intel Hyper-Threading disabled,
76 making the number of logical cores exposed to Linux match the number of
77 18 physical cores per processor socket.
78
79 Complete 3n-hsw testbeds specification is available on
80 `CSIT LF testbed <https://wiki.fd.io/view/CSIT/CSIT_LF_testbed>`_
81 wiki page.
82
83 Total of three 3n-hsw testbeds are in operation in FD.io labs.
84
85 3-Node Xeon Skylake (3n-skx)
86 ----------------------------
87
88 3n-skx testbed is based on three SuperMicro SYS-7049GP-TRT servers each
89 equipped with two Intel Xeon Skylake Platinum 8180 2.5 GHz 28 core
90 processors. Physical testbed topology is depicted in a figure below.
91
92 .. only:: latex
93
94     .. raw:: latex
95
96         \begin{figure}[H]
97             \centering
98                 \graphicspath{{../_tmp/src/introduction/}}
99                 \includegraphics[width=0.90\textwidth]{testbed-3n-skx}
100                 \label{fig:testbed-3n-skx}
101         \end{figure}
102
103 .. only:: html
104
105     .. figure:: testbed-3n-skx.svg
106         :alt: testbed-3n-skx
107         :align: center
108
109 SUT1 and SUT2 servers are populated with the following NIC models:
110
111 #. NIC-1: x710-DA4 4p10GE Intel.
112 #. NIC-2: xxv710-DA2 2p25GE Intel.
113 #. NIC-3: empty, future expansion.
114 #. NIC-4: empty, future expansion.
115 #. NIC-5: empty, future expansion.
116 #. NIC-6: empty, future expansion.
117
118 TG servers run T-Rex application and are populated with the following
119 NIC models:
120
121 #. NIC-1: x710-DA4 4p10GE Intel.
122 #. NIC-2: xxv710-DA2 2p25GE Intel.
123 #. NIC-3: empty, future expansion.
124 #. NIC-4: empty, future expansion.
125 #. NIC-5: empty, future expansion.
126 #. NIC-6: x710-DA4 4p10GE Intel. (For self-tests.)
127
128 All Intel Xeon Skylake servers run with Intel Hyper-Threading enabled,
129 doubling the number of logical cores exposed to Linux, with 56 logical
130 cores and 28 physical cores per processor socket.
131
132 Complete 3n-skx testbeds specification is available on
133 `CSIT LF lab extension <https://wiki.fd.io/view/CSIT/fdio_csit_lab_ext_lld_draft>`_
134 wiki page.
135
136 Total of two 3n-skx testbeds are in operation in FD.io labs.
137
138 2-Node Xeon Skylake (2n-skx)
139 ----------------------------
140
141 2n-skx testbed is based on two SuperMicro SYS-7049GP-TRT servers each
142 equipped with two Intel Xeon Skylake Platinum 8180 2.5 GHz 28 core
143 processors. Physical testbed topology is depicted in a figure below.
144
145 .. only:: latex
146
147     .. raw:: latex
148
149         \begin{figure}[H]
150             \centering
151                 \graphicspath{{../_tmp/src/introduction/}}
152                 \includegraphics[width=0.90\textwidth]{testbed-2n-skx}
153                 \label{fig:testbed-2n-skx}
154         \end{figure}
155
156 .. only:: html
157
158     .. figure:: testbed-2n-skx.svg
159         :alt: testbed-2n-skx
160         :align: center
161
162 SUT servers are populated with the following NIC models:
163
164 #. NIC-1: x710-DA4 4p10GE Intel.
165 #. NIC-2: xxv710-DA2 2p25GE Intel.
166 #. NIC-3: mcx556a-edat ConnectX5 2p100GE Mellanox. (Not used yet.)
167 #. NIC-4: empty, future expansion.
168 #. NIC-5: empty, future expansion.
169 #. NIC-6: empty, future expansion.
170
171 TG servers run T-Rex application and are populated with the following
172 NIC models:
173
174 #. NIC-1: x710-DA4 4p10GE Intel.
175 #. NIC-2: xxv710-DA2 2p25GE Intel.
176 #. NIC-3: mcx556a-edat ConnectX5 2p100GE Mellanox. (Not used yet.)
177 #. NIC-4: empty, future expansion.
178 #. NIC-5: empty, future expansion.
179 #. NIC-6: x710-DA4 4p10GE Intel. (For self-tests.)
180
181 All Intel Xeon Skylake servers run with Intel Hyper-Threading enabled,
182 doubling the number of logical cores exposed to Linux, with 56 logical
183 cores and 28 physical cores per processor socket.
184
185 Complete 2n-skx testbed specification is available on
186 `CSIT/Testbeds: Xeon Skx, Arm, Atom
187 <https://wiki.fd.io/view/CSIT/Testbeds:_Xeon_Skx,_Arm,_Atom.>`_ wiki page.
188
189 Total of four 2n-skx testbeds are in operation in FD.io labs.