report: add nic and drivers section to physical testbeds description
[csit.git] / docs / report / introduction / physical_testbeds.rst
index 3412e94..60b06e6 100644 (file)
@@ -1,7 +1,7 @@
 .. _tested_physical_topologies:
 
-Physical Testbeds
-=================
+Performance Physical Testbeds
+=============================
 
 All :abbr:`FD.io (Fast Data Input/Ouput)` :abbr:`CSIT (Continuous System
 Integration and Testing)` performance test results included in this
@@ -26,12 +26,18 @@ Two physical server topology types are used:
 Current FD.io production testbeds are built with SUT servers based on
 the following processor architectures:
 
-- Intel Xeon: Skylake Platinum 8180, Haswell-SP E5-2699v3,
-  Cascade Lake Platinum 8280, Cascade Lake 6252N.
+- Intel Xeon: Skylake Platinum 8180, Cascadelake 6252N, (Icelake 8358
+  to be added).
 - Intel Atom: Denverton C3858.
 - Arm: TaiShan 2280, hip07-d05.
 - AMD EPYC: Zen2 7532.
 
+CSIT-2106 report data for Intel Xeon Icelake testbeds comes from
+testbeds in Intel labs set up per CSIT specification and running CSIT
+code. Physical setup used is specified in 2n-icx and 3n-icx sections
+below. For details about tested VPP and CSIT versions
+see :ref:`vpp_performance_tests_release_notes`.
+
 Server SUT performance depends on server and processor type, hence
 results for testbeds based on different servers must be reported
 separately, and compared if appropriate.
@@ -40,7 +46,39 @@ Complete technical specifications of compute servers used in CSIT
 physical testbeds are maintained in FD.io CSIT repository:
 https://git.fd.io/csit/tree/docs/lab/testbed_specifications.md.
 
-Following is the description of existing production testbeds.
+Physical NICs and Drivers
+-------------------------
+
+SUT and TG servers are equipped with a number of different NIC models.
+
+VPP is performance tested on SUTs with the following NICs and drivers:
+
+#. 2p10GE: x520, x550, x553 Intel (codename Niantic)
+   - DPDK Poll Mode Driver (PMD).
+#. 4p10GE: x710-DA4 Intel (codename Fortville, FVL)
+   - DPDK PMD.
+   - AVF in PMD mode.
+   - AF_XDP in PMD mode.
+#. 2p25GE: xxv710-DA2 Intel (codename Fortville, FVL)
+   - DPDK PMD.
+   - AVF in PMD mode.
+   - AF_XDP in PMD mode.
+#. 2p100GE: cx556a-edat Mellanox ConnectX5
+   - RDMA_core in PMD mode.
+#. 2p100GE: E810-2CQDA2 Intel (codename Columbiaville, CVL)
+   - DPDK PMD.
+   - AVF in PMD mode.
+
+DPDK applications, testpmd and l3fwd, are performance tested on the same
+SUTs exclusively with DPDK drivers for all NICs.
+
+TRex running on TGs is using DPDK drivers for all NICs.
+
+VPP hoststack tests utilize ab (Apache HTTP server benchmarking tool)
+running on TGs and using Linux drivers for all NICs.
+
+For more information see :ref:`vpp_test_environment`
+and :ref:`dpdk_test_environment`.
 
 2-Node AMD EPYC Zen2 (2n-zn2)
 -----------------------------
@@ -67,14 +105,13 @@ GHz, 32 cores). 2n-zn2 physical topology is shown below.
         :alt: testbed-2n-zn2
         :align: center
 
-SUT server is populated with the following NIC models:
+SUT NICs:
 
 #. NIC-1: x710-DA4 4p10GE Intel.
 #. NIC-2: xxv710-DA2 2p25GE Intel.
 #. NIC-3: cx556a-edat ConnectX5 2p100GE Mellanox.
 
-TG server runs TRex application and is populated with the following
-NIC models:
+TG NICs:
 
 #. NIC-1: x710-DA4 4p10GE Intel.
 #. NIC-2: xxv710-DA2 2p25GE Intel.
@@ -83,7 +120,7 @@ NIC models:
 All AMD EPYC Zen2 7532 servers run with AMD SMT enabled, doubling the
 number of logical cores exposed to Linux.
 
-2-Node Xeon Cascade Lake (2n-clx)
+2-Node Xeon Cascadelake (2n-clx)
 ---------------------------------
 
 Three 2n-clx testbeds are in operation in FD.io labs. Each 2n-clx testbed
@@ -109,7 +146,7 @@ Cache, 2.70 GHz, 28 cores). 2n-clx physical topology is shown below.
         :alt: testbed-2n-clx
         :align: center
 
-SUT servers are populated with the following NIC models:
+SUT NICs:
 
 #. NIC-1: x710-DA4 4p10GE Intel.
 #. NIC-2: xxv710-DA2 2p25GE Intel.
@@ -118,8 +155,7 @@ SUT servers are populated with the following NIC models:
 #. NIC-5: empty, future expansion.
 #. NIC-6: empty, future expansion.
 
-TG servers run T-Rex application and are populated with the following
-NIC models:
+TG NICs:
 
 #. NIC-1: x710-DA4 4p10GE Intel.
 #. NIC-2: xxv710-DA2 2p25GE Intel.
@@ -128,7 +164,75 @@ NIC models:
 #. NIC-5: empty, future expansion.
 #. NIC-6: x710-DA4 4p10GE Intel. (For self-tests.)
 
-All Intel Xeon Cascade Lake servers run with Intel Hyper-Threading enabled,
+All Intel Xeon Cascadelake servers run with Intel Hyper-Threading enabled,
+doubling the number of logical cores exposed to Linux.
+
+2-Node Xeon Icelake (2n-icx) EXPERIMENTAL
+-----------------------------------------
+
+One 2n-icx testbed located in Intel labs was used for CSIT testing. It
+is built with two SuperMicro SYS-740GP-TNRT servers. SUT is equipped
+with two Intel Xeon Gold 6338N processors (48 MB Cache, 2.20 GHz, 32
+cores). TG is equiped with two Intel Xeon Ice Lake Platinum 8360Y
+processors (54 MB Cache, 2.40 GHz, 36 cores). 2n-icx physical topology
+is shown below.
+
+.. only:: latex
+
+    .. raw:: latex
+
+        \begin{figure}[H]
+            \centering
+                \graphicspath{{../_tmp/src/introduction/}}
+                \includegraphics[width=0.90\textwidth]{testbed-2n-icx}
+                \label{fig:testbed-2n-icx}
+        \end{figure}
+
+.. only:: html
+
+    .. figure:: testbed-2n-icx.svg
+        :alt: testbed-2n-icx
+        :align: center
+
+SUT and TG NICs:
+
+#. NIC-1: E810-2CQDA2 2p100GbE Intel.
+
+All Intel Xeon Icelake servers run with Intel Hyper-Threading enabled,
+doubling the number of logical cores exposed to Linux.
+
+3-Node Xeon Icelake (3n-icx) EXPERIMENTAL
+-----------------------------------------
+
+One 3n-icx testbed located in Intel labs was used for CSIT testing. It
+is built with three SuperMicro SYS-740GP-TNRT servers. SUTs are
+equipped each with two Intel Xeon Platinum 8360Y processors (54 MB
+Cache, 2.40 GHz, 36 cores). TG is equiped with two Intel Xeon Ice Lake
+Platinum 8360Y processors (54 MB Cache, 2.40 GHz, 36 cores). 3n-icx
+physical topology is shown below.
+
+.. only:: latex
+
+    .. raw:: latex
+
+        \begin{figure}[H]
+            \centering
+                \graphicspath{{../_tmp/src/introduction/}}
+                \includegraphics[width=0.90\textwidth]{testbed-3n-icx}
+                \label{fig:testbed-3n-icx}
+        \end{figure}
+
+.. only:: html
+
+    .. figure:: testbed-3n-icx.svg
+        :alt: testbed-3n-icx
+        :align: center
+
+SUT and TG NICs:
+
+#. NIC-1: E810-2CQDA2 2p100GbE Intel.
+
+All Intel Xeon Icelake servers run with Intel Hyper-Threading enabled,
 doubling the number of logical cores exposed to Linux.
 
 2-Node Xeon Skylake (2n-skx)
@@ -156,7 +260,7 @@ Cache, 2.50 GHz, 28 cores). 2n-skx physical topology is shown below.
         :alt: testbed-2n-skx
         :align: center
 
-SUT servers are populated with the following NIC models:
+SUT NICs:
 
 #. NIC-1: x710-DA4 4p10GE Intel.
 #. NIC-2: xxv710-DA2 2p25GE Intel.
@@ -165,8 +269,7 @@ SUT servers are populated with the following NIC models:
 #. NIC-5: empty, future expansion.
 #. NIC-6: empty, future expansion.
 
-TG servers run T-Rex application and are populated with the following
-NIC models:
+TG NICs:
 
 #. NIC-1: x710-DA4 4p10GE Intel.
 #. NIC-2: xxv710-DA2 2p25GE Intel.
@@ -204,7 +307,7 @@ Cache, 2.50 GHz, 28 cores). 3n-skx physical topology is shown below.
         :alt: testbed-3n-skx
         :align: center
 
-SUT1 and SUT2 servers are populated with the following NIC models:
+SUT1 and SUT2 NICs:
 
 #. NIC-1: x710-DA4 4p10GE Intel.
 #. NIC-2: xxv710-DA2 2p25GE Intel.
@@ -213,8 +316,7 @@ SUT1 and SUT2 servers are populated with the following NIC models:
 #. NIC-5: empty, future expansion.
 #. NIC-6: empty, future expansion.
 
-TG servers run T-Rex application and are populated with the following
-NIC models:
+TG NICs:
 
 #. NIC-1: x710-DA4 4p10GE Intel.
 #. NIC-2: xxv710-DA2 2p25GE Intel.
@@ -227,54 +329,6 @@ All Intel Xeon Skylake servers run with Intel Hyper-Threading enabled,
 doubling the number of logical cores exposed to Linux, with 56 logical
 cores and 28 physical cores per processor socket.
 
-3-Node Xeon Haswell (3n-hsw)
-----------------------------
-
-Three 3n-hsw testbeds are in operation in FD.io labs. Each 3n-hsw
-testbed is built with three Cisco UCS-c240m3 servers, each in turn
-equipped with two Intel Xeon Haswell-SP E5-2699v3 processors (45 MB
-Cache, 2.3 GHz, 18 cores). 3n-hsw physical topology is shown below.
-
-.. only:: latex
-
-    .. raw:: latex
-
-        \begin{figure}[H]
-            \centering
-                \graphicspath{{../_tmp/src/introduction/}}
-                \includegraphics[width=0.90\textwidth]{testbed-3n-hsw}
-                \label{fig:testbed-3n-hsw}
-        \end{figure}
-
-.. only:: html
-
-    .. figure:: testbed-3n-hsw.svg
-        :alt: testbed-3n-hsw
-        :align: center
-
-SUT1 and SUT2 servers are populated with the following NIC models:
-
-#. NIC-1: VIC 1385 2p40GE Cisco.
-#. NIC-2: NIC x520 2p10GE Intel.
-#. NIC-3: empty.
-#. NIC-4: NIC xl710-QDA2 2p40GE Intel.
-#. NIC-5: NIC x710-DA2 2p10GE Intel.
-#. NIC-6: QAT 8950 50G (Walnut Hill) Intel.
-
-TG servers run T-Rex application and are populated with the following
-NIC models:
-
-#. NIC-1: NIC xl710-QDA2 2p40GE Intel.
-#. NIC-2: NIC x710-DA2 2p10GE Intel.
-#. NIC-3: empty.
-#. NIC-4: NIC xl710-QDA2 2p40GE Intel.
-#. NIC-5: NIC x710-DA2 2p10GE Intel.
-#. NIC-6: NIC x710-DA2 2p10GE Intel. (For self-tests.)
-
-All Intel Xeon Haswell servers run with Intel Hyper-Threading disabled,
-making the number of logical cores exposed to Linux match the number of
-18 physical cores per processor socket.
-
 2-Node Atom Denverton (2n-dnv)
 ------------------------------
 
@@ -301,15 +355,14 @@ Cache, 2.00 GHz, 12 cores). 2n-dnv physical topology is shown below.
         :alt: testbed-2n-dnv
         :align: center
 
-SUT server have four internal 10G NIC port:
+SUT 10GE NIC ports:
 
 #. P-1: x553 copper port.
 #. P-2: x553 copper port.
 #. P-3: x553 fiber port.
 #. P-4: x553 fiber port.
 
-TG server run T-Rex software traffic generator and are populated with the
-following NIC models:
+TG NICs:
 
 #. NIC-1: x550-T2 2p10GE Intel.
 #. NIC-2: x550-T2 2p10GE Intel.
@@ -345,13 +398,12 @@ topology is shown below.
         :alt: testbed-3n-dnv
         :align: center
 
-SUT1 and SUT2 servers are populated with the following NIC models:
+SUT1 and SUT2 NICs:
 
 #. NIC-1: x553 2p10GE fiber Intel.
 #. NIC-2: x553 2p10GE copper Intel.
 
-TG servers run T-Rex application and are populated with the following
-NIC models:
+TG NICs:
 
 #. NIC-1: x710-DA4 4p10GE Intel.
 
@@ -381,13 +433,12 @@ processor (64* ARM Cortex-A72). 3n-tsh physical topology is shown below.
         :alt: testbed-3n-tsh
         :align: center
 
-SUT1 and SUT2 servers are populated with the following NIC models:
+SUT1 and SUT2 NICs:
 
 #. NIC-1: connectx4 2p25GE Mellanox.
 #. NIC-2: x520 2p10GE Intel.
 
-TG server runs T-Rex application and is populated with the following
-NIC models:
+TG NICs:
 
 #. NIC-1: x710-DA4 4p10GE Intel.
 #. NIC-2: xxv710-DA2 2p25GE Intel.
@@ -419,14 +470,11 @@ ThunderX2 ARMv8 CN9975 processors. 2n-tx2 physical topology is shown below.
         :alt: testbed-2n-tx2
         :align: center
 
-SUT server is populated with the following NIC models:
+SUT NICs:
 
-#. NIC-1: xl710-QDA2 2p40GE Intel.
+#. NIC-1: xl710-QDA2 2p40GE Intel (not connected).
 #. NIC-2: xl710-QDA2 2p40GE Intel.
 
-TG server run T-Rex application and is populated with the following
-NIC models:
+TG NICs:
 
-#. NIC-1: x710-DA4 4p10GE Intel.
-#. NIC-2: xxv710-DA2 2p25GE Intel.
-#. NIC-3: xl710-QDA2 2p40GE Intel.
+#. NIC-1: xl710-QDA2 2p40GE Intel.