Report: Placeholder for LD preload tests
[csit.git] / docs / report / introduction / methodology_tcp_with_iperf3.rst
1 Hoststack Throughput Testing over TCP/IP with iperf3
2 ----------------------------------------------------
3
4 `iperf3 bandwidth measurement tool <https://github.com/esnet/iperf>`_
5 is used for measuring the maximum attainable bandwidth of the VPP Host
6 Stack connection across two instances of VPP running on separate DUT
7 nodes. iperf3 is a popular open source tool for active measurements
8 of the maximum achievable bandwidth on IP networks.
9
10 Because iperf3 utilizes the POSIX socket interface APIs, the current
11 test configuration utilizes the LD_PRELOAD mechanism in the linux
12 kernel to connect iperf3 to the VPP Host Stack using the VPP
13 Communications Library (VCL) LD_PRELOAD library (libvcl_ldpreload.so).
14
15 In the future, a forked version of iperf3 which has been modified to
16 directly use the VCL application APIs may be added to determine the
17 difference in performance of 'VCL Native' applications .vs. utilizing
18 LD_PRELOAD which inherently has more overhead and other limitations.
19
20 The test configuration is as follows:
21
22        DUT1              Network               DUT2
23 [ iperf3-client -> VPP1 ]=======[ VPP2 -> iperf3-server]
24
25 where,
26
27  1. iperf3 server attaches to VPP2 and LISTENs on VPP2:TCP port 5201.
28  2. iperf3 client attaches to VPP1 and opens one or more stream
29     connections to VPP2:TCP port 5201.
30  3. iperf3 client transmits a uni-directional stream as fast as the
31     VPP Host Stack allows to the iperf3 server for the test duration.
32  4. At the end of the test the iperf3 client emits the goodput
33     measurements for all streams and the sum of all streams.
34
35  Test cases include 1 and 10 Streams with a 20 second test duration
36  with the VPP Host Stack configured to utilize the Cubic TCP
37  congestion algorithm.
38
39  Note: iperf3 is single threaded, so it is expected that the 10 stream
40  test does not show any performance improvement due to
41  multi-thread/multi-core execution.