feat(docs): Fix images and ToC
[csit.git] / docs / content / methodology / generic_segmentation_offload.md
1 ---
2 title: "Generic Segmentation Offload"
3 weight: 15
4 ---
5
6 # Generic Segmentation Offload
7
8 ## Overview
9
10 Generic Segmentation Offload (GSO) reduces per-packet processing
11 overhead by enabling applications  to pass a multi-packet buffer to
12 (v)NIC and process a smaller number of large packets (e.g. frame size of
13 64 KB), instead of processing higher numbers of small packets (e.g.
14 frame size of 1500 B), thus reducing per-packet overhead.
15
16 GSO tests for VPP vhostuser and tapv2 interfaces. All tests cases use iPerf3
17 client and server applications running TCP/IP as a traffic generator. For
18 performance comparison the same tests are run without GSO enabled.
19
20 ## GSO Test Topologies
21
22 Two VPP GSO test topologies are implemented:
23
24 1. iPerfC_GSOvirtio_LinuxVM --- GSOvhost_VPP_GSOvhost --- iPerfS_GSOvirtio_LinuxVM
25
26    - Tests VPP GSO on vhostuser interfaces and interaction with Linux
27      virtio with GSO enabled.
28
29 2. iPerfC_GSOtap_LinuxNspace --- GSOtapv2_VPP_GSOtapv2 --- iPerfS_GSOtap_LinuxNspace
30
31    - Tests VPP GSO on tapv2 interfaces and interaction with Linux tap
32      with GSO enabled.
33
34 Common configuration:
35
36 - iPerfC (client) and iPerfS (server) run in TCP/IP mode without upper
37   bandwidth limit.
38 - Trial duration is set to 30 sec.
39 - iPerfC, iPerfS and VPP run in the single SUT node.
40
41
42 ## VPP GSOtap Topology
43
44 ### VPP Configuration
45
46 VPP GSOtap tests are executed without using hyperthreading. VPP worker runs on
47 a single core. Multi-core tests are not executed. Each interface belongs to
48 separate namespace. Following core pinning scheme is used:
49
50 - 1t1c (rxq=1, rx_qsz=4096, tx_qsz=4096)
51   - system isolated: 0,28,56,84
52   - vpp mt:  1
53   - vpp wt:  2
54   - vhost:   3-5
55   - iperf-s: 6
56   - iperf-c: 7
57
58 ### iPerf3 Server Configuration
59
60 iPerf3 version used 3.7
61
62     $ sudo -E -S ip netns exec tap1_namespace iperf3 \
63         --server --daemon --pidfile /tmp/iperf3_server.pid --logfile /tmp/iperf3.log --port 5201 --affinity <X>
64
65 For the full iPerf3 reference please see:
66 [iPerf3 docs](https://github.com/esnet/iperf/blob/master/docs/invoking.rst).
67
68
69 ### iPerf3 Client Configuration
70
71 iPerf3 version used 3.7
72
73     $ sudo -E -S ip netns exec tap1_namespace iperf3 \
74         --client 2.2.2.2 --bind 1.1.1.1 --port 5201 --parallel <Y> --time 30.0 --affinity <X> --zerocopy
75
76 For the full iPerf3 reference please see:
77 [iPerf3 docs](https://github.com/esnet/iperf/blob/master/docs/invoking.rst).
78
79
80 ## VPP GSOvhost Topology
81
82 ### VPP Configuration
83
84 VPP GSOvhost tests are executed without using hyperthreading. VPP worker runs
85 on a single core. Multi-core tests are not executed. Following core pinning
86 scheme is used:
87
88 - 1t1c (rxq=1, rx_qsz=1024, tx_qsz=1024)
89   - system isolated: 0,28,56,84
90   - vpp mt:  1
91   - vpp wt:  2
92   - vm-iperf-s: 3,4,5,6,7
93   - vm-iperf-c: 8,9,10,11,12
94   - iperf-s: 1
95   - iperf-c: 1
96
97 ###  iPerf3 Server Configuration
98
99 iPerf3 version used 3.7
100
101     $ sudo iperf3 \
102         --server --daemon --pidfile /tmp/iperf3_server.pid --logfile /tmp/iperf3.log --port 5201 --affinity X
103
104 For the full iPerf3 reference please see:
105 [iPerf3 docs](https://github.com/esnet/iperf/blob/master/docs/invoking.rst).
106
107
108 ### iPerf3 Client Configuration
109
110 iPerf3 version used 3.7
111
112     $ sudo iperf3 \
113         --client 2.2.2.2 --bind 1.1.1.1 --port 5201 --parallel <Y> --time 30.0 --affinity X --zerocopy
114
115 For the full iPerf3 reference please see:
116 [iPerf3 docs](https://github.com/esnet/iperf/blob/master/docs/invoking.rst).