CSIT-339: Add Keywords for SMT 22/5122/7
authorTibor Frank <tifrank@cisco.com>
Tue, 14 Feb 2017 13:09:11 +0000 (14:09 +0100)
committerTibor Frank <tifrank@cisco.com>
Mon, 27 Feb 2017 08:11:25 +0000 (09:11 +0100)
- modify keywords in CpuUtils.py
- add RF keywords

Change-Id: I57230b3948254e8f149b2563a8e24e948bc2ec27
Signed-off-by: Tibor Frank <tifrank@cisco.com>
resources/libraries/python/CpuUtils.py
resources/libraries/robot/DPDK/default.robot
resources/libraries/robot/default.robot
resources/libraries/robot/performance.robot
tests/perf/10ge2p1x710-eth-l2bdbasemaclrn-eth-2vhost-1vm-ndrdisc.robot
tests/perf/40ge2p1xl710-eth-l2bdbasemaclrn-eth-2vhost-1vm-ndrdisc.robot

index d9e3fca..3cb4454 100644 (file)
 # See the License for the specific language governing permissions and
 # limitations under the License.
 
-"""CPU utilities library"""
+"""CPU utilities library."""
 
 from resources.libraries.python.ssh import SSH
 
 __all__ = ["CpuUtils"]
 
+
 class CpuUtils(object):
     """CPU utilities"""
 
+    # Number of threads per core.
+    NR_OF_THREADS = 2
+
     @staticmethod
     def __str2int(string):
         """Conversion from string to integer, 0 in case of empty string.
@@ -34,6 +38,26 @@ class CpuUtils(object):
         except ValueError:
             return 0
 
+    @staticmethod
+    def is_smt_enabled(cpu_info):
+        """Uses CPU mapping to find out if SMT is enabled or not. If SMT is
+        enabled, the L1d,L1i,L2,L3 setting is the same for two processors. These
+        two processors are two threads of one core.
+
+        :param cpu_info: CPU info, the output of "lscpu -p".
+        :type cpu_info: list
+        :returns: True if SMT is enabled, False if SMT is disabled.
+        :rtype: bool
+        """
+
+        cpu_mems = [item[-4:] for item in cpu_info]
+        cpu_mems_len = len(cpu_mems) / CpuUtils.NR_OF_THREADS
+        count = 0
+        for cpu_mem in cpu_mems[:cpu_mems_len]:
+            if cpu_mem in cpu_mems[cpu_mems_len:]:
+                count += 1
+        return bool(count == cpu_mems_len)
+
     @staticmethod
     def get_cpu_layout_from_all_nodes(nodes):
         """Retrieve cpu layout from all nodes, assuming all nodes
@@ -72,96 +96,153 @@ class CpuUtils(object):
         :rtype: int
         :raises RuntimeError: If node cpuinfo is not available.
         """
-        cpuinfo = node.get("cpuinfo")
-        if cpuinfo is not None:
+        cpu_info = node.get("cpuinfo")
+        if cpu_info is not None:
             return node["cpuinfo"][-1][3] + 1
         else:
             raise RuntimeError("Node cpuinfo not available.")
 
     @staticmethod
-    def cpu_list_per_node(node, cpu_node):
+    def cpu_list_per_node(node, cpu_node, smt_used=False):
         """Return node related list of CPU numbers.
 
         :param node: Node dictionary with cpuinfo.
         :param cpu_node: Numa node number.
+        :param smt_used: True - we want to use SMT, otherwise false.
         :type node: dict
         :type cpu_node: int
+        :type smt_used: bool
         :returns: List of cpu numbers related to numa from argument.
         :rtype: list of int
-        :raises RuntimeError: If node cpuinfo is not available.
+        :raises RuntimeError: If node cpuinfo is not available or if SMT is not
+        enabled.
         """
+
         cpu_node = int(cpu_node)
-        cpuinfo = node.get("cpuinfo")
-        cpulist = []
-        if cpuinfo is not None:
-            for cpu in cpuinfo:
-                if cpu[3] == cpu_node:
-                    cpulist.append(cpu[0])
-        else:
+        cpu_info = node.get("cpuinfo")
+        if cpu_info is None:
             raise RuntimeError("Node cpuinfo not available.")
 
-        return cpulist
+        smt_enabled = CpuUtils.is_smt_enabled(cpu_info)
+        if not smt_enabled and smt_used:
+            raise RuntimeError("SMT is not enabled.")
+
+        cpu_list = []
+        for cpu in cpu_info:
+            if cpu[3] == cpu_node:
+                cpu_list.append(cpu[0])
+
+        if not smt_enabled or smt_enabled and smt_used:
+            pass
+
+        if smt_enabled and not smt_used:
+            cpu_list_len = len(cpu_list)
+            cpu_list = cpu_list[:cpu_list_len / CpuUtils.NR_OF_THREADS]
+
+        return cpu_list
 
     @staticmethod
-    def cpu_list_per_node_str(node, cpu_node, skip_cnt=0,
-                              cpu_cnt=0, sep=","):
+    def cpu_slice_of_list_per_node(node, cpu_node, skip_cnt=0, cpu_cnt=0,
+                                   smt_used=False):
         """Return string of node related list of CPU numbers.
 
         :param node: Node dictionary with cpuinfo.
         :param cpu_node: Numa node number.
         :param skip_cnt: Skip first "skip_cnt" CPUs.
         :param cpu_cnt: Count of cpus to return, if 0 then return all.
-        :param sep: Separator, default: 1,2,3,4,....
+        :param smt_used: True - we want to use SMT, otherwise false.
         :type node: dict
         :type cpu_node: int
         :type skip_cnt: int
         :type cpu_cnt: int
-        :type sep: str
+        :type smt_used: bool
         :returns: Cpu numbers related to numa from argument.
-        :rtype: str
+        :rtype: list
         :raises RuntimeError: If we require more cpus than available.
         """
 
-        cpu_list = CpuUtils.cpu_list_per_node(node, cpu_node)
+        cpu_list = CpuUtils.cpu_list_per_node(node, cpu_node, smt_used)
+
         cpu_list_len = len(cpu_list)
+        if cpu_cnt + skip_cnt > cpu_list_len:
+            raise RuntimeError("cpu_cnt + skip_cnt > length(cpu list).")
+
         if cpu_cnt == 0:
             cpu_cnt = cpu_list_len - skip_cnt
 
-        if cpu_cnt + skip_cnt > cpu_list_len:
-            raise RuntimeError("cpu_cnt + skip_cnt > length(cpu list).")
+        if smt_used:
+            cpu_list_0 = cpu_list[:cpu_list_len / CpuUtils.NR_OF_THREADS]
+            cpu_list_1 = cpu_list[cpu_list_len / CpuUtils.NR_OF_THREADS:]
+            cpu_list = [cpu for cpu in cpu_list_0[skip_cnt:skip_cnt + cpu_cnt]]
+            cpu_list_ex = [cpu for cpu in
+                           cpu_list_1[skip_cnt:skip_cnt + cpu_cnt]]
+            cpu_list.extend(cpu_list_ex)
+        else:
+            cpu_list = [cpu for cpu in cpu_list[skip_cnt:skip_cnt + cpu_cnt]]
+
+        return cpu_list
 
-        cpu_flist = sep.join(str(a) for a in
-                             cpu_list[skip_cnt:skip_cnt+cpu_cnt])
+    @staticmethod
+    def cpu_list_per_node_str(node, cpu_node, skip_cnt=0, cpu_cnt=0, sep=",",
+                              smt_used=False):
+        """Return string of node related list of CPU numbers.
+
+        :param node: Node dictionary with cpuinfo.
+        :param cpu_node: Numa node number.
+        :param skip_cnt: Skip first "skip_cnt" CPUs.
+        :param cpu_cnt: Count of cpus to return, if 0 then return all.
+        :param sep: Separator, default: 1,2,3,4,....
+        :param smt_used: True - we want to use SMT, otherwise false.
+        :type node: dict
+        :type cpu_node: int
+        :type skip_cnt: int
+        :type cpu_cnt: int
+        :type sep: str
+        :type smt_used: bool
+        :returns: Cpu numbers related to numa from argument.
+        :rtype: str
+        """
 
-        return cpu_flist
+        cpu_list = CpuUtils.cpu_slice_of_list_per_node(node, cpu_node,
+                                                       skip_cnt=skip_cnt,
+                                                       cpu_cnt=cpu_cnt,
+                                                       smt_used=smt_used)
+        return sep.join(str(cpu) for cpu in cpu_list)
 
     @staticmethod
-    def cpu_range_per_node_str(node, cpu_node, skip_cnt=0, cpu_cnt=0, sep="-"):
+    def cpu_range_per_node_str(node, cpu_node, skip_cnt=0, cpu_cnt=0, sep="-",
+                               smt_used=False):
         """Return string of node related range of CPU numbers, e.g. 0-4.
 
         :param node: Node dictionary with cpuinfo.
         :param cpu_node: Numa node number.
         :param skip_cnt: Skip first "skip_cnt" CPUs.
         :param cpu_cnt: Count of cpus to return, if 0 then return all.
-        :param sep: Separator, default: 0-4.
+        :param sep: Separator, default: "-".
+        :param smt_used: True - we want to use SMT, otherwise false.
         :type node: dict
         :type cpu_node: int
         :type skip_cnt: int
         :type cpu_cnt: int
         :type sep: str
+        :type smt_used: bool
         :returns: String of node related range of CPU numbers.
         :rtype: str
-        :raises RuntimeError: If we require more cpus than available.
         """
 
-        cpu_list = CpuUtils.cpu_list_per_node(node, cpu_node)
-        cpu_list_len = len(cpu_list)
-        if cpu_cnt == 0:
-            cpu_cnt = cpu_list_len - skip_cnt
-
-        if cpu_cnt + skip_cnt > cpu_list_len:
-            raise RuntimeError("cpu_cnt + skip_cnt > length(cpu list).")
+        cpu_list = CpuUtils.cpu_slice_of_list_per_node(node, cpu_node,
+                                                       skip_cnt=skip_cnt,
+                                                       cpu_cnt=cpu_cnt,
+                                                       smt_used=smt_used)
+        if smt_used:
+            cpu_list_len = len(cpu_list)
+            cpu_list_0 = cpu_list[:cpu_list_len / CpuUtils.NR_OF_THREADS]
+            cpu_list_1 = cpu_list[cpu_list_len / CpuUtils.NR_OF_THREADS:]
+            cpu_range = "{}{}{},{}{}{}".format(cpu_list_0[0], sep,
+                                               cpu_list_0[-1],
+                                               cpu_list_1[0], sep,
+                                               cpu_list_1[-1])
+        else:
+            cpu_range = "{}{}{}".format(cpu_list[0], sep, cpu_list[-1])
 
-        first = cpu_list[skip_cnt]
-        last = cpu_list[skip_cnt + cpu_cnt - 1]
-        return "{}{}{}".format(first, sep, last)
+        return cpu_range
index 474f192..b15d48a 100644 (file)
@@ -22,7 +22,7 @@
 
 *** Keywords ***
 | Start L2FWD '${m}' worker threads and rxqueues '${n}' with jumbo frames '${b}'
-| | [Documentation] | Start the l2fwd with M worker threads without HTT
+| | [Documentation] | Start the l2fwd with M worker threads without SMT
 | | ... | and rxqueues N and B (yes or no) jumbo frames in all DUTs.
 | | ...
 | | ${m_int}= | Convert To Integer | ${m}
 | | ${dut2_numa}= | Get interfaces numa node | ${dut2}
 | | ... | ${dut2_if1} | ${dut2_if2}
 | | ${dut1_cpus}= | Cpu Range Per Node Str | ${dut1} | ${dut1_numa}
-| | ... | cpu_cnt=${cpu_cnt}
+| | ... | skip_cnt=${1} | cpu_cnt=${cpu_cnt}
 | | ${dut2_cpus}= | Cpu Range Per Node Str | ${dut2} | ${dut2_numa}
-| | ... | cpu_cnt=${cpu_cnt}
+| | ... | skip_cnt=${1} | cpu_cnt=${cpu_cnt}
+| | Start the l2fwd test | ${dut1} | ${dut1_cpus} | ${nb_cores} | ${rxqueues}
+| | ... | ${jumbo_frames}
+| | Start the l2fwd test | ${dut2} | ${dut2_cpus} | ${nb_cores} | ${rxqueues}
+| | ... | ${jumbo_frames}
+
+| Start L2FWD '${m}' worker threads using SMT and rxqueues '${n}' with jumbo frames '${b}'
+| | [Documentation] | Start the l2fwd with M worker threads with SMT
+| | ... | and rxqueues N and B (yes or no) jumbo frames in all DUTs.
+| | ...
+| | ${m_int}= | Convert To Integer | ${m}
+| | ${cpu_cnt}= | Evaluate | ${m_int}+1
+| | ${nb_cores_int}= | Evaluate | ${m_int}*2
+| | ${nb_cores}= | Convert to String | ${nb_cores_int}
+| | ${rxqueues}= | Convert to String | ${n}
+| | ${jumbo_frames}= | Convert to String | ${b}
+| | ${dut1_numa}= | Get interfaces numa node | ${dut1}
+| | ... | ${dut1_if1} | ${dut1_if2}
+| | ${dut2_numa}= | Get interfaces numa node | ${dut2}
+| | ... | ${dut2_if1} | ${dut2_if2}
+| | ${dut1_cpus}= | Cpu Range Per Node Str | ${dut1} | ${dut1_numa}
+| | ... | skip_cnt=${1} | cpu_cnt=${cpu_cnt} | smt_used=${True}
+| | ${dut2_cpus}= | Cpu Range Per Node Str | ${dut2} | ${dut2_numa}
+| | ... | skip_cnt=${1} | cpu_cnt=${cpu_cnt} | smt_used=${True}
 | | Start the l2fwd test | ${dut1} | ${dut1_cpus} | ${nb_cores} | ${rxqueues}
 | | ... | ${jumbo_frames}
 | | Start the l2fwd test | ${dut2} | ${dut2_cpus} | ${nb_cores} | ${rxqueues}
index f8dda17..e3e9309 100644 (file)
 *** Keywords ***
 | Setup all DUTs before test
 | | [Documentation] | Setup all DUTs in topology before test execution.
+| | ...
 | | Setup All DUTs | ${nodes}
 
 | Setup all TGs before traffic script
 | | [Documentation] | Prepare all TGs before traffic scripts execution.
+| | ...
 | | All TGs Set Interface Default Driver | ${nodes}
 
 | Show Vpp Version On All DUTs
 | | [Documentation] | Show VPP version verbose on all DUTs.
+| | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
 | | | Vpp show version verbose | ${nodes['${dut}']}
 
 | Show Vpp Errors On All DUTs
 | | [Documentation] | Show VPP errors verbose on all DUTs.
+| | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
 | | | Vpp Show Errors | ${nodes['${dut}']}
 
 | Show Vpp Trace Dump On All DUTs
 | | [Documentation] | Save API trace and dump output on all DUTs.
+| | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
 | | | Vpp api trace save | ${nodes['${dut}']}
 | | | Vpp api trace dump | ${nodes['${dut}']}
 
 | Show Vpp Vhost On All DUTs
-| | [Documentation] | Show Vhost User on all DUTs
+| | [Documentation] | Show Vhost User on all DUTs.
+| | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
 | | | Vpp Show Vhost | ${nodes['${dut}']}
 
 | Setup Scheduler Policy for Vpp On All DUTs
 | | [Documentation] | Set realtime scheduling policy (SCHED_RR) with priority 1
-| | ...             | on all VPP worker threads on all DUTs.
+| | ... | on all VPP worker threads on all DUTs.
+| | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
 | | | Set VPP Scheduling rr | ${nodes['${dut}']}
 
 | Add '${m}' worker threads and rxqueues '${n}' in 3-node single-link topo
-| | [Documentation] | Setup M worker threads and N rxqueues in vpp startup
-| | ...             | configuration on all DUTs in 3-node single-link topology.
+| | [Documentation] | Setup M worker threads and N rxqueues in vpp startup\
+| | ... | configuration on all DUTs in 3-node single-link topology.
+| | ...
 | | ${m_int}= | Convert To Integer | ${m}
 | | ${dut1_numa}= | Get interfaces numa node | ${dut1}
-| | ...           | ${dut1_if1} | ${dut1_if2}
+| | ... | ${dut1_if1} | ${dut1_if2}
 | | ${dut2_numa}= | Get interfaces numa node | ${dut2}
-| | ...           | ${dut2_if1} | ${dut2_if2}
+| | ... | ${dut2_if1} | ${dut2_if2}
 | | ${dut1_cpu_main}= | Cpu list per node str | ${dut1} | ${dut1_numa}
-| | ...               | cpu_cnt=${1}
+| | ... | skip_cnt=${1} | cpu_cnt=${1}
 | | ${dut1_cpu_w}= | Cpu list per node str | ${dut1} | ${dut1_numa}
-| | ...            | skip_cnt=${1} | cpu_cnt=${m_int}
+| | ... | skip_cnt=${2} | cpu_cnt=${m_int}
 | | ${dut2_cpu_main}= | Cpu list per node str | ${dut2} | ${dut2_numa}
-| | ...               | cpu_cnt=${1}
+| | ... | skip_cnt=${1} | cpu_cnt=${1}
 | | ${dut2_cpu_w}= | Cpu list per node str | ${dut2} | ${dut2_numa}
-| | ...            | skip_cnt=${1} | cpu_cnt=${m_int}
+| | ... | skip_cnt=${2} | cpu_cnt=${m_int}
 | | ${dut1_cpu}= | Catenate | main-core | ${dut1_cpu_main}
-| | ...          | corelist-workers | ${dut1_cpu_w}
+| | ... | corelist-workers | ${dut1_cpu_w}
 | | ${dut2_cpu}= | Catenate | main-core | ${dut2_cpu_main}
-| | ...          | corelist-workers | ${dut2_cpu_w}
+| | ... | corelist-workers | ${dut2_cpu_w}
 | | ${rxqueues}= | Catenate | num-rx-queues | ${n}
 | | Add CPU config | ${dut1} | ${dut1_cpu}
 | | Add CPU config | ${dut2} | ${dut2_cpu}
 | | Add rxqueues config | ${dut2} | ${rxqueues}
 
 | Add '${m}' worker threads and rxqueues '${n}' in 2-node single-link topo
-| | [Documentation] | Setup M worker threads and N rxqueues in vpp startup
+| | [Documentation] | Setup M worker threads and N rxqueues in vpp startup\
 | | ... | configuration on all DUTs in 2-node single-link topology.
+| | ...
 | | ${m_int}= | Convert To Integer | ${m}
 | | ${dut1_numa}= | Get interfaces numa node | ${dut1}
 | | ... | ${dut1_if1} | ${dut1_if2}
 | | ${dut1_cpu_main}= | Cpu list per node str | ${dut1} | ${dut1_numa}
-| | ... | cpu_cnt=${1} | skip_cnt=${1}
+| | ... | skip_cnt=${1} | cpu_cnt=${1}
 | | ${dut1_cpu_w}= | Cpu list per node str | ${dut1} | ${dut1_numa}
 | | ... | skip_cnt=${2} | cpu_cnt=${m_int}
 | | ${dut1_cpu}= | Catenate | main-core | ${dut1_cpu_main}
 | | Add CPU config | ${dut1} | ${dut1_cpu}
 | | Add rxqueues config | ${dut1} | ${rxqueues}
 
+| Add '${m}' worker threads using SMT and rxqueues '${n}' in 3-node single-link topo
+| | [Documentation] | Setup M worker threads using SMT and N rxqueues in vpp\
+| | ... | startup configuration on all DUTs in 3-node single-link topology.
+| | ...
+| | ${m_int}= | Convert To Integer | ${m}
+| | ${dut1_numa}= | Get interfaces numa node | ${dut1}
+| | ... | ${dut1_if1} | ${dut1_if2}
+| | ${dut2_numa}= | Get interfaces numa node | ${dut2}
+| | ... | ${dut2_if1} | ${dut2_if2}
+| | ${dut1_cpu_main}= | Cpu list per node str | ${dut1} | ${dut1_numa}
+| | ... | skip_cnt=${1} | cpu_cnt=${1} | smt_used=${True}
+| | ${dut1_cpu_w}= | Cpu list per node str | ${dut1} | ${dut1_numa}
+| | ... | skip_cnt=${2} | cpu_cnt=${m_int} | smt_used=${True}
+| | ${dut2_cpu_main}= | Cpu list per node str | ${dut2} | ${dut2_numa}
+| | ... | skip_cnt=${1} | cpu_cnt=${1} | smt_used=${True}
+| | ${dut2_cpu_w}= | Cpu list per node str | ${dut2} | ${dut2_numa}
+| | ... | skip_cnt=${2} | cpu_cnt=${m_int} | smt_used=${True}
+| | ${dut1_cpu}= | Catenate | main-core | ${dut1_cpu_main}
+| | ... | corelist-workers | ${dut1_cpu_w}
+| | ${dut2_cpu}= | Catenate | main-core | ${dut2_cpu_main}
+| | ... | corelist-workers | ${dut2_cpu_w}
+| | ${rxqueues}= | Catenate | num-rx-queues | ${n}
+| | Add CPU config | ${dut1} | ${dut1_cpu}
+| | Add CPU config | ${dut2} | ${dut2_cpu}
+| | Add rxqueues config | ${dut1} | ${rxqueues}
+| | Add rxqueues config | ${dut2} | ${rxqueues}
+
+| Add '${m}' worker threads using SMT and rxqueues '${n}' in 2-node single-link topo
+| | [Documentation] | Setup M worker threads and N rxqueues in vpp startup\
+| | ... | configuration on all DUTs in 2-node single-link topology.
+| | ...
+| | ${m_int}= | Convert To Integer | ${m}
+| | ${dut1_numa}= | Get interfaces numa node | ${dut1}
+| | ... | ${dut1_if1} | ${dut1_if2}
+| | ${dut1_cpu_main}= | Cpu list per node str | ${dut1} | ${dut1_numa}
+| | ... | skip_cnt=${1} | cpu_cnt=${1} | smt_used=${True}
+| | ${dut1_cpu_w}= | Cpu list per node str | ${dut1} | ${dut1_numa}
+| | ... | skip_cnt=${2} | cpu_cnt=${m_int} | smt_used=${True}
+| | ${dut1_cpu}= | Catenate | main-core | ${dut1_cpu_main}
+| | ... | corelist-workers | ${dut1_cpu_w}
+| | ${rxqueues}= | Catenate | num-rx-queues | ${n}
+| | Add CPU config | ${dut1} | ${dut1_cpu}
+| | Add rxqueues config | ${dut1} | ${rxqueues}
+
 | Add worker threads and rxqueues to all DUTs
-| | [Documentation] | Setup worker threads and rxqueues in VPP startup
-| | ...             | configuration to all DUTs
+| | [Documentation] | Setup worker threads and rxqueues in VPP startup\
+| | ... | configuration to all DUTs.
 | | ...
 | | ... | *Arguments:*
 | | ... | - ${cpu} - CPU configuration. Type: string
 | | ... | *Example:*
 | | ...
 | | ... | \| Add worker threads and rxqueues to all DUTs \| main-core 0 \
-| | ... | \| rxqueues 2
+| | ... | \| rxqueues 2 \|
+| | ...
 | | [Arguments] | ${cpu} | ${rxqueues}
+| | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
-| | | Add CPU config | ${nodes['${dut}']}
-| | | ...            | ${cpu}
-| | | Add rxqueues config | ${nodes['${dut}']}
-| | | ...            | ${rxqueues}
+| | | Add CPU config | ${nodes['${dut}']} | ${cpu}
+| | | Add rxqueues config | ${nodes['${dut}']} | ${rxqueues}
 
 | Add all PCI devices to all DUTs
-| | [Documentation] | Add all available PCI devices from topology file to VPP
-| | ...             | startup configuration to all DUTs
+| | [Documentation] | Add all available PCI devices from topology file to VPP\
+| | ... | startup configuration to all DUTs.
+| | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
 | | | Add PCI all devices | ${nodes['${dut}']}
 
 | Add PCI device to DUT
 | | [Documentation] | Add PCI device to VPP startup configuration
-| | ...             | to DUT specified as argument
+| | ... | to DUT specified as argument.
 | | ...
 | | ... | *Arguments:*
 | | ... | - ${node} - DUT node. Type: dictionary
 | | ...
 | | ... | *Example:*
 | | ...
-| | ... | \| Add PCI device to DUT \| ${nodes['DUT1']} \
-| | ... | \| 0000:00:00.0
+| | ... | \| Add PCI device to DUT \| ${nodes['DUT1']} \| 0000:00:00.0 \|
+| | ...
 | | [Arguments] | ${node} | ${pci_address}
+| | ...
 | | Add PCI device | ${node} | ${pci_address}
 
 | Add Heapsize Config to all DUTs
-| | [Documentation] | Add Add Heapsize Config to VPP startup configuration
-| | ...             | to all DUTs
+| | [Documentation] | Add Add Heapsize Config to VPP startup configuration\
+| | ... | to all DUTs.
+| | ...
 | | ... | *Arguments:*
 | | ... | - ${heapsize} - Heapsize string (5G, 200M, ...)
+| | ...
+| | ... | *Example:*
+| | ...
+| | ... | \| Add Heapsize Config to all DUTs \| 200M \|
+| | ...
 | | [Arguments] | ${heapsize}
+| | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
 | | | Add Heapsize Config | ${nodes['${dut}']} | ${heapsize}
 
 | Add No Multi Seg to all DUTs
-| | [Documentation] | Add No Multi Seg to VPP startup configuration to all
-| | ...             | DUTs
+| | [Documentation] | Add No Multi Seg to VPP startup configuration to all DUTs.
+| | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
 | | | Add No Multi Seg Config | ${nodes['${dut}']}
 
 | Add Enable Vhost User to all DUTs
-| | [Documentation] | Add Enable Vhost User to VPP startup configuration to all
-| | ...             | DUTs
+| | [Documentation] | Add Enable Vhost User to VPP startup configuration to all\
+| | ... | DUTs.
+| | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
 | | | Add Enable Vhost User Config | ${nodes['${dut}']}
 
 | Remove startup configuration of VPP from all DUTs
-| | [Documentation] | Remove VPP startup configuration from all DUTs
+| | [Documentation] | Remove VPP startup configuration from all DUTs.
+| | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
 | | | Remove All PCI Devices | ${nodes['${dut}']}
 | | | Remove Enable Vhost User Config | ${nodes['${dut}']}
 
 | Setup default startup configuration of VPP on all DUTs
-| | [Documentation] | Setup default startup configuration of VPP to all DUTs
+| | [Documentation] | Setup default startup configuration of VPP to all DUTs.
+| | ...
 | | Remove startup configuration of VPP from all DUTs
 | | Add '1' worker threads and rxqueues '1' in 3-node single-link topo
 | | Add all PCI devices to all DUTs
 | | Apply startup configuration on all VPP DUTs
 
 | Setup 2-node startup configuration of VPP on all DUTs
-| | [Documentation] | Setup default startup configuration of VPP to all DUTs
+| | [Documentation] | Setup default startup configuration of VPP to all DUTs.
+| | ...
 | | Remove startup configuration of VPP from all DUTs
 | | Add '1' worker threads and rxqueues '1' in 2-node single-link topo
 | | Add all PCI devices to all DUTs
 | | Apply startup configuration on all VPP DUTs
 
 | Apply startup configuration on all VPP DUTs
-| | [Documentation] | Apply startup configuration of VPP and restart VPP on all
-| | ...             | DUTs
+| | [Documentation] | Apply startup configuration of VPP and restart VPP on all\
+| | ... | DUTs.
+| | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
 | | | Apply Config | ${nodes['${dut}']}
 | | Update All Interface Data On All Nodes | ${nodes} | skip_tg=${TRUE}
 
 | Save VPP PIDs
-| | [Documentation] | Get PIDs of VPP processes from all DUTs in topology and
-| | ... | set it as a test variable. The PIDs are stored as dictionary items
+| | [Documentation] | Get PIDs of VPP processes from all DUTs in topology and\
+| | ... | set it as a test variable. The PIDs are stored as dictionary items\
 | | ... | where the key is the host and the value is the PID.
 | | ...
 | | ${setup_vpp_pids}= | Get VPP PIDs | ${nodes}
 | | Set Test Variable | ${setup_vpp_pids}
 
 | Check VPP PID in Teardown
-| | [Documentation] | Check if the VPP PIDs on all DUTs are the same at the end
-| | ... | of test as they were at the begining. If they are not, only a message
+| | [Documentation] | Check if the VPP PIDs on all DUTs are the same at the end\
+| | ... | of test as they were at the begining. If they are not, only a message\
 | | ... | is printed on console and to log. The test will not fail.
 | | ...
 | | ${teardown_vpp_pids}= | Get VPP PIDs | ${nodes}
index 20f2f0b..47fde73 100644 (file)
@@ -66,7 +66,7 @@
 | | ... | \| Get Frame Size \| IMIX_v4_1
 | | [Arguments] | ${framesize}
 | | Run Keyword If | '${framesize}' == 'IMIX_v4_1'
-| | ...            | Return From Keyword | 353.83333
+| | ... | Return From Keyword | 353.83333
 | | Return From Keyword | ${framesize}
 
 | Setup performance global Variables
 | | ... | - dut2_if2 - DUT2 interface towards DUT1.
 | | ...
 | | Append Nodes | ${nodes['TG']} | ${nodes['DUT1']} | ${nodes['DUT2']}
-| | ...          | ${nodes['TG']}
+| | ... | ${nodes['TG']}
 | | Compute Path
 | | ${tg_if1} | ${tg}= | Next Interface
 | | ${dut1_if1} | ${dut1}= | Next Interface
 | | IP addresses are set on interfaces | ${dut2} | ${dut2_if1} | 2.2.2.2 | 30
 | | IP addresses are set on interfaces | ${dut2} | ${dut2_if2} | 3.3.3.2 | 30
 | | Vpp Route Add | ${dut1} | 10.0.0.0 | 32 | 1.1.1.1 | ${dut1_if1}
-| | ...           | count=${count}
+| | ... | count=${count}
 | | Vpp Route Add | ${dut1} | 20.0.0.0 | 32 | 2.2.2.2 | ${dut1_if2}
-| | ...           | count=${count}
+| | ... | count=${count}
 | | Vpp Route Add | ${dut2} | 10.0.0.0 | 32 | 2.2.2.1 | ${dut2_if1}
-| | ...           | count=${count}
+| | ... | count=${count}
 | | Vpp Route Add | ${dut2} | 20.0.0.0 | 32 | 3.3.3.1 | ${dut2_if2}
-| | ...           | count=${count}
+| | ... | count=${count}
 | | All Vpp Interfaces Ready Wait | ${nodes}
 
 | IPv4 forwarding with vhost initialized in a 3-node circular topology
 | | [Arguments] | ${sock1} | ${sock2}
 | | VPP interfaces in path are up in a 3-node circular topology
 | | VPP Vhost interfaces for L2BD forwarding are setup | ${dut1}
-| | ...                                                | ${sock1}
-| | ...                                                | ${sock2}
+| | ... | ${sock1} | ${sock2}
 | | ${dut1_vif1}= | Set Variable | ${vhost_if1}
 | | ${dut1_vif2}= | Set Variable | ${vhost_if2}
 | | Set Interface State | ${dut1} | ${dut1_vif1} | up
 | | Set Interface State | ${dut1} | ${dut1_vif2} | up
 | | VPP Vhost interfaces for L2BD forwarding are setup | ${dut2}
-| | ...                                                | ${sock1}
-| | ...                                                | ${sock2}
+| | ... | ${sock1} | ${sock2}
 | | ${dut2_vif1}= | Set Variable | ${vhost_if1}
 | | ${dut2_vif2}= | Set Variable | ${vhost_if2}
 | | Set Interface State | ${dut2} | ${dut2_vif1} | up
 | | Add Ip Neighbor | ${dut2} | ${dut2_if1} | 2001:4::1 | ${dut1_if2_mac}
 | | Add Ip Neighbor | ${dut2} | ${dut2_if2} | 2001:5::2 | ${tg1_if2_mac}
 | | Vpp Route Add | ${dut1} | 2001:2::0 | ${host_prefix} | 2001:4::2
-| | ...           | interface=${dut1_if2} | count=${count}
+| | ... | interface=${dut1_if2} | count=${count}
 | | Vpp Route Add | ${dut1} | 2001:1::0 | ${host_prefix} | 2001:3::2
-| | ...           | interface=${dut1_if1} | count=${count}
+| | ... | interface=${dut1_if1} | count=${count}
 | | Vpp Route Add | ${dut2} | 2001:1::0 | ${host_prefix} | 2001:4::1
-| | ...           | interface=${dut2_if1} | count=${count}
+| | ... | interface=${dut2_if1} | count=${count}
 | | Vpp Route Add | ${dut2} | 2001:2::0 | ${host_prefix} | 2001:5::2
-| | ...           | interface=${dut2_if2} | count=${count}
+| | ... | interface=${dut2_if2} | count=${count}
 
 | IPv6 iAcl whitelist initialized in a 3-node circular topology
 | | [Documentation]
 | | ... | interfaces.
 | | ...
 | | VPP interfaces in path are up in a 3-node circular topology
-| | IP addresses are set on interfaces | ${dut1} | ${dut1_if2} | 172.16.0.1
-| | ...                                | 24
-| | IP addresses are set on interfaces | ${dut2} | ${dut2_if1} | 172.16.0.2
-| | ...                                | 24
+| | IP addresses are set on interfaces | ${dut1} | ${dut1_if2} | 172.16.0.1 | 24
+| | IP addresses are set on interfaces | ${dut2} | ${dut2_if1} | 172.16.0.2 | 24
 | | ${dut1_if2_mac}= | Get Interface MAC | ${dut1} | ${dut1_if2}
 | | ${dut2_if1_mac}= | Get Interface MAC | ${dut2} | ${dut2_if1}
 | | Add arp on dut | ${dut1} | ${dut1_if2} | 172.16.0.2 | ${dut2_if1_mac}
 | | Add arp on dut | ${dut2} | ${dut2_if1} | 172.16.0.1 | ${dut1_if2_mac}
 | | ${dut1s_vxlan}= | Create VXLAN interface | ${dut1} | 24
-| | ...             | 172.16.0.1 | 172.16.0.2
+| | ... | 172.16.0.1 | 172.16.0.2
 | | L2 setup xconnect on DUT | ${dut1} | ${dut1_if1} | ${dut1s_vxlan}
 | | ${dut2s_vxlan}= | Create VXLAN interface | ${dut2} | 24
-| | ...             | 172.16.0.2 | 172.16.0.1
+| | ... | 172.16.0.2 | 172.16.0.1
 | | L2 setup xconnect on DUT | ${dut2} | ${dut2_if2} | ${dut2s_vxlan}
 
 | L2 xconnect with Vhost-User initialized in a 3-node circular topology
 | | ... | *Example:*
 | | ...
 | | ... | \| L2 xconnect with Vhost-User initialized in a 3-node \
-| | ... |    circular topology \| /tmp/sock1 \| /tmp/sock2 \|
+| | ... | circular topology \| /tmp/sock1 \| /tmp/sock2 \|
 | | [Arguments] | ${sock1} | ${sock2}
 | | VPP Vhost interfaces for L2BD forwarding are setup | ${dut1}
-| | ...                                                | ${sock1}
-| | ...                                                | ${sock2}
+| | ... | ${sock1} | ${sock2}
 | | L2 setup xconnect on DUT | ${dut1} | ${dut1_if1} | ${vhost_if1}
 | | L2 setup xconnect on DUT | ${dut1} | ${dut1_if2} | ${vhost_if2}
 | | VPP Vhost interfaces for L2BD forwarding are setup | ${dut2}
-| | ...                                                | ${sock1}
-| | ...                                                | ${sock2}
+| | ... | ${sock1} | ${sock2}
 | | L2 setup xconnect on DUT | ${dut2} | ${dut2_if1} | ${vhost_if1}
 | | L2 setup xconnect on DUT | ${dut2} | ${dut2_if2} | ${vhost_if2}
 | | All Vpp Interfaces Ready Wait | ${nodes}
 | | ... | *Example:*
 | | ...
 | | ... | \| L2 bridge domains with Vhost-User initialized in a 3-node \
-| | ... |    circular topology \| 1 \| 2 \| /tmp/sock1 \| /tmp/sock2 \|
+| | ... | circular topology \| 1 \| 2 \| /tmp/sock1 \| /tmp/sock2 \|
 | | [Arguments] | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | VPP Vhost interfaces for L2BD forwarding are setup | ${dut1}
-| | ...                                                | ${sock1}
-| | ...                                                | ${sock2}
+| | ... | ${sock1} | ${sock2}
 | | Interface is added to bridge domain | ${dut1} | ${dut1_if1} | ${bd_id1}
 | | Interface is added to bridge domain | ${dut1} | ${vhost_if1} | ${bd_id1}
 | | Interface is added to bridge domain | ${dut1} | ${dut1_if2} | ${bd_id2}
 | | Interface is added to bridge domain | ${dut1} | ${vhost_if2} | ${bd_id2}
 | | VPP Vhost interfaces for L2BD forwarding are setup | ${dut2}
-| | ...                                                | ${sock1}
-| | ...                                                | ${sock2}
+| | ... | ${sock1} | ${sock2}
 | | Interface is added to bridge domain | ${dut2} | ${dut2_if1} | ${bd_id1}
 | | Interface is added to bridge domain | ${dut2} | ${vhost_if1} | ${bd_id1}
 | | Interface is added to bridge domain | ${dut2} | ${dut2_if2} | ${bd_id2}
 | | ... | ${nic_model}
 | | Setup default startup configuration of VPP on all DUTs
 | | Initialize traffic generator | ${tg} | ${tg_if1} | ${tg_if2}
-| | ...                          | ${dut1} | ${dut1_if1}
-| | ...                          | ${dut2} | ${dut2_if2}
-| | ...                          | ${topology_type}
+| | ... | ${dut1} | ${dut1_if1} | ${dut2} | ${dut2_if2} | ${topology_type}
 
 | 3-node Performance Suite Teardown
 | | [Documentation]
 | | ...
 | | ... | *Example:*
 | | ...
-| | ... | \| Find NDR using linear search and pps \| 64 \| 5000000 \| \
-| | ... | \| 100000 \| 3-node-IPv4 \| 100000 \| 14880952
+| | ... | \| Find NDR using linear search and pps \| 64 \| 5000000 \
+| | ... | \| 100000 \| 3-node-IPv4 \| 100000 \| 14880952 \|
+| | ...
 | | [Arguments] | ${framesize} | ${start_rate} | ${step_rate}
-| | ...         | ${topology_type} | ${min_rate} | ${max_rate}
+| | ... | ${topology_type} | ${min_rate} | ${max_rate}
+| | ...
 | | ${duration}= | Set Variable | 10
 | | Set Duration | ${duration}
 | | Set Search Rate Boundaries | ${max_rate} | ${min_rate}
 | | ${latency}= | Create List | ${tmp}
 | | ${rate_50p}= | Evaluate | int(${rate_per_stream}*0.5)
 | | ${lat_50p}= | Measure latency pps | ${duration} | ${rate_50p}
-| | ...                               | ${framesize} | ${topology_type}
+| | ... | ${framesize} | ${topology_type}
 | | ${tmp}= | Create List | 50%NDR | ${lat_50p}
 | | Append To List | ${latency} | ${tmp}
 | | ${rate_10p}= | Evaluate | int(${rate_per_stream}*0.1)
 | | ${lat_10p}= | Measure latency pps | ${duration} | ${rate_10p}
-| | ...                               | ${framesize} | ${topology_type}
+| | ... | ${framesize} | ${topology_type}
 | | ${tmp}= | Create List | 10%NDR | ${lat_10p}
 | | Append To List | ${latency} | ${tmp}
 | | Display result of NDR search | ${rate_per_stream} | ${framesize} | 2
-| | ...                          | ${latency}
+| | ... | ${latency}
 | | Traffic should pass with no loss | ${duration} | ${rate_per_stream}pps
-| | ...                              | ${framesize} | ${topology_type}
-| | ...                              | fail_on_loss=${False}
+| | ... | ${framesize} | ${topology_type} | fail_on_loss=${False}
 
 | Find PDR using linear search and pps
 | | [Documentation]
 | | ... | *Example:*
 | | ...
 | | ... | \| Find PDR using linear search and pps \| 64 \| 5000000 \
-| | ... | \| 100000 \| 3-node-IPv4 \| 100000 \| 14880952 \| 0.5 \| percentage
+| | ... | \| 100000 \| 3-node-IPv4 \| 100000 \| 14880952 \| 0.5 \| percentage \|
+| | ...
 | | [Arguments] | ${framesize} | ${start_rate} | ${step_rate}
-| | ...         | ${topology_type} | ${min_rate} | ${max_rate}
-| | ...         | ${loss_acceptance}=0 | ${loss_acceptance_type}='frames'
+| | ... | ${topology_type} | ${min_rate} | ${max_rate}
+| | ... | ${loss_acceptance}=0 | ${loss_acceptance_type}='frames'
+| | ...
 | | ${duration}= | Set Variable | 10
 | | Set Duration | ${duration}
 | | Set Search Rate Boundaries | ${max_rate} | ${min_rate}
 | | Set Search Rate Type pps
 | | Set Loss Acceptance | ${loss_acceptance}
 | | Run Keyword If | '${loss_acceptance_type}' == 'percentage'
-| | ...            | Set Loss Acceptance Type Percentage
+| | ... | Set Loss Acceptance Type Percentage
 | | Linear Search | ${start_rate} | ${topology_type}
 | | ${rate_per_stream} | ${lat}= | Verify Search Result
 | | ${tmp}= | Create List | 100%PDR | ${lat}
 | | ${latency}= | Create List | ${tmp}
 | | Display result of PDR search | ${rate_per_stream} | ${framesize} | 2
-| | ...                          | ${loss_acceptance} | ${loss_acceptance_type}
-| | ...                          | ${latency}
+| | ... | ${loss_acceptance} | ${loss_acceptance_type} | ${latency}
 | | Traffic should pass with partial loss | ${duration} | ${rate_per_stream}pps
-| | ...                                   | ${framesize} | ${topology_type}
-| | ...                                   | ${loss_acceptance}
-| | ...                                   | ${loss_acceptance_type}
-| | ...                                   | fail_on_loss=${False}
+| | ... | ${framesize} | ${topology_type} | ${loss_acceptance}
+| | ... | ${loss_acceptance_type} | fail_on_loss=${False}
 
 | Find NDR using binary search and pps
 | | [Documentation]
 | | ... | *Example:*
 | | ...
 | | ... | \| Find NDR using binary search and pps \| 64 \| 6000000 \
-| | ... | \| 12000000 \| 3-node-IPv4 \| 100000 \| 14880952 \| 50000
+| | ... | \| 12000000 \| 3-node-IPv4 \| 100000 \| 14880952 \| 50000 \|
+| | ...
 | | [Arguments] | ${framesize} | ${binary_min} | ${binary_max}
-| | ...         | ${topology_type} | ${min_rate} | ${max_rate} | ${threshold}
+| | ... | ${topology_type} | ${min_rate} | ${max_rate} | ${threshold}
+| | ...
 | | ${duration}= | Set Variable | 10
 | | Set Duration | ${duration}
 | | Set Search Rate Boundaries | ${max_rate} | ${min_rate}
 | | ${latency}= | Create List | ${tmp}
 | | ${rate_50p}= | Evaluate | int(${rate_per_stream}*0.5)
 | | ${lat_50p}= | Measure latency pps | ${duration} | ${rate_50p}
-| | ...                               | ${framesize} | ${topology_type}
+| | ... | ${framesize} | ${topology_type}
 | | ${tmp}= | Create List | 50%NDR | ${lat_50p}
 | | Append To List | ${latency} | ${tmp}
 | | ${rate_10p}= | Evaluate | int(${rate_per_stream}*0.1)
 | | ${lat_10p}= | Measure latency pps | ${duration} | ${rate_10p}
-| | ...                               | ${framesize} | ${topology_type}
+| | ... | ${framesize} | ${topology_type}
 | | ${tmp}= | Create List | 10%NDR | ${lat_10p}
 | | Append To List | ${latency} | ${tmp}
 | | Display result of NDR search | ${rate_per_stream} | ${framesize} | 2
-| | ...                          | ${latency}
+| | ... | ${latency}
 | | Traffic should pass with no loss | ${duration} | ${rate_per_stream}pps
-| | ...                              | ${framesize} | ${topology_type}
-| | ...                              | fail_on_loss=${False}
+| | ... | ${framesize} | ${topology_type} | fail_on_loss=${False}
 
 | Find PDR using binary search and pps
 | | [Documentation]
 | | ...
 | | ... | \| Find PDR using binary search and pps \| 64 \| 6000000 \
 | | ... | \| 12000000 \| 3-node-IPv4 \| 100000 \| 14880952 \| 50000 \| 0.5 \
-| | ... | \| percentage
+| | ... | \| percentage \|
+| | ...
 | | [Arguments] | ${framesize} | ${binary_min} | ${binary_max}
-| | ...         | ${topology_type} | ${min_rate} | ${max_rate} | ${threshold}
-| | ...         | ${loss_acceptance}=0 | ${loss_acceptance_type}='frames'
+| | ... | ${topology_type} | ${min_rate} | ${max_rate} | ${threshold}
+| | ... | ${loss_acceptance}=0 | ${loss_acceptance_type}='frames'
+| | ...
 | | ${duration}= | Set Variable | 10
 | | Set Duration | ${duration}
 | | Set Search Rate Boundaries | ${max_rate} | ${min_rate}
 | | Set Search Rate Type pps
 | | Set Loss Acceptance | ${loss_acceptance}
 | | Run Keyword If | '${loss_acceptance_type}' == 'percentage'
-| | ...            | Set Loss Acceptance Type Percentage
+| | ... | Set Loss Acceptance Type Percentage
 | | Set Binary Convergence Threshold | ${threshold}
 | | Binary Search | ${binary_min} | ${binary_max} | ${topology_type}
 | | ${rate_per_stream} | ${lat}= | Verify Search Result
 | | ${tmp}= | Create List | 100%PDR | ${lat}
 | | ${latency}= | Create List | ${tmp}
 | | Display result of PDR search | ${rate_per_stream} | ${framesize} | 2
-| | ...                          | ${loss_acceptance} | ${loss_acceptance_type}
-| | ...                          | ${latency}
+| | ... | ${loss_acceptance} | ${loss_acceptance_type} | ${latency}
 | | Traffic should pass with partial loss | ${duration} | ${rate_per_stream}pps
-| | ...                                   | ${framesize} | ${topology_type}
-| | ...                                   | ${loss_acceptance}
-| | ...                                   | ${loss_acceptance_type}
-| | ...                                   | fail_on_loss=${False}
+| | ... | ${framesize} | ${topology_type} | ${loss_acceptance}
+| | ... | ${loss_acceptance_type} | fail_on_loss=${False}
 
 | Find NDR using combined search and pps
 | | [Documentation]
 | | ... | *Example:*
 | | ...
 | | ... | \| Find NDR using combined search and pps \| 64 \| 5000000 \
-| | ... | \| 100000 \| 3-node-IPv4 \| 100000 \| 14880952 \| 5000
+| | ... | \| 100000 \| 3-node-IPv4 \| 100000 \| 14880952 \| 5000 \|
+| | ...
 | | [Arguments] | ${framesize} | ${start_rate} | ${step_rate}
-| | ...         | ${topology_type} | ${min_rate} | ${max_rate} | ${threshold}
+| | ... | ${topology_type} | ${min_rate} | ${max_rate} | ${threshold}
+| | ...
 | | ${duration}= | Set Variable | 10
 | | Set Duration | ${duration}
 | | Set Search Rate Boundaries | ${max_rate} | ${min_rate}
 | | ${latency}= | Create List | ${tmp}
 | | ${rate_50p}= | Evaluate | int(${rate_per_stream}*0.5)
 | | ${lat_50p}= | Measure latency pps | ${duration} | ${rate_50p}
-| | ...                               | ${framesize} | ${topology_type}
+| | ... | ${framesize} | ${topology_type}
 | | ${tmp}= | Create List | 50%NDR | ${lat_50p}
 | | Append To List | ${latency} | ${tmp}
 | | ${rate_10p}= | Evaluate | int(${rate_per_stream}*0.1)
 | | ${lat_10p}= | Measure latency pps | ${duration} | ${rate_10p}
-| | ...                               | ${framesize} | ${topology_type}
+| | ... | ${framesize} | ${topology_type}
 | | ${tmp}= | Create List | 10%NDR | ${lat_10p}
 | | Append To List | ${latency} | ${tmp}
 | | Display result of NDR search | ${rate_per_stream} | ${framesize} | 2
-| | ...                          | ${latency}
+| | ... | ${latency}
 | | Traffic should pass with no loss | ${duration} | ${rate_per_stream}pps
-| | ...                              | ${framesize} | ${topology_type}
-| | ...                              | fail_on_loss=${False}
+| | ... | ${framesize} | ${topology_type}
+| | ... | fail_on_loss=${False}
 
 | Find PDR using combined search and pps
 | | [Documentation]
 | | ...
 | | ... | \| Find PDR using combined search and pps \| 64 \| 5000000 \
 | | ... | \| 100000 \| 3-node-IPv4 \| 100000 \| 14880952 \| 5000 \| 0.5 \
-| | ... | \| percentage
+| | ... | \| percentage \|
+| | ...
 | | [Arguments] | ${framesize} | ${start_rate} | ${step_rate}
-| | ...         | ${topology_type} | ${min_rate} | ${max_rate} | ${threshold}
-| | ...         | ${loss_acceptance}=0 | ${loss_acceptance_type}='frames'
+| | ... | ${topology_type} | ${min_rate} | ${max_rate} | ${threshold}
+| | ... | ${loss_acceptance}=0 | ${loss_acceptance_type}='frames'
+| | ...
 | | ${duration}= | Set Variable | 10
 | | Set Duration | ${duration}
 | | Set Search Rate Boundaries | ${max_rate} | ${min_rate}
 | | Set Search Rate Type pps
 | | Set Loss Acceptance | ${loss_acceptance}
 | | Run Keyword If | '${loss_acceptance_type}' == 'percentage'
-| | ...            | Set Loss Acceptance Type Percentage
+| | ... | Set Loss Acceptance Type Percentage
 | | Set Binary Convergence Threshold | ${threshold}
 | | Combined Search | ${start_rate} | ${topology_type}
 | | ${rate_per_stream} | ${lat}= | Verify Search Result
 | | ${tmp}= | Create List | 100%PDR | ${lat}
 | | ${latency}= | Create List | ${tmp}
 | | Display result of PDR search | ${rate_per_stream} | ${framesize} | 2
-| | ...                          | ${loss_acceptance} | ${loss_acceptance_type}
-| | ...                          | ${latency}
+| | ... | ${loss_acceptance} | ${loss_acceptance_type} | ${latency}
 | | Traffic should pass with partial loss | ${duration} | ${rate_per_stream}pps
-| | ...                                   | ${framesize} | ${topology_type}
-| | ...                                   | ${loss_acceptance}
-| | ...                                   | ${loss_acceptance_type}
-| | ...                                   | fail_on_loss=${False}
+| | ... | ${framesize} | ${topology_type} | ${loss_acceptance}
+| | ... | ${loss_acceptance_type} | fail_on_loss=${False}
 
 | Display result of NDR search
 | | [Documentation]
 | | ...
 | | ... | \| Display result of NDR search \| 4400000 \| 64 \| 2 \
 | | ... | \| [100%NDR, [10/10/10, 1/2/3]] \|
-| | [Arguments] | ${rate_per_stream} | ${framesize} | ${nr_streams}
-| | ...         | ${latency}
+| | ...
+| | [Arguments] | ${rate_per_stream} | ${framesize} | ${nr_streams} | ${latency}
+| | ...
 | | ${framesize}= | Get Frame Size | ${framesize}
 | | ${rate_total}= | Evaluate | ${rate_per_stream}*${nr_streams}
 | | ${bandwidth_total}= | Evaluate | ${rate_total}*(${framesize}+20)*8/(10**9)
 | | Set Test Message | FINAL_RATE: ${rate_total} pps
-| | Set Test Message | (${nr_streams}x ${rate_per_stream} pps)
-| | ...              | append=yes
+| | Set Test Message | (${nr_streams}x ${rate_per_stream} pps) | append=yes
 | | Set Test Message | ${\n}FINAL_BANDWIDTH: ${bandwidth_total} Gbps (untagged)
-| | ...              | append=yes
+| | ... | append=yes
 | | Set Test Message | ${\n}LATENCY usec [min/avg/max] | append=yes
 | | :FOR | ${lat} | IN | @{latency}
 | | | Set Test Message | ${\n}LAT_${lat[0]}: ${lat[1]} | append=yes
 | | ...
 | | ... | \| Display result of PDR search \| 4400000 \| 64 \| 2 \| 0.5 \
 | | ... | \| percentage \| [100%NDR, [10/10/10, 1/2/3]] \|
+| | ...
 | | [Arguments] | ${rate_per_stream} | ${framesize} | ${nr_streams}
-| | ...         | ${loss_acceptance} | ${loss_acceptance_type} | ${latency}
+| | ... | ${loss_acceptance} | ${loss_acceptance_type} | ${latency}
+| | ...
 | | ${framesize}= | Get Frame Size | ${framesize}
 | | ${rate_total}= | Evaluate | ${rate_per_stream}*${nr_streams}
 | | ${bandwidth_total}= | Evaluate | ${rate_total}*(${framesize}+20)*8/(10**9)
 | | Set Test Message | FINAL_RATE: ${rate_total} pps
-| | Set Test Message | (${nr_streams}x ${rate_per_stream} pps)
-| | ...              | append=yes
+| | Set Test Message | (${nr_streams}x ${rate_per_stream} pps) | append=yes
 | | Set Test Message | ${\n}FINAL_BANDWIDTH: ${bandwidth_total} Gbps (untagged)
-| | ...              | append=yes
+| | ... | append=yes
 | | Set Test Message | ${\n}LATENCY usec [min/avg/max] | append=yes
 | | :FOR | ${lat} | IN | @{latency}
 | | | Set Test Message | ${\n}LAT_${lat[0]}: ${lat[1]} | append=yes
-| | Set Test Message | ${\n}LOSS_ACCEPTANCE: ${loss_acceptance} ${loss_acceptance_type}
-| | ...              | append=yes
+| | Set Test Message
+| | ... | ${\n}LOSS_ACCEPTANCE: ${loss_acceptance} ${loss_acceptance_type}
+| | ... | append=yes
 
 | Measure latency pps
 | | [Documentation]
 | | ...
 | | ... | *Example:*
 | | ...
-| | ... | \| Measure latency \| 10 \| 4.0 \| 64 \| 3-node-IPv4
+| | ... | \| Measure latency \| 10 \| 4.0 \| 64 \| 3-node-IPv4 \|
+| | ...
 | | [Arguments] | ${duration} | ${rate} | ${framesize} | ${topology_type}
+| | ...
 | | Return From Keyword If | ${rate} <= 10000 | ${-1}
 | | ${ret}= | For DPDK Performance Test
 | | Run Keyword If | ${ret}==${FALSE} | Clear all counters on all DUTs
 | | Send traffic on tg | ${duration} | ${rate}pps | ${framesize}
-| | ...                | ${topology_type} | warmup_time=0
+| | ... | ${topology_type} | warmup_time=0
 | | Run Keyword If | ${ret}==${FALSE} | Show statistics on all DUTs
 | | Run keyword and return | Get latency
 
 | | ... | *Example:*
 | | ...
 | | ... | \| Traffic should pass with no loss \| 10 \| 4.0mpps \| 64 \
-| | ... | \| 3-node-IPv4
+| | ... | \| 3-node-IPv4 \|
+| | ...
 | | [Arguments] | ${duration} | ${rate} | ${framesize} | ${topology_type}
-| | ...         | ${fail_on_loss}=${True}
+| | ... | ${fail_on_loss}=${True}
+| | ...
 | | Clear and show runtime counters with running traffic | ${duration}
-| | ...  | ${rate} | ${framesize} | ${topology_type}
+| | ... | ${rate} | ${framesize} | ${topology_type}
 | | ${ret}= | For DPDK Performance Test
 | | Run Keyword If | ${ret}==${FALSE} | Clear all counters on all DUTs
 | | Send traffic on tg | ${duration} | ${rate} | ${framesize}
-| | ...                | ${topology_type} | warmup_time=0
+| | ... | ${topology_type} | warmup_time=0
 | | Run Keyword If | ${ret}==${FALSE} | Show statistics on all DUTs
 | | Run Keyword If | ${fail_on_loss} | No traffic loss occurred
 
 | | ... | *Example:*
 | | ...
 | | ... | \| Traffic should pass with partial loss \| 10 \| 4.0mpps \| 64 \
-| | ... | \| 3-node-IPv4 \| 0.5 \| percentage
+| | ... | \| 3-node-IPv4 \| 0.5 \| percentage \|
+| | ...
 | | [Arguments] | ${duration} | ${rate} | ${framesize} | ${topology_type}
-| | ...         | ${loss_acceptance} | ${loss_acceptance_type}
-| | ...         | ${fail_on_loss}=${True}
+| | ... | ${loss_acceptance} | ${loss_acceptance_type}
+| | ... | ${fail_on_loss}=${True}
+| | ...
 | | Clear and show runtime counters with running traffic | ${duration}
-| | ...  | ${rate} | ${framesize} | ${topology_type}
+| | ... | ${rate} | ${framesize} | ${topology_type}
 | | ${ret}= | For DPDK Performance Test
 | | Run Keyword If | ${ret}==${FALSE} | Clear all counters on all DUTs
 | | Send traffic on tg | ${duration} | ${rate} | ${framesize}
-| | ...                | ${topology_type} | warmup_time=0
+| | ... | ${topology_type} | warmup_time=0
 | | Run Keyword If | ${ret}==${FALSE} | Show statistics on all DUTs
 | | Run Keyword If | ${fail_on_loss} | Partial traffic loss accepted
-| | ...            | ${loss_acceptance} | ${loss_acceptance_type}
+| | ... | ${loss_acceptance} | ${loss_acceptance_type}
 
 | Clear and show runtime counters with running traffic
 | | [Documentation]
 | | ... | *Example:*
 | | ...
 | | ... | \| Traffic should pass with partial loss \| 10 \| 4.0mpps \| 64 \
-| | ... | \| 3-node-IPv4 \| 0.5 \| percentage
+| | ... | \| 3-node-IPv4 \| 0.5 \| percentage \|
+| | ...
 | | [Arguments] | ${duration} | ${rate} | ${framesize} | ${topology_type}
-| | Send traffic on tg | -1 | ${rate} | ${framesize}
-| | ...                | ${topology_type} | warmup_time=0 | async_call=${True}
-| | ...                | latency=${False}
+| | ...
+| | Send traffic on tg | -1 | ${rate} | ${framesize} | ${topology_type}
+| | ... | warmup_time=0 | async_call=${True} | latency=${False}
 | | ${ret}= | For DPDK Performance Test
 | | Run Keyword If | ${ret}==${FALSE} | Clear runtime counters on all DUTs
 | | Sleep | ${duration}
 | Guest VM with dpdk-testpmd connected via vhost-user is setup
 | | [Documentation]
 | | ... | Start QEMU guest with two vhost-user interfaces and interconnecting
-| | ... | DPDK testpmd. Qemu Guest is using 5 cores pinned to physical cores
-| | ... | 5-9, and 2048M. Testpmd is using 5 cores (1 main core and 4 cores
-| | ... | dedicated to io) mem-channel=4, txq/rxq=256, burst=64,
-| | ... | disable-hw-vlan, disable-rss, driver usr/lib/librte_pmd_virtio.so
-| | ... | and fwd mode is io.
+| | ... | DPDK testpmd. Qemu Guest uses by default 5 cores and 2048M. Testpmd
+| | ... | uses 5 cores (1 main core and 4 cores dedicated to io) mem-channel=4,
+| | ... | txq/rxq=256, burst=64, disable-hw-vlan, disable-rss,
+| | ... | driver usr/lib/librte_pmd_virtio.so and fwd mode is io.
 | | ...
 | | ... | *Arguments:*
 | | ... | - dut_node - DUT node to start guest VM on. Type: dictionary
 | | ... | *Example:*
 | | ...
 | | ... | \| Guest VM with dpdk-testpmd connected via vhost-user is setup \
-| | ... | \| ${nodes['DUT1']} \| /tmp/sock1 \| /tmp/sock2 \| DUT1_VM \| ${5} \
+| | ... | \| ${nodes['DUT1']} \| /tmp/sock1 \| /tmp/sock2 \| DUT1_VM \| ${6} \
 | | ... | \| ${5} \|
 | | ...
-| | [Arguments] | ${dut_node} | ${sock1} | ${sock2} | ${vm_name} | ${skip}=${5}
+| | [Arguments] | ${dut_node} | ${sock1} | ${sock2} | ${vm_name} | ${skip}=${6}
+| | ... | ${count}=${5}
+| | ...
+| | Import Library | resources.libraries.python.QemuUtils
+| | ... | WITH NAME | ${vm_name}
+| | ${dut_numa}= | Get interfaces numa node | ${dut_node}
+| | ... | ${dut1_if1} | ${dut1_if2}
+| | ${qemu_cpus}= | Cpu slice of list per node | ${dut_node} | ${dut_numa}
+| | ... | skip_cnt=${skip} | cpu_cnt=${count} | smt_used=${False}
+| | Run keyword | ${vm_name}.Qemu Add Vhost User If | ${sock1}
+| | Run keyword | ${vm_name}.Qemu Add Vhost User If | ${sock2}
+| | Run keyword | ${vm_name}.Qemu Set Node | ${dut_node}
+| | Run keyword | ${vm_name}.Qemu Set Smp | ${count} | ${count} | 1 | 1
+| | Run keyword | ${vm_name}.Qemu Set Mem Size | 2048
+| | Run keyword | ${vm_name}.Qemu Set Disk Image | ${glob_vm_image}
+| | ${vm}= | Run keyword | ${vm_name}.Qemu Start
+| | Run keyword | ${vm_name}.Qemu Set Affinity | @{qemu_cpus}
+| | Run keyword | ${vm_name}.Qemu Set Scheduler Policy
+| | Dpdk Testpmd Start | ${vm} | eal_coremask=0x1f | eal_mem_channels=4
+| | ... | pmd_fwd_mode=io | pmd_disable_hw_vlan=${True}
+| | Return From Keyword | ${vm}
+
+| Guest VM with dpdk-testpmd using SMT connected via vhost-user is setup
+| | [Documentation]
+| | ... | Start QEMU guest with two vhost-user interfaces and interconnecting
+| | ... | DPDK testpmd. Qemu Guest uses by default 5 cores and 2048M. Testpmd
+| | ... | uses 5 cores (1 main core and 4 cores dedicated to io) mem-channel=4,
+| | ... | txq/rxq=256, burst=64, disable-hw-vlan, disable-rss,
+| | ... | driver usr/lib/librte_pmd_virtio.so and fwd mode is io.
+| | ...
+| | ... | *Arguments:*
+| | ... | - dut_node - DUT node to start guest VM on. Type: dictionary
+| | ... | - sock1 - Socket path for first Vhost-User interface. Type: string
+| | ... | - sock2 - Socket path for second Vhost-User interface. Type: string
+| | ... | - vm_name - QemuUtil instance name. Type: string
+| | ... | - skip - number of cpus which will be skipped. Type: int
+| | ... | - count - number of cpus which will be allocated for qemu. Type: int
+| | ...
+| | ... | *Example:*
+| | ...
+| | ... | \| Guest VM with dpdk-testpmd using SMT connected via vhost-user is \
+| | ... | setup \| ${nodes['DUT1']} \| /tmp/sock1 \| /tmp/sock2 \| DUT1_VM \
+| | ... | \| ${6} \| ${5} \|
+| | ...
+| | [Arguments] | ${dut_node} | ${sock1} | ${sock2} | ${vm_name} | ${skip}=${6}
 | | ... | ${count}=${5}
 | | ...
 | | Import Library | resources.libraries.python.QemuUtils
 | | ... | WITH NAME | ${vm_name}
 | | ${dut_numa}= | Get interfaces numa node | ${dut_node}
 | | ... | ${dut1_if1} | ${dut1_if2}
-| | ${cpus}= | Cpu list per node | ${dut_node} | ${dut_numa}
-| | ${end_idx}= | Evaluate | ${skip} + ${count}
-| | ${qemu_cpus}= | Get Slice From List | ${cpus} | ${skip} | ${end_idx}
+| | ${qemu_cpus}= | Cpu slice of list per node | ${dut_node} | ${dut_numa}
+| | ... | skip_cnt=${skip} | cpu_cnt=${count} | smt_used=${True}
 | | Run keyword | ${vm_name}.Qemu Add Vhost User If | ${sock1}
 | | Run keyword | ${vm_name}.Qemu Add Vhost User If | ${sock2}
 | | Run keyword | ${vm_name}.Qemu Set Node | ${dut_node}
 | Guest VM with dpdk-testpmd-mac connected via vhost-user is setup
 | | [Documentation]
 | | ... | Start QEMU guest with two vhost-user interfaces and interconnecting
-| | ... | DPDK testpmd. Qemu Guest is using 5 cores pinned to physical cores
-| | ... | 5-9 and 2048M. Testpmd is using 5 cores (1 main core and 4 cores
-| | ... | dedicated to io) mem-channel=4, txq/rxq=256, burst=64,
-| | ... | disable-hw-vlan, disable-rss, driver usr/lib/librte_pmd_virtio.so
-| | ... | and fwd mode is mac rewrite.
+| | ... | DPDK testpmd. Qemu Guest uses by default 5 cores and 2048M. Testpmd
+| | ... | uses 5 cores (1 main core and 4 cores dedicated to io) mem-channel=4,
+| | ... | txq/rxq=256, burst=64, disable-hw-vlan, disable-rss,
+| | ... | driver usr/lib/librte_pmd_virtio.so and fwd mode is mac rewrite.
 | | ...
 | | ... | *Arguments:*
 | | ... | - dut_node - DUT node to start guest VM on. Type: dictionary
 | | ...
 | | ... | \| Guest VM with dpdk-testpmd for Vhost L2BD forwarding is setup \
 | | ... | \| ${nodes['DUT1']} \| /tmp/sock1 \| /tmp/sock2 \| DUT1_VM \
-| | ... | \| 00:00:00:00:00:01 \| 00:00:00:00:00:02 \| ${5} \| ${5} \|
+| | ... | \| 00:00:00:00:00:01 \| 00:00:00:00:00:02 \| ${6} \| ${5} \|
 | | ...
 | | [Arguments] | ${dut_node} | ${sock1} | ${sock2} | ${vm_name}
-| | ... | ${eth0_mac} | ${eth1_mac} | ${skip}=${5} | ${count}=${5}
+| | ... | ${eth0_mac} | ${eth1_mac} | ${skip}=${6} | ${count}=${5}
 | | ...
 | | Import Library | resources.libraries.python.QemuUtils
 | | ... | WITH NAME | ${vm_name}
 | | ${dut_numa}= | Get interfaces numa node | ${dut_node}
 | | ... | ${dut1_if1} | ${dut1_if2}
-| | ${cpus}= | Cpu list per node | ${dut_node} | ${dut_numa}
-| | ${end_idx}= | Evaluate | ${skip} + ${count}
-| | ${qemu_cpus}= | Get Slice From List | ${cpus} | ${skip} | ${end_idx}
+| | ${qemu_cpus}= | Cpu slice of list per node | ${dut_node} | ${dut_numa}
+| | ... | skip_cnt=${skip} | cpu_cnt=${count} | smt_used=${False}
+| | Run keyword | ${vm_name}.Qemu Add Vhost User If | ${sock1}
+| | Run keyword | ${vm_name}.Qemu Add Vhost User If | ${sock2}
+| | Run keyword | ${vm_name}.Qemu Set Node | ${dut_node}
+| | Run keyword | ${vm_name}.Qemu Set Smp | ${count} | ${count} | 1 | 1
+| | Run keyword | ${vm_name}.Qemu Set Mem Size | 2048
+| | Run keyword | ${vm_name}.Qemu Set Disk Image | ${glob_vm_image}
+| | ${vm}= | Run keyword | ${vm_name}.Qemu Start
+| | Run keyword | ${vm_name}.Qemu Set Affinity | @{qemu_cpus}
+| | Run keyword | ${vm_name}.Qemu Set Scheduler Policy
+| | Dpdk Testpmd Start | ${vm} | eal_coremask=0x1f
+| | ... | eal_mem_channels=4 | pmd_fwd_mode=mac | pmd_eth_peer_0=0,${eth0_mac}
+| | ... | pmd_eth_peer_1=1,${eth1_mac} | pmd_disable_hw_vlan=${True}
+| | Return From Keyword | ${vm}
+
+| Guest VM with dpdk-testpmd-mac using SMT connected via vhost-user is setup
+| | [Documentation]
+| | ... | Start QEMU guest with two vhost-user interfaces and interconnecting
+| | ... | DPDK testpmd. Qemu Guest uses by default 5 cores and 2048M. Testpmd
+| | ... | uses 5 cores (1 main core and 4 cores dedicated to io) mem-channel=4,
+| | ... | txq/rxq=256, burst=64, disable-hw-vlan, disable-rss,
+| | ... | driver usr/lib/librte_pmd_virtio.so and fwd mode is mac rewrite.
+| | ...
+| | ... | *Arguments:*
+| | ... | - dut_node - DUT node to start guest VM on. Type: dictionary
+| | ... | - sock1 - Socket path for first Vhost-User interface. Type: string
+| | ... | - sock2 - Socket path for second Vhost-User interface. Type: string
+| | ... | - vm_name - QemuUtil instance name. Type: string
+| | ... | - eth0_mac - MAC address of first Vhost interface. Type: string
+| | ... | - eth1_mac - MAC address of second Vhost interface. Type: string
+| | ... | - skip - number of cpus which will be skipped. Type: int
+| | ... | - count - number of cpus which will be allocated for qemu. Type: int
+| | ...
+| | ... | *Example:*
+| | ...
+| | ... | \| Guest VM with dpdk-testpmd-mac using SMT connected via vhost-user \
+| | ... | is setup \| ${nodes['DUT1']} \| /tmp/sock1 \| /tmp/sock2 \| DUT1_VM \
+| | ... | \| 00:00:00:00:00:01 \| 00:00:00:00:00:02 \| ${6} \| ${5} \|
+| | ...
+| | [Arguments] | ${dut_node} | ${sock1} | ${sock2} | ${vm_name}
+| | ... | ${eth0_mac} | ${eth1_mac} | ${skip}=${6} | ${count}=${5}
+| | ...
+| | Import Library | resources.libraries.python.QemuUtils
+| | ... | WITH NAME | ${vm_name}
+| | ${dut_numa}= | Get interfaces numa node | ${dut_node}
+| | ... | ${dut1_if1} | ${dut1_if2}
+| | ${qemu_cpus}= | Cpu slice of list per node | ${dut_node} | ${dut_numa}
+| | ... | skip_cnt=${skip} | cpu_cnt=${count} | smt_used=${True}
 | | Run keyword | ${vm_name}.Qemu Add Vhost User If | ${sock1}
 | | Run keyword | ${vm_name}.Qemu Add Vhost User If | ${sock2}
 | | Run keyword | ${vm_name}.Qemu Set Node | ${dut_node}
 | Guest VM with Linux Bridge connected via vhost-user is setup
 | | [Documentation]
 | | ... | Start QEMU guest with two vhost-user interfaces and interconnecting
-| | ... | linux bridge. Qemu Guest is using 3 cores pinned to physical cores 5,
-| | ... | 6, 7 and 2048M.
+| | ... | linux bridge. Qemu Guest uses 2048M.
 | | ...
 | | ... | *Arguments:*
 | | ... | - dut_node - DUT node to start guest VM on. Type: dictionary
 | | ... | *Example:*
 | | ...
 | | ... | \| Guest VM with Linux Bridge connected via vhost-user is setup \
-| | ... | \| ${nodes['DUT1']} \| /tmp/sock1 \| /tmp/sock2 \| DUT1_VM \| ${5} \
+| | ... | \| ${nodes['DUT1']} \| /tmp/sock1 \| /tmp/sock2 \| DUT1_VM \| ${6} \
 | | ... | \| ${5} \|
 | | ...
-| | [Arguments] | ${dut_node} | ${sock1} | ${sock2} | ${vm_name} | ${skip}=${5}
+| | [Arguments] | ${dut_node} | ${sock1} | ${sock2} | ${vm_name} | ${skip}=${6}
 | | ... | ${count}=${5}
 | | ...
 | | Import Library | resources.libraries.python.QemuUtils
 | | ... | WITH NAME | ${vm_name}
 | | ${dut_numa}= | Get interfaces numa node | ${dut_node}
 | | ... | ${dut1_if1} | ${dut1_if2}
-| | ${cpus}= | Cpu list per node | ${dut_node} | ${dut_numa}
-| | ${end_idx}= | Evaluate | ${skip} + ${count}
-| | ${qemu_cpus}= | Get Slice From List | ${cpus} | ${skip} | ${end_idx}
+| | ${qemu_cpus}= | Cpu slice of list per node | ${dut_node} | ${dut_numa}
+| | ... | skip_cnt=${skip} | cpu_cnt=${count} | smt_used=${False}
+| | Run keyword | ${vm_name}.Qemu Add Vhost User If | ${sock1}
+| | Run keyword | ${vm_name}.Qemu Add Vhost User If | ${sock2}
+| | Run keyword | ${vm_name}.Qemu Set Node | ${dut_node}
+| | Run keyword | ${vm_name}.Qemu Set Smp | ${count} | ${count} | 1 | 1
+| | Run keyword | ${vm_name}.Qemu Set Mem Size | 2048
+| | Run keyword | ${vm_name}.Qemu Set Disk Image | ${glob_vm_image}
+| | ${vm}= | Run keyword | ${vm_name}.Qemu Start
+| | Run keyword | ${vm_name}.Qemu Set Affinity | @{qemu_cpus}
+| | Run keyword | ${vm_name}.Qemu Set Scheduler Policy
+| | ${br}= | Set Variable | br0
+| | ${vhost1}= | Get Vhost User If Name By Sock | ${vm} | ${sock1}
+| | ${vhost2}= | Get Vhost User If Name By Sock | ${vm} | ${sock2}
+| | Linux Add Bridge | ${vm} | ${br} | ${vhost1} | ${vhost2}
+| | Set Interface State | ${vm} | ${vhost1} | up | if_type=name
+| | Set Interface State | ${vm} | ${vhost2} | up | if_type=name
+| | Set Interface State | ${vm} | ${br} | up | if_type=name
+| | Return From Keyword | ${vm}
+
+| Guest VM with Linux Bridge using SMT connected via vhost-user is setup
+| | [Documentation]
+| | ... | Start QEMU guest with two vhost-user interfaces and interconnecting
+| | ... | linux bridge. Qemu Guest uses 2048M.
+| | ...
+| | ... | *Arguments:*
+| | ... | - dut_node - DUT node to start guest VM on. Type: dictionary
+| | ... | - sock1 - Socket path for first Vhost-User interface. Type: string
+| | ... | - sock2 - Socket path for second Vhost-User interface. Type: string
+| | ... | - vm_name - QemuUtil instance name. Type: string
+| | ... | - skip - number of cpus which will be skipped. Type: int
+| | ... | - count - number of cpus which will be allocated for qemu. Type: int
+| | ...
+| | ... | *Example:*
+| | ...
+| | ... | \| Guest VM with Linux Bridge using SMT connected via vhost-user is \
+| | ... | setup \| ${nodes['DUT1']} \| /tmp/sock1 \| /tmp/sock2 \| DUT1_VM \
+| | ... | \| ${6}\| ${5} \|
+| | ...
+| | [Arguments] | ${dut_node} | ${sock1} | ${sock2} | ${vm_name} | ${skip}=${6}
+| | ... | ${count}=${5}
+| | ...
+| | Import Library | resources.libraries.python.QemuUtils
+| | ... | WITH NAME | ${vm_name}
+| | ${dut_numa}= | Get interfaces numa node | ${dut_node}
+| | ... | ${dut1_if1} | ${dut1_if2}
+| | ${qemu_cpus}= | Cpu slice of list per node | ${dut_node} | ${dut_numa}
+| | ... | skip_cnt=${skip} | cpu_cnt=${count} | smt_used=${True}
 | | Run keyword | ${vm_name}.Qemu Add Vhost User If | ${sock1}
 | | Run keyword | ${vm_name}.Qemu Add Vhost User If | ${sock2}
 | | Run keyword | ${vm_name}.Qemu Set Node | ${dut_node}
 
 | Lisp IPv4 forwarding initialized in a 3-node circular topology
 | | [Documentation] | Custom setup of IPv4 addresses on all DUT nodes and TG \
-| | ...             | Don`t set route.
+| | ... | Don`t set route.
 | | ...
 | | ... | *Arguments:*
 | | ... | -${dut1_dut2_address} - Ip address from DUT1 to DUT2. Type: string
 | | ... | \| ${dut2_dut1_address} \| ${dut2_tg_address} \| ${duts_prefix} \|
 | | ...
 | | [Arguments] | ${dut1_dut2_address} | ${dut1_tg_address}
-| | ...         | ${dut2_dut1_address} | ${dut2_tg_address}
-| | ...         | ${duts_prefix}
+| | ... | ${dut2_dut1_address} | ${dut2_tg_address} | ${duts_prefix}
+| | ...
 | | Set Interface State | ${dut1} | ${dut1_if1} | up
 | | Set Interface State | ${dut1} | ${dut1_if2} | up
 | | Set Interface State | ${dut2} | ${dut2_if1} | up
 
 | Lisp IPv6 forwarding initialized in a 3-node circular topology
 | | [Documentation] | Custom setup of IPv6 topology on all DUT nodes \
-| | ...             | Don`t set route.
+| | ... | Don`t set route.
 | | ...
 | | ... | *Arguments:*
 | | ... | -${dut1_dut2_address} - Ip address from DUT1 to DUT2. Type: string
 | | ... | \| ${dut2_dut1_address} \| ${dut2_tg_address} \| ${duts_prefix} \|
 | | ...
 | | [Arguments] | ${dut1_dut2_address} | ${dut1_tg_address}
-| | ...         | ${dut2_dut1_address} | ${dut2_tg_address}
-| | ...         | ${prefix}
+| | ... | ${dut2_dut1_address} | ${dut2_tg_address} | ${prefix}
+| | ...
 | | ${tg1_if1_mac}= | Get Interface MAC | ${tg} | ${tg_if1}
 | | ${tg1_if2_mac}= | Get Interface MAC | ${tg} | ${tg_if2}
 | | ${dut1_if2_mac}= | Get Interface MAC | ${dut1} | ${dut1_if2}
 | | ${dut2_if1_mac}= | Get Interface MAC | ${dut2} | ${dut2_if1}
 | | VPP Set If IPv6 Addr | ${dut1} | ${dut1_if1} | ${dut1_tg_address}
-| | ...                  | ${prefix}
+| | ... | ${prefix}
 | | VPP Set If IPv6 Addr | ${dut1} | ${dut1_if2} | ${dut1_dut2_address}
-| | ...                  | ${prefix}
+| | ... | ${prefix}
 | | VPP Set If IPv6 Addr | ${dut2} | ${dut2_if1} | ${dut2_dut1_address}
-| | ...                  | ${prefix}
+| | ... | ${prefix}
 | | VPP Set If IPv6 Addr | ${dut2} | ${dut2_if2} | ${dut2_tg_address}
-| | ...                  | ${prefix}
+| | ... | ${prefix}
 | | Vpp nodes ra suppress link layer | ${nodes}
-| | Add Ip Neighbor | ${dut1} | ${dut1_if1} | 2001:1::2
-| | ...             | ${tg1_if1_mac}
-| | Add Ip Neighbor | ${dut2} | ${dut2_if2} | 2001:2::2
-| | ...             | ${tg1_if2_mac}
+| | Add Ip Neighbor | ${dut1} | ${dut1_if1} | 2001:1::2 | ${tg1_if1_mac}
+| | Add Ip Neighbor | ${dut2} | ${dut2_if2} | 2001:2::2 | ${tg1_if2_mac}
 | | Add Ip Neighbor | ${dut1} | ${dut1_if2} | ${dut2_dut1_address}
-| | ...             | ${dut2_if1_mac}
+| | ... | ${dut2_if1_mac}
 | | Add Ip Neighbor | ${dut2} | ${dut2_if1} | ${dut1_dut2_address}
-| | ...             | ${dut1_if2_mac}
+| | ... | ${dut1_if2_mac}
 
 | Lisp IPv4 over IPv6 forwarding initialized in a 3-node circular topology
 | | [Documentation] | Custom setup of IPv4 over IPv6 topology on all DUT nodes \
-| | ...             | Don`t set route.
+| | ... | Don`t set route.
 | | ...
 | | ... | *Arguments:*
-| | ... | -${dut1_dut2_ip6_address} - IPv6 address from DUT1 to DUT2.
-| | ... |                             Type: string
-| | ... | -${dut1_tg_ip4_address} - IPv4 address from DUT1 to tg. Type: string
-| | ... | -${dut2_dut1_ip6_address} - IPv6 address from DUT2 to DUT1.
-| | ... |                             Type: string
-| | ... | -${dut1_tg_ip4_address} - IPv4 address from DUT1 to tg. Type: string
-| | ... | -${prefix4} - IPv4 prefix. Type: int
-| | ... | -${prefix6} - IPv6 prefix. Type: int
+| | ... | - ${dut1_dut2_ip6_address} - IPv6 address from DUT1 to DUT2.
+| | ... | Type: string
+| | ... | - ${dut1_tg_ip4_address} - IPv4 address from DUT1 to tg. Type: string
+| | ... | - ${dut2_dut1_ip6_address} - IPv6 address from DUT2 to DUT1.
+| | ... | Type: string
+| | ... | - ${dut1_tg_ip4_address} - IPv4 address from DUT1 to tg. Type: string
+| | ... | - ${prefix4} - IPv4 prefix. Type: int
+| | ... | - ${prefix6} - IPv6 prefix. Type: int
 | | ...
 | | ... | *Return:*
 | | ... | - No value returned
 | | ...
 | | ... | *Example:*
-| | ... | \| Lisp IPv4 over IPv6 forwarding initialized in a 3-node circular topology \
-| | ... | \| ${dut1_dut2_ip6_address} \| ${dut1_tg_ip4_address} \
+| | ... | \| Lisp IPv4 over IPv6 forwarding initialized in a 3-node circular \
+| | ... | topology \| ${dut1_dut2_ip6_address} \| ${dut1_tg_ip4_address} \
 | | ... | \| ${dut2_dut1_ip6_address} \| ${dut2_tg_ip4_address} \
 | | ... | \| ${prefix4} \| ${prefix6} \|
 | | ...
 | | [Arguments] | ${dut1_dut2_ip6_address} | ${dut1_tg_ip4_address}
-| | ...         | ${dut2_dut1_ip6_address} | ${dut2_tg_ip4_address}
-| | ...         | ${prefix4} | ${prefix6}
+| | ... | ${dut2_dut1_ip6_address} | ${dut2_tg_ip4_address}
+| | ... | ${prefix4} | ${prefix6}
+| | ...
 | | Set Interface State | ${dut1} | ${dut1_if1} | up
 | | Set Interface State | ${dut1} | ${dut1_if2} | up
 | | Set Interface State | ${dut2} | ${dut2_if1} | up
 | | ${dut2_if1_mac}= | Get Interface MAC | ${dut2} | ${dut2_if1}
 | | dut1_v4.set_ip | ${dut1_if1} | ${dut1_tg_ip4_address} | ${prefix4}
 | | VPP Set If IPv6 Addr | ${dut1} | ${dut1_if2} | ${dut1_dut2_ip6_address}
-| | ...                  | ${prefix6}
+| | ... | ${prefix6}
 | | VPP Set If IPv6 Addr | ${dut2} | ${dut2_if1} | ${dut2_dut1_ip6_address}
-| | ...                  | ${prefix6}
+| | ... | ${prefix6}
 | | dut2_v4.set_ip | ${dut2_if2} | ${dut2_tg_ip4_address} | ${prefix4}
 | | Vpp nodes ra suppress link layer | ${nodes}
 | | dut1_v4.set_arp | ${dut1_if1} | 10.10.10.2 | ${tg1_if1_mac}
 | | dut2_v4.set_arp | ${dut2_if2} | 20.20.20.2 | ${tg1_if2_mac}
 | | Add Ip Neighbor | ${dut1} | ${dut1_if2} | ${dut2_dut1_ip6_address}
-| | ...             | ${dut2_if1_mac}
+| | ... | ${dut2_if1_mac}
 | | Add Ip Neighbor | ${dut2} | ${dut2_if1} | ${dut1_dut2_ip6_address}
-| | ...             | ${dut1_if2_mac}
+| | ... | ${dut1_if2_mac}
 
 | Lisp IPv6 over IPv4 forwarding initialized in a 3-node circular topology
 | | [Documentation] | Custom setup of IPv4 over IPv6 topology on all DUT nodes \
-| | ...             | Don`t set route.
+| | ... | Don`t set route.
 | | ...
 | | ... | *Arguments:*
-| | ... | -${dut1_dut2_ip4_address} - IPv4 address from DUT1 to DUT2.
-| | ... |                             Type: string
-| | ... | -${dut1_tg_ip6_address} - IPv6 address from DUT1 to tg. Type: string
-| | ... | -${dut2_dut1_ip4_address} - IPv4 address from DUT2 to DUT1.
-| | ... |                             Type: string
-| | ... | -${dut1_tg_ip6_address} - IPv6 address from DUT1 to tg. Type: string
-| | ... | -${prefix4} - IPv4 prefix. Type: int
-| | ... | -${prefix6} - IPv6 prefix. Type: int
+| | ... | - ${dut1_dut2_ip4_address} - IPv4 address from DUT1 to DUT2.
+| | ... | Type: string
+| | ... | - ${dut1_tg_ip6_address} - IPv6 address from DUT1 to tg. Type: string
+| | ... | - ${dut2_dut1_ip4_address} - IPv4 address from DUT2 to DUT1.
+| | ... | Type: string
+| | ... | - ${dut1_tg_ip6_address} - IPv6 address from DUT1 to tg. Type: string
+| | ... | - ${prefix4} - IPv4 prefix. Type: int
+| | ... | - ${prefix6} - IPv6 prefix. Type: int
 | | ...
 | | ... | *Return:*
 | | ... | - No value returned
 | | ...
 | | ... | *Example:*
-| | ... | \| Lisp IPv6 over IPv4 forwarding initialized in a 3-node circular topology \
-| | ... | \| ${dut1_dut2_ip4_address} \| ${dut1_tg_ip6_address} \
+| | ... | \| Lisp IPv6 over IPv4 forwarding initialized in a 3-node circular \
+| | ... | topology \| ${dut1_dut2_ip4_address} \| ${dut1_tg_ip6_address} \
 | | ... | \| ${dut2_dut1_ip4_address} \| ${dut2_tg_ip6_address} \
 | | ... | \| ${prefix6} \| ${prefix4} \|
 | | ...
 | | [Arguments] | ${dut1_dut2_ip4_address} | ${dut1_tg_ip6_address}
-| | ...         | ${dut2_dut1_ip4_address} | ${dut2_tg_ip6_address}
-| | ...         | ${prefix6} | ${prefix4}
+| | ... | ${dut2_dut1_ip4_address} | ${dut2_tg_ip6_address}
+| | ... | ${prefix6} | ${prefix4}
+| | ...
 | | Set Interface State | ${dut1} | ${dut1_if1} | up
 | | Set Interface State | ${dut1} | ${dut1_if2} | up
 | | Set Interface State | ${dut2} | ${dut2_if1} | up
 | | ${dut1_if2_mac}= | Get Interface MAC | ${dut1} | ${dut1_if2}
 | | ${dut2_if1_mac}= | Get Interface MAC | ${dut2} | ${dut2_if1}
 | | VPP Set If IPv6 Addr | ${dut1} | ${dut1_if1} | ${dut1_tg_ip6_address}
-| | ...                  | ${prefix6}
+| | ... | ${prefix6}
 | | dut1_v4.set_ip | ${dut1_if2} | ${dut1_dut2_ip4_address} | ${prefix4}
 | | dut2_v4.set_ip | ${dut2_if1} | ${dut2_dut1_ip4_address} | ${prefix4}
 | | VPP Set If IPv6 Addr | ${dut2} | ${dut2_if2} | ${dut2_tg_ip6_address}
-| | ...                  | ${prefix6}
+| | ... | ${prefix6}
 | | Vpp nodes ra suppress link layer | ${nodes}
 | | Add Ip Neighbor | ${dut1} | ${dut1_if1} | 2001:1::2 | ${tg1_if1_mac}
 | | Add Ip Neighbor | ${dut2} | ${dut2_if2} | 2001:2::2 | ${tg1_if2_mac}
 | | ...
 | | ... | \| DPDK 2-node Performance Suite Setup with DUT's NIC model \
 | | ... | \| L2 \| Intel-X520-DA2 \|
+| | ...
 | | [Arguments] | ${topology_type} | ${nic_model}
+| | ...
 | | Setup performance global Variables
 | | 2-node circular Topology Variables Setup with DUT interface model
 | | ... | ${nic_model}
 | | Initialize traffic generator | ${tg} | ${tg_if1} | ${tg_if2}
-| | ...                          | ${dut1} | ${dut1_if1}
-| | ...                          | ${dut1} | ${dut1_if2}
-| | ...                          | ${topology_type}
+| | ... | ${dut1} | ${dut1_if1} | ${dut1} | ${dut1_if2} | ${topology_type}
 | | Initialize DPDK Environment | ${dut1} | ${dut1_if1} | ${dut1_if2}
 
 | DPDK 3-node Performance Suite Setup with DUT's NIC model
 | | ... | *Example:*
 | | ...
 | | ... | \| 3-node Performance Suite Setup \| L2 \| Intel-X520-DA2 \|
+| | ...
 | | [Arguments] | ${topology_type} | ${nic_model}
+| | ...
 | | Setup performance global Variables
 | | 3-node circular Topology Variables Setup with DUT interface model
 | | ... | ${nic_model}
 | | Initialize traffic generator | ${tg} | ${tg_if1} | ${tg_if2}
-| | ...                          | ${dut1} | ${dut1_if1}
-| | ...                          | ${dut2} | ${dut2_if2}
-| | ...                          | ${topology_type}
+| | ... | ${dut1} | ${dut1_if1} | ${dut2} | ${dut2_if2} | ${topology_type}
 | | Initialize DPDK Environment | ${dut1} | ${dut1_if1} | ${dut1_if2}
 | | Initialize DPDK Environment | ${dut2} | ${dut2_if1} | ${dut2_if2}
 
 | | ... | Variable Should Exist | ${DPDK_TEST}
 | | Return From Keyword If | "${ret}" == "PASS" | ${TRUE}
 | | Return From Keyword | ${FALSE}
-
index 78f4512..a29c1a0 100644 (file)
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
index 3ca2faf..9a17a8d 100644 (file)
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find NDR using binary search and pps | ${framesize} | ${binary_min}
 | | When L2 bridge domains with Vhost-User initialized in a 3-node circular topology
 | | ... | ${bd_id1} | ${bd_id2} | ${sock1} | ${sock2}
 | | ${vm1}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1 | ${5} | ${5}
+| | ... | ${dut1} | ${sock1} | ${sock2} | DUT1_VM1
 | | Set To Dictionary | ${dut1_vm_refs} | DUT1_VM1 | ${vm1}
 | | ${vm2}= | And Guest VM with dpdk-testpmd connected via vhost-user is setup
-| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1 | ${5} | ${5}
+| | ... | ${dut2} | ${sock1} | ${sock2} | DUT2_VM1
 | | Set To Dictionary | ${dut2_vm_refs} | DUT2_VM1 | ${vm2}
 | | And Setup scheduler policy for VPP on all DUTs
 | | Then Find PDR using binary search and pps | ${framesize} | ${binary_min}