CSIT-646 Refactor VPPConfigGenerator script
[csit.git] / resources / libraries / robot / default.robot
index e3e9309..932fcae 100644 (file)
 | Library | resources.libraries.python.DUTSetup
 | Library | resources.libraries.python.SchedUtils
 | Library | resources.libraries.python.TGSetup
+| Library | resources.libraries.python.L2Util
 | Library | resources/libraries/python/VppConfigGenerator.py
 | Library | resources/libraries/python/VppCounters.py
 | Library | Collections
 
 *** Keywords ***
-| Setup all DUTs before test
+| Configure all DUTs before test
 | | [Documentation] | Setup all DUTs in topology before test execution.
 | | ...
 | | Setup All DUTs | ${nodes}
 
-| Setup all TGs before traffic script
+| Configure all TGs for traffic script
 | | [Documentation] | Prepare all TGs before traffic scripts execution.
 | | ...
 | | All TGs Set Interface Default Driver | ${nodes}
 
-| Show Vpp Version On All DUTs
+| Show VPP version on all DUTs
 | | [Documentation] | Show VPP version verbose on all DUTs.
 | | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
@@ -49,7 +50,7 @@
 | | :FOR | ${dut} | IN | @{duts}
 | | | Vpp Show Errors | ${nodes['${dut}']}
 
-| Show Vpp Trace Dump On All DUTs
+| Show VPP trace dump on all DUTs
 | | [Documentation] | Save API trace and dump output on all DUTs.
 | | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | | Vpp api trace save | ${nodes['${dut}']}
 | | | Vpp api trace dump | ${nodes['${dut}']}
 
-| Show Vpp Vhost On All DUTs
+| Show VPP vhost on all DUTs
 | | [Documentation] | Show Vhost User on all DUTs.
 | | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
 | | | Vpp Show Vhost | ${nodes['${dut}']}
 
+| Show Bridge Domain Data On All DUTs
+| | [Documentation] | Show Bridge Domain data on all DUTs.
+| | ...
+| | ${duts}= | Get Matches | ${nodes} | DUT*
+| | :FOR | ${dut} | IN | @{duts}
+| | | Vpp Get Bridge Domain Data | ${nodes['${dut}']}
+
 | Setup Scheduler Policy for Vpp On All DUTs
 | | [Documentation] | Set realtime scheduling policy (SCHED_RR) with priority 1
 | | ... | on all VPP worker threads on all DUTs.
 | | :FOR | ${dut} | IN | @{duts}
 | | | Set VPP Scheduling rr | ${nodes['${dut}']}
 
-| Add '${m}' worker threads and rxqueues '${n}' in 3-node single-link topo
+| Configure crypto device on all DUTs
+| | [Documentation] | Verify if Crypto QAT device virtual functions are
+| | ... | initialized on all DUTs. If parameter force_init is set to True, then
+| | ... | try to initialize.
+| | ...
+| | ... | *Arguments:*
+| | ... | - ${force_init} - Try to initialize. Type: boolean
+| | ...
+| | ... | *Example:*
+| | ...
+| | ... | \| Configure crypto device on all DUTs \| ${True} \|
+| | ...
+| | [Arguments] | ${force_init}=${False}
+| | ...
+| | ${duts}= | Get Matches | ${nodes} | DUT*
+| | :FOR | ${dut} | IN | @{duts}
+| | | Crypto Device Verify | ${nodes['${dut}']} | force_init=${force_init}
+
+| Configure kernel module on all DUTs
+| | [Documentation] | Verify if specific kernel module is loaded on all DUTs.
+| | ... | If parameter force_load is set to True, then try to initialize.
+| | ...
+| | ... | *Arguments:*
+| | ... | - ${module} - Module to verify. Type: string
+| | ... | - ${force_load} - Try to load module. Type: boolean
+| | ...
+| | ... | *Example:*
+| | ...
+| | ... | \| Configure kernel module on all DUTs \| ${True} \|
+| | ...
+| | [Arguments] | ${module} | ${force_load}=${False}
+| | ...
+| | ${duts}= | Get Matches | ${nodes} | DUT*
+| | :FOR | ${dut} | IN | @{duts}
+| | | Kernel Module Verify | ${nodes['${dut}']} | ${module}
+| | | ... | force_load=${force_load}
+
+| Create base startup configuration of VPP on all DUTs
+| | [Documentation] | Create base startup configuration of VPP to all DUTs.
+| | ...
+| | ${duts}= | Get Matches | ${nodes} | DUT*
+| | :FOR | ${dut} | IN | @{duts}
+| | | Import Library | resources.libraries.python.VppConfigGenerator
+| | | ... | WITH NAME | ${dut}
+| | | Run keyword | ${dut}.Set Node |  ${nodes['${dut}']}
+| | | Run keyword | ${dut}.Add Unix Log
+| | | Run keyword | ${dut}.Add Unix CLI Listen
+| | | Run keyword | ${dut}.Add Unix Nodaemon
+| | | Run keyword | ${dut}.Add DPDK Socketmem | "1024,1024"
+| | | Run keyword | ${dut}.Add Heapsize | "3G"
+| | | Run keyword | ${dut}.Add IP6 Hash Buckets | "2000000"
+| | | Run keyword | ${dut}.Add IP6 Heap Size | "3G"
+
+| Add '${m}' worker threads and '${n}' rxqueues in 3-node single-link circular topology
 | | [Documentation] | Setup M worker threads and N rxqueues in vpp startup\
 | | ... | configuration on all DUTs in 3-node single-link topology.
 | | ...
 | | ... | skip_cnt=${1} | cpu_cnt=${1}
 | | ${dut2_cpu_w}= | Cpu list per node str | ${dut2} | ${dut2_numa}
 | | ... | skip_cnt=${2} | cpu_cnt=${m_int}
-| | ${dut1_cpu}= | Catenate | main-core | ${dut1_cpu_main}
-| | ... | corelist-workers | ${dut1_cpu_w}
-| | ${dut2_cpu}= | Catenate | main-core | ${dut2_cpu_main}
-| | ... | corelist-workers | ${dut2_cpu_w}
-| | ${rxqueues}= | Catenate | num-rx-queues | ${n}
-| | Add CPU config | ${dut1} | ${dut1_cpu}
-| | Add CPU config | ${dut2} | ${dut2_cpu}
-| | Add rxqueues config | ${dut1} | ${rxqueues}
-| | Add rxqueues config | ${dut2} | ${rxqueues}
+| | Run keyword | DUT1.Add CPU Main Core | ${dut1_cpu_main}
+| | Run keyword | DUT2.Add CPU Main Core | ${dut2_cpu_main}
+| | Run keyword | DUT1.Add CPU Corelist Workers | ${dut1_cpu_w}
+| | Run keyword | DUT2.Add CPU Corelist Workers | ${dut2_cpu_w}
+| | Run keyword | DUT1.Add DPDK Dev Default RXQ | ${n}
+| | Run keyword | DUT2.Add DPDK Dev Default RXQ | ${n}
 
-| Add '${m}' worker threads and rxqueues '${n}' in 2-node single-link topo
+| Add '${m}' worker threads and '${n}' rxqueues in 2-node single-link circular topology
 | | [Documentation] | Setup M worker threads and N rxqueues in vpp startup\
 | | ... | configuration on all DUTs in 2-node single-link topology.
 | | ...
 | | ... | skip_cnt=${1} | cpu_cnt=${1}
 | | ${dut1_cpu_w}= | Cpu list per node str | ${dut1} | ${dut1_numa}
 | | ... | skip_cnt=${2} | cpu_cnt=${m_int}
-| | ${dut1_cpu}= | Catenate | main-core | ${dut1_cpu_main}
-| | ... | corelist-workers | ${dut1_cpu_w}
-| | ${rxqueues}= | Catenate | num-rx-queues | ${n}
-| | Add CPU config | ${dut1} | ${dut1_cpu}
-| | Add rxqueues config | ${dut1} | ${rxqueues}
+| | Run keyword | DUT1.Add CPU Main Core | ${dut1_cpu_main}
+| | Run keyword | DUT1.Add CPU Corelist Workers | ${dut1_cpu_w}
+| | Run keyword | DUT1.Add DPDK Dev Default RXQ | ${n}
 
-| Add '${m}' worker threads using SMT and rxqueues '${n}' in 3-node single-link topo
+| Add '${m}' worker threads using SMT and '${n}' rxqueues in 3-node single-link circular topology
 | | [Documentation] | Setup M worker threads using SMT and N rxqueues in vpp\
 | | ... | startup configuration on all DUTs in 3-node single-link topology.
 | | ...
 | | ... | skip_cnt=${1} | cpu_cnt=${1} | smt_used=${True}
 | | ${dut2_cpu_w}= | Cpu list per node str | ${dut2} | ${dut2_numa}
 | | ... | skip_cnt=${2} | cpu_cnt=${m_int} | smt_used=${True}
-| | ${dut1_cpu}= | Catenate | main-core | ${dut1_cpu_main}
-| | ... | corelist-workers | ${dut1_cpu_w}
-| | ${dut2_cpu}= | Catenate | main-core | ${dut2_cpu_main}
-| | ... | corelist-workers | ${dut2_cpu_w}
-| | ${rxqueues}= | Catenate | num-rx-queues | ${n}
-| | Add CPU config | ${dut1} | ${dut1_cpu}
-| | Add CPU config | ${dut2} | ${dut2_cpu}
-| | Add rxqueues config | ${dut1} | ${rxqueues}
-| | Add rxqueues config | ${dut2} | ${rxqueues}
+| | Run keyword | DUT1.Add CPU Main Core | ${dut1_cpu_main}
+| | Run keyword | DUT2.Add CPU Main Core | ${dut2_cpu_main}
+| | Run keyword | DUT1.Add CPU Corelist Workers | ${dut1_cpu_w}
+| | Run keyword | DUT2.Add CPU Corelist Workers | ${dut2_cpu_w}
+| | Run keyword | DUT1.Add DPDK Dev Default RXQ | ${n}
+| | Run keyword | DUT2.Add DPDK Dev Default RXQ | ${n}
 
-| Add '${m}' worker threads using SMT and rxqueues '${n}' in 2-node single-link topo
+| Add '${m}' worker threads using SMT and '${n}' rxqueues in 2-node single-link circular topology
 | | [Documentation] | Setup M worker threads and N rxqueues in vpp startup\
 | | ... | configuration on all DUTs in 2-node single-link topology.
 | | ...
 | | ... | skip_cnt=${1} | cpu_cnt=${1} | smt_used=${True}
 | | ${dut1_cpu_w}= | Cpu list per node str | ${dut1} | ${dut1_numa}
 | | ... | skip_cnt=${2} | cpu_cnt=${m_int} | smt_used=${True}
-| | ${dut1_cpu}= | Catenate | main-core | ${dut1_cpu_main}
-| | ... | corelist-workers | ${dut1_cpu_w}
-| | ${rxqueues}= | Catenate | num-rx-queues | ${n}
-| | Add CPU config | ${dut1} | ${dut1_cpu}
-| | Add rxqueues config | ${dut1} | ${rxqueues}
+| | Run keyword | DUT1.Add CPU Main Core | ${dut1_cpu_main}
+| | Run keyword | DUT1.Add CPU Corelist Workers | ${dut1_cpu_w}
+| | Run keyword | DUT1.Add DPDK Dev Default RXQ | ${n}
 
-| Add worker threads and rxqueues to all DUTs
-| | [Documentation] | Setup worker threads and rxqueues in VPP startup\
-| | ... | configuration to all DUTs.
-| | ...
-| | ... | *Arguments:*
-| | ... | - ${cpu} - CPU configuration. Type: string
-| | ... | - ${rxqueues} - rxqueues configuration. Type: string
-| | ...
-| | ... | *Example:*
-| | ...
-| | ... | \| Add worker threads and rxqueues to all DUTs \| main-core 0 \
-| | ... | \| rxqueues 2 \|
-| | ...
-| | [Arguments] | ${cpu} | ${rxqueues}
+| Add no multi seg to all DUTs
+| | [Documentation] | Add No Multi Seg to VPP startup configuration to all DUTs.
 | | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
-| | | Add CPU config | ${nodes['${dut}']} | ${cpu}
-| | | Add rxqueues config | ${nodes['${dut}']} | ${rxqueues}
+| | | Run keyword | ${dut}.Add DPDK No Multi Seg
 
-| Add all PCI devices to all DUTs
-| | [Documentation] | Add all available PCI devices from topology file to VPP\
-| | ... | startup configuration to all DUTs.
+| Add SNAT to all DUTs
+| | [Documentation] | Add SNAT configuration to all DUTs.
 | | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
-| | | Add PCI all devices | ${nodes['${dut}']}
+| | | Run keyword | ${dut}.Add SNAT
 
-| Add PCI device to DUT
-| | [Documentation] | Add PCI device to VPP startup configuration
-| | ... | to DUT specified as argument.
+| Add cryptodev to all DUTs
+| | [Documentation] | Add Cryptodev to VPP startup configuration to all DUTs.
 | | ...
 | | ... | *Arguments:*
-| | ... | - ${node} - DUT node. Type: dictionary
-| | ... | - ${pci_address} - PCI address. Type: string
+| | ... | - ${count} - Number of QAT devices. Type: integer
 | | ...
 | | ... | *Example:*
 | | ...
-| | ... | \| Add PCI device to DUT \| ${nodes['DUT1']} \| 0000:00:00.0 \|
-| | ...
-| | [Arguments] | ${node} | ${pci_address}
-| | ...
-| | Add PCI device | ${node} | ${pci_address}
-
-| Add Heapsize Config to all DUTs
-| | [Documentation] | Add Add Heapsize Config to VPP startup configuration\
-| | ... | to all DUTs.
-| | ...
-| | ... | *Arguments:*
-| | ... | - ${heapsize} - Heapsize string (5G, 200M, ...)
-| | ...
-| | ... | *Example:*
-| | ...
-| | ... | \| Add Heapsize Config to all DUTs \| 200M \|
-| | ...
-| | [Arguments] | ${heapsize}
-| | ...
-| | ${duts}= | Get Matches | ${nodes} | DUT*
-| | :FOR | ${dut} | IN | @{duts}
-| | | Add Heapsize Config | ${nodes['${dut}']} | ${heapsize}
-
-| Add No Multi Seg to all DUTs
-| | [Documentation] | Add No Multi Seg to VPP startup configuration to all DUTs.
-| | ...
-| | ${duts}= | Get Matches | ${nodes} | DUT*
-| | :FOR | ${dut} | IN | @{duts}
-| | | Add No Multi Seg Config | ${nodes['${dut}']}
-
-| Add Enable Vhost User to all DUTs
-| | [Documentation] | Add Enable Vhost User to VPP startup configuration to all\
-| | ... | DUTs.
+| | ... | \| Add cryptodev to all DUTs \| ${4} \|
 | | ...
+| | [Arguments] | ${count}
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
-| | | Add Enable Vhost User Config | ${nodes['${dut}']}
-
-| Remove startup configuration of VPP from all DUTs
-| | [Documentation] | Remove VPP startup configuration from all DUTs.
-| | ...
-| | ${duts}= | Get Matches | ${nodes} | DUT*
-| | :FOR | ${dut} | IN | @{duts}
-| | | Remove All PCI Devices | ${nodes['${dut}']}
-| | | Remove All CPU Config | ${nodes['${dut}']}
-| | | Remove Socketmem Config | ${nodes['${dut}']}
-| | | Remove Heapsize Config | ${nodes['${dut}']}
-| | | Remove Rxqueues Config | ${nodes['${dut}']}
-| | | Remove No Multi Seg Config | ${nodes['${dut}']}
-| | | Remove Enable Vhost User Config | ${nodes['${dut}']}
-
-| Setup default startup configuration of VPP on all DUTs
-| | [Documentation] | Setup default startup configuration of VPP to all DUTs.
-| | ...
-| | Remove startup configuration of VPP from all DUTs
-| | Add '1' worker threads and rxqueues '1' in 3-node single-link topo
-| | Add all PCI devices to all DUTs
-| | Apply startup configuration on all VPP DUTs
-
-| Setup 2-node startup configuration of VPP on all DUTs
-| | [Documentation] | Setup default startup configuration of VPP to all DUTs.
-| | ...
-| | Remove startup configuration of VPP from all DUTs
-| | Add '1' worker threads and rxqueues '1' in 2-node single-link topo
-| | Add all PCI devices to all DUTs
-| | Apply startup configuration on all VPP DUTs
+| | | Run keyword | ${dut}.Add DPDK Cryptodev | ${count}
 
 | Apply startup configuration on all VPP DUTs
-| | [Documentation] | Apply startup configuration of VPP and restart VPP on all\
-| | ... | DUTs.
+| | [Documentation] | Write startup configuration and restart VPP on all DUTs.
 | | ...
 | | ${duts}= | Get Matches | ${nodes} | DUT*
 | | :FOR | ${dut} | IN | @{duts}
-| | | Apply Config | ${nodes['${dut}']}
+| | | Run keyword | ${dut}.Apply Config
 | | Update All Interface Data On All Nodes | ${nodes} | skip_tg=${TRUE}
 
 | Save VPP PIDs
 | | ... | where the key is the host and the value is the PID.
 | | ...
 | | ${setup_vpp_pids}= | Get VPP PIDs | ${nodes}
+| | ${keys}= | Get Dictionary Keys | ${setup_vpp_pids}
+| | :FOR | ${key} | IN | @{keys}
+| | | ${pid}= | Get From Dictionary | ${setup_vpp_pids} | ${key}
+| | | Run Keyword If | $pid is None | FAIL | No VPP PID found on node ${key}
+| | | Run Keyword If | ',' in '${pid}'
+| | | ... | FAIL | More then one VPP PID found on node ${key}: ${pid}
 | | Set Test Variable | ${setup_vpp_pids}
 
-| Check VPP PID in Teardown
+| Verify VPP PID in Teardown
 | | [Documentation] | Check if the VPP PIDs on all DUTs are the same at the end\
 | | ... | of test as they were at the begining. If they are not, only a message\
 | | ... | is printed on console and to log. The test will not fail.
 | | ...
 | | ${teardown_vpp_pids}= | Get VPP PIDs | ${nodes}
-| | ${err_msg}= | Catenate | \nThe VPP PIDs are not equal!\nTest Setup VPP PIDs:
+| | ${err_msg}= | Catenate | ${SUITE NAME} - ${TEST NAME}
+| | ... | \nThe VPP PIDs are not equal!\nTest Setup VPP PIDs:
 | | ... | ${setup_vpp_pids}\nTest Teardown VPP PIDs: ${teardown_vpp_pids}
 | | ${rc} | ${msg}= | Run keyword and ignore error
 | | ... | Dictionaries Should Be Equal
 | | Run Keyword And Return If | '${rc}'=='FAIL' | Log | ${err_msg}
 | | ... | console=yes | level=WARN
 
-| Func Test Setup
+| Set up functional test
 | | [Documentation] | Common test setup for functional tests.
 | | ...
-| | Setup all DUTs before test
+| | Configure all DUTs before test
 | | Save VPP PIDs
-| | Setup all TGs before traffic script
+| | Configure all TGs for traffic script
 | | Update All Interface Data On All Nodes | ${nodes}
 | | Reset VAT History On All DUTs | ${nodes}
 
-| Func Test Teardown
+| Tear down functional test
 | | [Documentation] | Common test teardown for functional tests.
 | | ...
 | | Show Packet Trace on All DUTs | ${nodes}
 | | Show VAT History On All DUTs | ${nodes}
 | | Vpp Show Errors On All DUTs | ${nodes}
-| | Check VPP PID in Teardown
+| | Verify VPP PID in Teardown