Enabled gid vpp in startup.conf to allow non-root vppctl access
[vpp.git] / src / vpp / conf / startup.conf
1
2 unix {
3   nodaemon
4   log /tmp/vpp.log
5   full-coredump
6   cli-listen /run/vpp/cli.sock
7   gid vpp
8 }
9
10 api-trace {
11   on
12 }
13
14 api-segment {
15   gid vpp
16 }
17
18 cpu {
19         ## In the VPP there is one main thread and optionally the user can create worker(s)
20         ## The main thread and worker thread(s) can be pinned to CPU core(s) manually or automatically
21
22         ## Manual pinning of thread(s) to CPU core(s)
23
24         ## Set logical CPU core where main thread runs
25         # main-core 1
26
27         ## Set logical CPU core(s) where worker threads are running
28         # corelist-workers 2-3,18-19
29
30         ## Automatic pinning of thread(s) to CPU core(s)
31
32         ## Sets number of CPU core(s) to be skipped (1 ... N-1)
33         ## Skipped CPU core(s) are not used for pinning main thread and working thread(s).
34         ## The main thread is automatically pinned to the first available CPU core and worker(s)
35         ## are pinned to next free CPU core(s) after core assigned to main thread
36         # skip-cores 4
37
38         ## Specify a number of workers to be created
39         ## Workers are pinned to N consecutive CPU cores while skipping "skip-cores" CPU core(s)
40         ## and main thread's CPU core
41         # workers 2
42
43         ## Set scheduling policy and priority of main and worker threads
44
45         ## Scheduling policy options are: other (SCHED_OTHER), batch (SCHED_BATCH)
46         ## idle (SCHED_IDLE), fifo (SCHED_FIFO), rr (SCHED_RR)
47         # scheduler-policy fifo
48
49         ## Scheduling priority is used only for "real-time policies (fifo and rr),
50         ## and has to be in the range of priorities supported for a particular policy
51         # scheduler-priority 50
52 }
53
54 # dpdk {
55         ## Change default settings for all intefaces
56         # dev default {
57                 ## Number of receive queues, enables RSS
58                 ## Default is 1
59                 # num-rx-queues 3
60
61                 ## Number of transmit queues, Default is equal
62                 ## to number of worker threads or 1 if no workers treads
63                 # num-tx-queues 3
64
65                 ## Number of descriptors in transmit and receive rings
66                 ## increasing or reducing number can impact performance
67                 ## Default is 1024 for both rx and tx
68                 # num-rx-desc 512
69                 # num-tx-desc 512
70
71                 ## VLAN strip offload mode for interface
72                 ## Default is off
73                 # vlan-strip-offload on
74         # }
75
76         ## Whitelist specific interface by specifying PCI address
77         # dev 0000:02:00.0
78
79         ## Whitelist specific interface by specifying PCI address and in
80         ## addition specify custom parameters for this interface
81         # dev 0000:02:00.1 {
82         #       num-rx-queues 2
83         # }
84
85         ## Specify bonded interface and its slaves via PCI addresses
86         ## 
87         ## Bonded interface in XOR load balance mode (mode 2) with L3 and L4 headers 
88         # vdev eth_bond0,mode=2,slave=0000:02:00.0,slave=0000:03:00.0,xmit_policy=l34
89         # vdev eth_bond1,mode=2,slave=0000:02:00.1,slave=0000:03:00.1,xmit_policy=l34
90         ##
91         ## Bonded interface in Active-Back up mode (mode 1)
92         # vdev eth_bond0,mode=1,slave=0000:02:00.0,slave=0000:03:00.0
93         # vdev eth_bond1,mode=1,slave=0000:02:00.1,slave=0000:03:00.1
94
95         ## Change UIO driver used by VPP, Options are: igb_uio, vfio-pci
96         ## and uio_pci_generic (default)
97         # uio-driver vfio-pci
98
99         ## Disable mutli-segment buffers, improves performance but
100         ## disables Jumbo MTU support
101         # no-multi-seg
102
103         ## Increase number of buffers allocated, needed only in scenarios with
104         ## large number of interfaces and worker threads. Value is per CPU socket.
105         ## Default is 16384
106         # num-mbufs 128000
107
108         ## Change hugepages allocation per-socket, needed only if there is need for
109         ## larger number of mbufs. Default is 256M on each detected CPU socket
110         # socket-mem 2048,2048
111 # }
112
113 # Adjusting the plugin path depending on where the VPP plugins are:
114 #plugins
115 #{
116 #       path /home/bms/vpp/build-root/install-vpp-native/vpp/lib64/vpp_plugins
117 #}
118
119 # Alternate syntax to choose plugin path
120 #plugin_path /home/bms/vpp/build-root/install-vpp-native/vpp/lib64/vpp_plugins