GBP V2
[vpp.git] / src / plugins / gbp / gbp_policy_dpo.c
1 /*
2  * Copyright (c) 2018 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 #include <plugins/gbp/gbp.h>
17 #include <plugins/gbp/gbp_policy_dpo.h>
18 #include <plugins/gbp/gbp_recirc.h>
19
20 #include <vnet/dpo/dvr_dpo.h>
21 #include <vnet/fib/ip4_fib.h>
22 #include <vnet/fib/ip6_fib.h>
23 #include <vnet/dpo/load_balance.h>
24
25 /**
26  * DPO pool
27  */
28 static gbp_policy_dpo_t *gbp_policy_dpo_pool;
29
30 /**
31  * DPO type registered for these GBP FWD
32  */
33 static dpo_type_t gbp_policy_dpo_type;
34
35 static inline gbp_policy_dpo_t *
36 gbp_policy_dpo_get_i (index_t index)
37 {
38   return (pool_elt_at_index (gbp_policy_dpo_pool, index));
39 }
40
41 gbp_policy_dpo_t *
42 gbp_policy_dpo_get (index_t index)
43 {
44   return (gbp_policy_dpo_get_i (index));
45 }
46
47 static gbp_policy_dpo_t *
48 gbp_policy_dpo_alloc (void)
49 {
50   gbp_policy_dpo_t *gpd;
51
52   pool_get (gbp_policy_dpo_pool, gpd);
53
54   return (gpd);
55 }
56
57 static inline gbp_policy_dpo_t *
58 gbp_policy_dpo_get_from_dpo (const dpo_id_t * dpo)
59 {
60   ASSERT (gbp_policy_dpo_type == dpo->dpoi_type);
61
62   return (gbp_policy_dpo_get_i (dpo->dpoi_index));
63 }
64
65 static inline index_t
66 gbp_policy_dpo_get_index (gbp_policy_dpo_t * gpd)
67 {
68   return (gpd - gbp_policy_dpo_pool);
69 }
70
71 static void
72 gbp_policy_dpo_lock (dpo_id_t * dpo)
73 {
74   gbp_policy_dpo_t *gpd;
75
76   gpd = gbp_policy_dpo_get_from_dpo (dpo);
77   gpd->gpd_locks++;
78 }
79
80 static void
81 gbp_policy_dpo_unlock (dpo_id_t * dpo)
82 {
83   gbp_policy_dpo_t *gpd;
84
85   gpd = gbp_policy_dpo_get_from_dpo (dpo);
86   gpd->gpd_locks--;
87
88   if (0 == gpd->gpd_locks)
89     {
90       dpo_reset (&gpd->gpd_dpo);
91       pool_put (gbp_policy_dpo_pool, gpd);
92     }
93 }
94
95 void
96 gbp_policy_dpo_add_or_lock (dpo_proto_t dproto,
97                             epg_id_t epg, u32 sw_if_index, dpo_id_t * dpo)
98 {
99   gbp_policy_dpo_t *gpd;
100   dpo_id_t parent = DPO_INVALID;
101
102   gpd = gbp_policy_dpo_alloc ();
103   memset (gpd, 0, sizeof (*gpd));
104
105   gpd->gpd_proto = dproto;
106   gpd->gpd_sw_if_index = sw_if_index;
107   gpd->gpd_epg = epg;
108
109   /*
110    * stack on the DVR DPO for the output interface
111    */
112   dvr_dpo_add_or_lock (sw_if_index, dproto, &parent);
113
114   dpo_stack (gbp_policy_dpo_type, dproto, &gpd->gpd_dpo, &parent);
115
116   dpo_set (dpo, gbp_policy_dpo_type, dproto, gbp_policy_dpo_get_index (gpd));
117 }
118
119 u8 *
120 format_gbp_policy_dpo (u8 * s, va_list * ap)
121 {
122   index_t index = va_arg (*ap, index_t);
123   u32 indent = va_arg (*ap, u32);
124   gbp_policy_dpo_t *gpd = gbp_policy_dpo_get_i (index);
125   vnet_main_t *vnm = vnet_get_main ();
126
127   s = format (s, "gbp-policy-dpo: %U, epg:%d out:%U",
128               format_dpo_proto, gpd->gpd_proto,
129               gpd->gpd_epg,
130               format_vnet_sw_if_index_name, vnm, gpd->gpd_sw_if_index);
131   s = format (s, "\n%U", format_white_space, indent + 2);
132   s = format (s, "%U", format_dpo_id, &gpd->gpd_dpo, indent + 4);
133
134   return (s);
135 }
136
137 const static dpo_vft_t gbp_policy_dpo_vft = {
138   .dv_lock = gbp_policy_dpo_lock,
139   .dv_unlock = gbp_policy_dpo_unlock,
140   .dv_format = format_gbp_policy_dpo,
141 };
142
143 /**
144  * @brief The per-protocol VLIB graph nodes that are assigned to a glean
145  *        object.
146  *
147  * this means that these graph nodes are ones from which a glean is the
148  * parent object in the DPO-graph.
149  */
150 const static char *const gbp_policy_dpo_ip4_nodes[] = {
151   "ip4-gbp-policy-dpo",
152   NULL,
153 };
154
155 const static char *const gbp_policy_dpo_ip6_nodes[] = {
156   "ip6-gbp-policy-dpo",
157   NULL,
158 };
159
160 const static char *const *const gbp_policy_dpo_nodes[DPO_PROTO_NUM] = {
161   [DPO_PROTO_IP4] = gbp_policy_dpo_ip4_nodes,
162   [DPO_PROTO_IP6] = gbp_policy_dpo_ip6_nodes,
163 };
164
165 dpo_type_t
166 gbp_policy_dpo_get_type (void)
167 {
168   return (gbp_policy_dpo_type);
169 }
170
171 static clib_error_t *
172 gbp_policy_dpo_module_init (vlib_main_t * vm)
173 {
174   gbp_policy_dpo_type = dpo_register_new_type (&gbp_policy_dpo_vft,
175                                                gbp_policy_dpo_nodes);
176
177   return (NULL);
178 }
179
180 VLIB_INIT_FUNCTION (gbp_policy_dpo_module_init);
181
182 typedef struct gbp_policy_dpo_trace_t_
183 {
184   u32 src_epg;
185   u32 dst_epg;
186   u32 acl_index;
187 } gbp_policy_dpo_trace_t;
188
189 typedef enum
190 {
191   GBP_POLICY_DROP,
192   GBP_POLICY_N_NEXT,
193 } gbp_policy_next_t;
194
195 always_inline uword
196 gbp_policy_dpo_inline (vlib_main_t * vm,
197                        vlib_node_runtime_t * node,
198                        vlib_frame_t * from_frame, fib_protocol_t fproto)
199 {
200   u32 n_left_from, next_index, *from, *to_next;
201
202   from = vlib_frame_vector_args (from_frame);
203   n_left_from = from_frame->n_vectors;
204
205   next_index = node->cached_next_index;
206
207   while (n_left_from > 0)
208     {
209       u32 n_left_to_next;
210
211       vlib_get_next_frame (vm, node, next_index, to_next, n_left_to_next);
212
213       while (n_left_from > 0 && n_left_to_next > 0)
214         {
215           const gbp_policy_dpo_t *gpd0;
216           u32 bi0, next0, acl_index0;
217           gbp_contract_key_t key0;
218           vlib_buffer_t *b0;
219
220           bi0 = from[0];
221           to_next[0] = bi0;
222           from += 1;
223           to_next += 1;
224           n_left_from -= 1;
225           n_left_to_next -= 1;
226           next0 = GBP_POLICY_DROP;
227           acl_index0 = ~0;
228
229           b0 = vlib_get_buffer (vm, bi0);
230           gpd0 =
231             gbp_policy_dpo_get_i (vnet_buffer (b0)->ip.adj_index[VLIB_TX]);
232           vnet_buffer (b0)->ip.adj_index[VLIB_TX] = gpd0->gpd_dpo.dpoi_index;
233
234           key0.gck_src = vnet_buffer2 (b0)->gbp.src_epg;
235           key0.gck_dst = gpd0->gpd_epg;
236
237           if (~0 != key0.gck_src)
238             {
239               if (PREDICT_FALSE (key0.gck_src == key0.gck_dst))
240                 {
241                   /*
242                    * intra-epg allowed
243                    */
244                   next0 = gpd0->gpd_dpo.dpoi_next_node;
245                 }
246               else
247                 {
248                   acl_index0 = gbp_acl_lookup (&key0);
249
250                   if (~0 != acl_index0)
251                     {
252                       /*
253                        * TODO tests against the ACL
254                        */
255                       /*
256                        * ACL tables are not available outside of ACL plugin
257                        * until then bypass the ACL to next node
258                        */
259                       next0 = gpd0->gpd_dpo.dpoi_next_node;
260                     }
261                 }
262             }
263           else
264             {
265               /*
266                * the src EPG is not set when the packet arrives on an EPG
267                * uplink interface and we do not need to apply policy
268                */
269               next0 = gpd0->gpd_dpo.dpoi_next_node;
270             }
271
272           if (PREDICT_FALSE (b0->flags & VLIB_BUFFER_IS_TRACED))
273             {
274               gbp_policy_dpo_trace_t *tr;
275
276               tr = vlib_add_trace (vm, node, b0, sizeof (*tr));
277               tr->src_epg = key0.gck_src;
278               tr->dst_epg = key0.gck_dst;
279               tr->acl_index = acl_index0;
280             }
281
282           vlib_validate_buffer_enqueue_x1 (vm, node, next_index, to_next,
283                                            n_left_to_next, bi0, next0);
284         }
285       vlib_put_next_frame (vm, node, next_index, n_left_to_next);
286     }
287   return from_frame->n_vectors;
288 }
289
290 static u8 *
291 format_gbp_policy_dpo_trace (u8 * s, va_list * args)
292 {
293   CLIB_UNUSED (vlib_main_t * vm) = va_arg (*args, vlib_main_t *);
294   CLIB_UNUSED (vlib_node_t * node) = va_arg (*args, vlib_node_t *);
295   gbp_policy_dpo_trace_t *t = va_arg (*args, gbp_policy_dpo_trace_t *);
296
297   s = format (s, " src-epg:%d dst-epg:%d acl-index:%d",
298               t->src_epg, t->dst_epg, t->acl_index);
299
300   return s;
301 }
302
303 static uword
304 ip4_gbp_policy_dpo (vlib_main_t * vm,
305                     vlib_node_runtime_t * node, vlib_frame_t * from_frame)
306 {
307   return (gbp_policy_dpo_inline (vm, node, from_frame, FIB_PROTOCOL_IP4));
308 }
309
310 static uword
311 ip6_gbp_policy_dpo (vlib_main_t * vm,
312                     vlib_node_runtime_t * node, vlib_frame_t * from_frame)
313 {
314   return (gbp_policy_dpo_inline (vm, node, from_frame, FIB_PROTOCOL_IP6));
315 }
316
317 /* *INDENT-OFF* */
318 VLIB_REGISTER_NODE (ip4_gbp_policy_dpo_node) = {
319     .function = ip4_gbp_policy_dpo,
320     .name = "ip4-gbp-policy-dpo",
321     .vector_size = sizeof (u32),
322     .format_trace = format_gbp_policy_dpo_trace,
323     .n_next_nodes = GBP_POLICY_N_NEXT,
324     .next_nodes =
325     {
326         [GBP_POLICY_DROP] = "ip4-drop",
327     }
328 };
329 VLIB_REGISTER_NODE (ip6_gbp_policy_dpo_node) = {
330     .function = ip6_gbp_policy_dpo,
331     .name = "ip6-gbp-policy-dpo",
332     .vector_size = sizeof (u32),
333     .format_trace = format_gbp_policy_dpo_trace,
334     .n_next_nodes = GBP_POLICY_N_NEXT,
335     .next_nodes =
336     {
337         [GBP_POLICY_DROP] = "ip6-drop",
338     }
339 };
340
341 VLIB_NODE_FUNCTION_MULTIARCH (ip4_gbp_policy_dpo_node, ip4_gbp_policy_dpo)
342 VLIB_NODE_FUNCTION_MULTIARCH (ip6_gbp_policy_dpo_node, ip6_gbp_policy_dpo)
343 /* *INDENT-ON* */
344
345  /**
346  * per-packet trace data
347  */
348 typedef struct gbp_classify_trace_t_
349 {
350   /* per-pkt trace data */
351   epg_id_t src_epg;
352 } gbp_classify_trace_t;
353
354 typedef enum gbp_lpm_classify_next_t_
355 {
356   GPB_LPM_CLASSIFY_DROP,
357 } gbp_lpm_classify_next_t;
358
359 /*
360  * Determine the SRC EPG from a LPM
361  */
362 always_inline uword
363 gbp_lpm_classify_inline (vlib_main_t * vm,
364                          vlib_node_runtime_t * node,
365                          vlib_frame_t * frame, fib_protocol_t fproto)
366 {
367   u32 n_left_from, *from, *to_next;
368   u32 next_index;
369
370   next_index = 0;
371   n_left_from = frame->n_vectors;
372   from = vlib_frame_vector_args (frame);
373
374   while (n_left_from > 0)
375     {
376       u32 n_left_to_next;
377
378       vlib_get_next_frame (vm, node, next_index, to_next, n_left_to_next);
379
380       while (n_left_from > 0 && n_left_to_next > 0)
381         {
382           u32 bi0, sw_if_index0, fib_index0, lbi0;
383           gbp_lpm_classify_next_t next0;
384           const gbp_policy_dpo_t *gpd0;
385           const gbp_recirc_t *gr0;
386           const dpo_id_t *dpo0;
387           load_balance_t *lb0;
388           ip4_header_t *ip4_0;
389           ip6_header_t *ip6_0;
390           vlib_buffer_t *b0;
391           epg_id_t src_epg0;
392
393           bi0 = from[0];
394           to_next[0] = bi0;
395           from += 1;
396           to_next += 1;
397           n_left_from -= 1;
398           n_left_to_next -= 1;
399           next0 = GPB_LPM_CLASSIFY_DROP;
400
401           b0 = vlib_get_buffer (vm, bi0);
402
403           sw_if_index0 = vnet_buffer (b0)->sw_if_index[VLIB_RX];
404           gr0 = gbp_recirc_get (sw_if_index0);
405           fib_index0 = gr0->gr_fib_index[fproto];
406
407           if (FIB_PROTOCOL_IP4 == fproto)
408             {
409               ip4_0 = vlib_buffer_get_current (b0);
410               lbi0 = ip4_fib_forwarding_lookup (fib_index0,
411                                                 &ip4_0->src_address);
412             }
413           else
414             {
415               ip6_0 = vlib_buffer_get_current (b0);
416               lbi0 = ip6_fib_table_fwding_lookup (&ip6_main, fib_index0,
417                                                   &ip6_0->src_address);
418             }
419
420           lb0 = load_balance_get (lbi0);
421           dpo0 = load_balance_get_bucket_i (lb0, 0);
422
423           if (gbp_policy_dpo_type == dpo0->dpoi_type)
424             {
425               gpd0 = gbp_policy_dpo_get_i (dpo0->dpoi_index);
426               src_epg0 = gpd0->gpd_epg;
427               vnet_feature_next (vnet_buffer (b0)->sw_if_index[VLIB_RX],
428                                  &next0, b0);
429             }
430           else
431             {
432               /* could not classify => drop */
433               src_epg0 = 0;
434             }
435
436           vnet_buffer2 (b0)->gbp.src_epg = src_epg0;
437
438           if (PREDICT_FALSE ((b0->flags & VLIB_BUFFER_IS_TRACED)))
439             {
440               gbp_classify_trace_t *t =
441                 vlib_add_trace (vm, node, b0, sizeof (*t));
442               t->src_epg = src_epg0;
443             }
444
445           vlib_validate_buffer_enqueue_x1 (vm, node, next_index,
446                                            to_next, n_left_to_next,
447                                            bi0, next0);
448         }
449
450       vlib_put_next_frame (vm, node, next_index, n_left_to_next);
451     }
452
453   return frame->n_vectors;
454 }
455
456 static uword
457 gbp_ip4_lpm_classify (vlib_main_t * vm,
458                       vlib_node_runtime_t * node, vlib_frame_t * frame)
459 {
460   return (gbp_lpm_classify_inline (vm, node, frame, FIB_PROTOCOL_IP4));
461 }
462
463 static uword
464 gbp_ip6_lpm_classify (vlib_main_t * vm,
465                       vlib_node_runtime_t * node, vlib_frame_t * frame)
466 {
467   return (gbp_lpm_classify_inline (vm, node, frame, FIB_PROTOCOL_IP6));
468 }
469
470  /* packet trace format function */
471 static u8 *
472 format_gbp_classify_trace (u8 * s, va_list * args)
473 {
474   CLIB_UNUSED (vlib_main_t * vm) = va_arg (*args, vlib_main_t *);
475   CLIB_UNUSED (vlib_node_t * node) = va_arg (*args, vlib_node_t *);
476   gbp_classify_trace_t *t = va_arg (*args, gbp_classify_trace_t *);
477
478   s = format (s, "src-epg:%d", t->src_epg);
479
480   return s;
481 }
482
483 /* *INDENT-OFF* */
484 VLIB_REGISTER_NODE (gbp_ip4_lpm_classify_node) = {
485   .function = gbp_ip4_lpm_classify,
486   .name = "ip4-gbp-lpm-classify",
487   .vector_size = sizeof (u32),
488   .format_trace = format_gbp_classify_trace,
489   .type = VLIB_NODE_TYPE_INTERNAL,
490
491   .n_errors = 0,
492   .n_next_nodes = 1,
493   .next_nodes = {
494     [GPB_LPM_CLASSIFY_DROP] = "ip4-drop"
495   },
496 };
497
498 VLIB_NODE_FUNCTION_MULTIARCH (gbp_ip4_lpm_classify_node, gbp_ip4_lpm_classify);
499
500 VLIB_REGISTER_NODE (gbp_ip6_lpm_classify_node) = {
501   .function = gbp_ip6_lpm_classify,
502   .name = "ip6-gpb-lpm-classify",
503   .vector_size = sizeof (u32),
504   .format_trace = format_gbp_classify_trace,
505   .type = VLIB_NODE_TYPE_INTERNAL,
506
507   .n_errors = 0,
508   .n_next_nodes = 1,
509   .next_nodes = {
510     [GPB_LPM_CLASSIFY_DROP] = "ip6-drop"
511   },
512 };
513
514 VLIB_NODE_FUNCTION_MULTIARCH (gbp_ip6_lpm_classify_node, gbp_ip6_lpm_classify);
515
516 VNET_FEATURE_INIT (gbp_ip4_lpm_classify_feat_node, static) =
517 {
518   .arc_name = "ip4-unicast",
519   .node_name = "ip4-gbp-lpm-classify",
520   .runs_before = VNET_FEATURES ("nat44-out2in"),
521 };
522 VNET_FEATURE_INIT (gbp_ip6_lpm_classify_feat_node, static) =
523 {
524   .arc_name = "ip6-unicast",
525   .node_name = "ip6-gbp-lpm-classify",
526   .runs_before = VNET_FEATURES ("nat66-out2in"),
527 };
528
529 /* *INDENT-ON* */
530
531 /*
532  * fd.io coding-style-patch-verification: ON
533  *
534  * Local Variables:
535  * eval: (c-set-style "gnu")
536  * End:
537  */