c7a1317026b7624dfa9c63841e68db20b4da7d0d
[vpp.git] / src / plugins / nat / nat44-ei / nat44_ei_handoff.c
1 /*
2  * Copyright (c) 2020 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15
16 #include <vlib/vlib.h>
17 #include <vnet/vnet.h>
18 #include <vnet/handoff.h>
19 #include <vnet/fib/ip4_fib.h>
20 #include <vppinfra/error.h>
21
22 #include <nat/nat44-ei/nat44_ei.h>
23
24 typedef struct
25 {
26   u32 next_worker_index;
27   u32 trace_index;
28   u8 in2out;
29   u8 output;
30 } nat44_ei_handoff_trace_t;
31
32 #define foreach_nat44_ei_handoff_error                                        \
33   _ (CONGESTION_DROP, "congestion drop")                                      \
34   _ (SAME_WORKER, "same worker")                                              \
35   _ (DO_HANDOFF, "do handoff")
36
37 typedef enum
38 {
39 #define _(sym, str) NAT44_EI_HANDOFF_ERROR_##sym,
40   foreach_nat44_ei_handoff_error
41 #undef _
42     NAT44_EI_HANDOFF_N_ERROR,
43 } nat44_ei_handoff_error_t;
44
45 static char *nat44_ei_handoff_error_strings[] = {
46 #define _(sym, string) string,
47   foreach_nat44_ei_handoff_error
48 #undef _
49 };
50
51 static u8 *
52 format_nat44_ei_handoff_trace (u8 *s, va_list *args)
53 {
54   CLIB_UNUSED (vlib_main_t * vm) = va_arg (*args, vlib_main_t *);
55   CLIB_UNUSED (vlib_node_t * node) = va_arg (*args, vlib_node_t *);
56   nat44_ei_handoff_trace_t *t = va_arg (*args, nat44_ei_handoff_trace_t *);
57   char *tag, *output;
58
59   tag = t->in2out ? "IN2OUT" : "OUT2IN";
60   output = t->output ? "OUTPUT-FEATURE" : "";
61   s =
62     format (s, "NAT44_EI_%s_WORKER_HANDOFF %s: next-worker %d trace index %d",
63             tag, output, t->next_worker_index, t->trace_index);
64
65   return s;
66 }
67
68 static inline uword
69 nat44_ei_worker_handoff_fn_inline (vlib_main_t *vm, vlib_node_runtime_t *node,
70                                    vlib_frame_t *frame, u8 is_output,
71                                    u8 is_in2out)
72 {
73   u32 n_enq, n_left_from, *from, do_handoff = 0, same_worker = 0;
74
75   u16 thread_indices[VLIB_FRAME_SIZE], *ti = thread_indices;
76   vlib_buffer_t *bufs[VLIB_FRAME_SIZE], **b = bufs;
77   nat44_ei_main_t *nm = &nat44_ei_main;
78
79   u32 fq_index, thread_index = vm->thread_index;
80
81   from = vlib_frame_vector_args (frame);
82   n_left_from = frame->n_vectors;
83
84   vlib_get_buffers (vm, from, b, n_left_from);
85
86   // TODO: move to nm
87   // TODO: remove callbacks and use inlines that should be moved here
88   if (is_in2out)
89     {
90       fq_index = is_output ? nm->fq_in2out_output_index : nm->fq_in2out_index;
91     }
92   else
93     {
94       fq_index = nm->fq_out2in_index;
95     }
96
97   while (n_left_from >= 4)
98     {
99       u32 arc_next0, arc_next1, arc_next2, arc_next3;
100       u32 sw_if_index0, sw_if_index1, sw_if_index2, sw_if_index3;
101       u32 rx_fib_index0, rx_fib_index1, rx_fib_index2, rx_fib_index3;
102       u32 iph_offset0 = 0, iph_offset1 = 0, iph_offset2 = 0, iph_offset3 = 0;
103       ip4_header_t *ip0, *ip1, *ip2, *ip3;
104
105       if (PREDICT_TRUE (n_left_from >= 8))
106         {
107           vlib_prefetch_buffer_header (b[4], LOAD);
108           vlib_prefetch_buffer_header (b[5], LOAD);
109           vlib_prefetch_buffer_header (b[6], LOAD);
110           vlib_prefetch_buffer_header (b[7], LOAD);
111           clib_prefetch_load (&b[4]->data);
112           clib_prefetch_load (&b[5]->data);
113           clib_prefetch_load (&b[6]->data);
114           clib_prefetch_load (&b[7]->data);
115         }
116
117       if (is_output)
118         {
119           iph_offset0 = vnet_buffer (b[0])->ip.save_rewrite_length;
120           iph_offset1 = vnet_buffer (b[1])->ip.save_rewrite_length;
121           iph_offset2 = vnet_buffer (b[2])->ip.save_rewrite_length;
122           iph_offset3 = vnet_buffer (b[3])->ip.save_rewrite_length;
123         }
124
125       ip0 =
126         (ip4_header_t *) ((u8 *) vlib_buffer_get_current (b[0]) + iph_offset0);
127       ip1 =
128         (ip4_header_t *) ((u8 *) vlib_buffer_get_current (b[1]) + iph_offset1);
129       ip2 =
130         (ip4_header_t *) ((u8 *) vlib_buffer_get_current (b[2]) + iph_offset2);
131       ip3 =
132         (ip4_header_t *) ((u8 *) vlib_buffer_get_current (b[3]) + iph_offset3);
133
134       vnet_feature_next (&arc_next0, b[0]);
135       vnet_feature_next (&arc_next1, b[1]);
136       vnet_feature_next (&arc_next2, b[2]);
137       vnet_feature_next (&arc_next3, b[3]);
138
139       vnet_buffer2 (b[0])->nat.arc_next = arc_next0;
140       vnet_buffer2 (b[1])->nat.arc_next = arc_next1;
141       vnet_buffer2 (b[2])->nat.arc_next = arc_next2;
142       vnet_buffer2 (b[3])->nat.arc_next = arc_next3;
143
144       sw_if_index0 = vnet_buffer (b[0])->sw_if_index[VLIB_RX];
145       sw_if_index1 = vnet_buffer (b[1])->sw_if_index[VLIB_RX];
146       sw_if_index2 = vnet_buffer (b[2])->sw_if_index[VLIB_RX];
147       sw_if_index3 = vnet_buffer (b[3])->sw_if_index[VLIB_RX];
148
149       rx_fib_index0 = ip4_fib_table_get_index_for_sw_if_index (sw_if_index0);
150       rx_fib_index1 = ip4_fib_table_get_index_for_sw_if_index (sw_if_index1);
151       rx_fib_index2 = ip4_fib_table_get_index_for_sw_if_index (sw_if_index2);
152       rx_fib_index3 = ip4_fib_table_get_index_for_sw_if_index (sw_if_index3);
153
154       if (is_in2out)
155         {
156           ti[0] =
157             nat44_ei_get_in2out_worker_index (ip0, rx_fib_index0, is_output);
158           ti[1] =
159             nat44_ei_get_in2out_worker_index (ip1, rx_fib_index1, is_output);
160           ti[2] =
161             nat44_ei_get_in2out_worker_index (ip2, rx_fib_index2, is_output);
162           ti[3] =
163             nat44_ei_get_in2out_worker_index (ip3, rx_fib_index3, is_output);
164         }
165       else
166         {
167           ti[0] = nat44_ei_get_out2in_worker_index (b[0], ip0, rx_fib_index0,
168                                                     is_output);
169           ti[1] = nat44_ei_get_out2in_worker_index (b[1], ip1, rx_fib_index1,
170                                                     is_output);
171           ti[2] = nat44_ei_get_out2in_worker_index (b[2], ip2, rx_fib_index2,
172                                                     is_output);
173           ti[3] = nat44_ei_get_out2in_worker_index (b[3], ip3, rx_fib_index3,
174                                                     is_output);
175         }
176
177       if (ti[0] == thread_index)
178         same_worker++;
179       else
180         do_handoff++;
181
182       if (ti[1] == thread_index)
183         same_worker++;
184       else
185         do_handoff++;
186
187       if (ti[2] == thread_index)
188         same_worker++;
189       else
190         do_handoff++;
191
192       if (ti[3] == thread_index)
193         same_worker++;
194       else
195         do_handoff++;
196
197       b += 4;
198       ti += 4;
199       n_left_from -= 4;
200     }
201
202   while (n_left_from > 0)
203     {
204       u32 arc_next0;
205       u32 sw_if_index0;
206       u32 rx_fib_index0;
207       u32 iph_offset0 = 0;
208       ip4_header_t *ip0;
209
210       if (is_output)
211         iph_offset0 = vnet_buffer (b[0])->ip.save_rewrite_length;
212
213       ip0 =
214         (ip4_header_t *) ((u8 *) vlib_buffer_get_current (b[0]) + iph_offset0);
215
216       vnet_feature_next (&arc_next0, b[0]);
217       vnet_buffer2 (b[0])->nat.arc_next = arc_next0;
218
219       sw_if_index0 = vnet_buffer (b[0])->sw_if_index[VLIB_RX];
220       rx_fib_index0 = ip4_fib_table_get_index_for_sw_if_index (sw_if_index0);
221
222       if (is_in2out)
223         {
224           ti[0] =
225             nat44_ei_get_in2out_worker_index (ip0, rx_fib_index0, is_output);
226         }
227       else
228         {
229           ti[0] = nat44_ei_get_out2in_worker_index (b[0], ip0, rx_fib_index0,
230                                                     is_output);
231         }
232
233       if (ti[0] == thread_index)
234         same_worker++;
235       else
236         do_handoff++;
237
238       b += 1;
239       ti += 1;
240       n_left_from -= 1;
241     }
242
243   if (PREDICT_FALSE ((node->flags & VLIB_NODE_FLAG_TRACE)))
244     {
245       u32 i;
246       b = bufs;
247       ti = thread_indices;
248
249       for (i = 0; i < frame->n_vectors; i++)
250         {
251           if (b[0]->flags & VLIB_BUFFER_IS_TRACED)
252             {
253               nat44_ei_handoff_trace_t *t =
254                 vlib_add_trace (vm, node, b[0], sizeof (*t));
255               t->next_worker_index = ti[0];
256               t->trace_index = vlib_buffer_get_trace_index (b[0]);
257               t->in2out = is_in2out;
258               t->output = is_output;
259
260               b += 1;
261               ti += 1;
262             }
263           else
264             break;
265         }
266     }
267
268   n_enq = vlib_buffer_enqueue_to_thread (vm, node, fq_index, from,
269                                          thread_indices, frame->n_vectors, 1);
270
271   if (n_enq < frame->n_vectors)
272     {
273       vlib_node_increment_counter (vm, node->node_index,
274                                    NAT44_EI_HANDOFF_ERROR_CONGESTION_DROP,
275                                    frame->n_vectors - n_enq);
276     }
277
278   vlib_node_increment_counter (
279     vm, node->node_index, NAT44_EI_HANDOFF_ERROR_SAME_WORKER, same_worker);
280   vlib_node_increment_counter (vm, node->node_index,
281                                NAT44_EI_HANDOFF_ERROR_DO_HANDOFF, do_handoff);
282   return frame->n_vectors;
283 }
284
285 VLIB_NODE_FN (nat44_ei_in2out_worker_handoff_node)
286 (vlib_main_t *vm, vlib_node_runtime_t *node, vlib_frame_t *frame)
287 {
288   return nat44_ei_worker_handoff_fn_inline (vm, node, frame, 0, 1);
289 }
290
291 VLIB_NODE_FN (nat44_ei_in2out_output_worker_handoff_node)
292 (vlib_main_t *vm, vlib_node_runtime_t *node, vlib_frame_t *frame)
293 {
294   return nat44_ei_worker_handoff_fn_inline (vm, node, frame, 1, 1);
295 }
296
297 VLIB_NODE_FN (nat44_ei_out2in_worker_handoff_node)
298 (vlib_main_t *vm, vlib_node_runtime_t *node, vlib_frame_t *frame)
299 {
300   return nat44_ei_worker_handoff_fn_inline (vm, node, frame, 0, 0);
301 }
302
303 VLIB_REGISTER_NODE (nat44_ei_in2out_output_worker_handoff_node) = {
304   .name = "nat44-ei-in2out-output-worker-handoff",
305   .vector_size = sizeof (u32),
306   .format_trace = format_nat44_ei_handoff_trace,
307   .type = VLIB_NODE_TYPE_INTERNAL,
308   .n_errors = ARRAY_LEN (nat44_ei_handoff_error_strings),
309   .error_strings = nat44_ei_handoff_error_strings,
310 };
311
312 VLIB_REGISTER_NODE (nat44_ei_in2out_worker_handoff_node) = {
313   .name = "nat44-ei-in2out-worker-handoff",
314   .vector_size = sizeof (u32),
315   .format_trace = format_nat44_ei_handoff_trace,
316   .type = VLIB_NODE_TYPE_INTERNAL,
317   .n_errors = ARRAY_LEN (nat44_ei_handoff_error_strings),
318   .error_strings = nat44_ei_handoff_error_strings,
319 };
320
321 VLIB_REGISTER_NODE (nat44_ei_out2in_worker_handoff_node) = {
322   .name = "nat44-ei-out2in-worker-handoff",
323   .vector_size = sizeof (u32),
324   .format_trace = format_nat44_ei_handoff_trace,
325   .type = VLIB_NODE_TYPE_INTERNAL,
326   .n_errors = ARRAY_LEN (nat44_ei_handoff_error_strings),
327   .error_strings = nat44_ei_handoff_error_strings,
328 };
329
330 /*
331  * fd.io coding-style-patch-verification: ON
332  *
333  * Local Variables:
334  * eval: (c-set-style "gnu")
335  * End:
336  */