a81f7a6c45b7c5615164fdeff00d038be6997a71
[vpp.git] / src / plugins / flowprobe / node.c
1 /*
2  * node.c - ipfix probe graph node
3  *
4  * Copyright (c) 2017 Cisco and/or its affiliates.
5  * Licensed under the Apache License, Version 2.0 (the "License");
6  * you may not use this file except in compliance with the License.
7  * You may obtain a copy of the License at:
8  *
9  *     http://www.apache.org/licenses/LICENSE-2.0
10  *
11  * Unless required by applicable law or agreed to in writing, software
12  * distributed under the License is distributed on an "AS IS" BASIS,
13  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
14  * See the License for the specific language governing permissions and
15  * limitations under the License.
16  */
17 #include <vlib/vlib.h>
18 #include <vnet/vnet.h>
19 #include <vnet/pg/pg.h>
20 #include <vppinfra/crc32.h>
21 #include <vppinfra/error.h>
22 #include <flowprobe/flowprobe.h>
23 #include <vnet/ip/ip6_packet.h>
24 #include <vlibmemory/api.h>
25
26 static void flowprobe_export_entry (vlib_main_t * vm, flowprobe_entry_t * e);
27
28 /**
29  * @file node.c
30  * flow record generator graph node
31  */
32
33 typedef struct
34 {
35   /** interface handle */
36   u32 rx_sw_if_index;
37   u32 tx_sw_if_index;
38   /** packet timestamp */
39   u64 timestamp;
40   /** size of the buffer */
41   u16 buffer_size;
42
43   /** L2 information */
44   u8 src_mac[6];
45   u8 dst_mac[6];
46   /** Ethertype */
47   u16 ethertype;
48
49   /** L3 information */
50   ip46_address_t src_address;
51   ip46_address_t dst_address;
52   u8 protocol;
53   u8 tos;
54
55   /** L4 information */
56   u16 src_port;
57   u16 dst_port;
58
59   flowprobe_variant_t which;
60 } flowprobe_trace_t;
61
62 static char *flowprobe_variant_strings[] = {
63   [FLOW_VARIANT_IP4] = "IP4",
64   [FLOW_VARIANT_IP6] = "IP6",
65   [FLOW_VARIANT_L2] = "L2",
66   [FLOW_VARIANT_L2_IP4] = "L2-IP4",
67   [FLOW_VARIANT_L2_IP6] = "L2-IP6",
68 };
69
70 /* packet trace format function */
71 static u8 *
72 format_flowprobe_trace (u8 * s, va_list * args)
73 {
74   CLIB_UNUSED (vlib_main_t * vm) = va_arg (*args, vlib_main_t *);
75   CLIB_UNUSED (vlib_node_t * node) = va_arg (*args, vlib_node_t *);
76   flowprobe_trace_t *t = va_arg (*args, flowprobe_trace_t *);
77   u32 indent = format_get_indent (s);
78
79   s = format (s,
80               "FLOWPROBE[%s]: rx_sw_if_index %d, tx_sw_if_index %d, "
81               "timestamp %lld, size %d", flowprobe_variant_strings[t->which],
82               t->rx_sw_if_index, t->tx_sw_if_index,
83               t->timestamp, t->buffer_size);
84
85   if (t->which == FLOW_VARIANT_L2)
86     s = format (s, "\n%U -> %U", format_white_space, indent,
87                 format_ethernet_address, &t->src_mac,
88                 format_ethernet_address, &t->dst_mac);
89
90   if (t->protocol > 0
91       && (t->which == FLOW_VARIANT_L2_IP4 || t->which == FLOW_VARIANT_IP4
92           || t->which == FLOW_VARIANT_L2_IP6 || t->which == FLOW_VARIANT_IP6))
93     s =
94       format (s, "\n%U%U: %U -> %U", format_white_space, indent,
95               format_ip_protocol, t->protocol, format_ip46_address,
96               &t->src_address, IP46_TYPE_ANY, format_ip46_address,
97               &t->dst_address, IP46_TYPE_ANY);
98   return s;
99 }
100
101 vlib_node_registration_t flowprobe_ip4_node;
102 vlib_node_registration_t flowprobe_ip6_node;
103 vlib_node_registration_t flowprobe_l2_node;
104
105 /* No counters at the moment */
106 #define foreach_flowprobe_error                 \
107 _(COLLISION, "Hash table collisions")           \
108 _(BUFFER, "Buffer allocation error")            \
109 _(EXPORTED_PACKETS, "Exported packets")         \
110 _(INPATH, "Exported packets in path")
111
112 typedef enum
113 {
114 #define _(sym,str) FLOWPROBE_ERROR_##sym,
115   foreach_flowprobe_error
116 #undef _
117     FLOWPROBE_N_ERROR,
118 } flowprobe_error_t;
119
120 static char *flowprobe_error_strings[] = {
121 #define _(sym,string) string,
122   foreach_flowprobe_error
123 #undef _
124 };
125
126 typedef enum
127 {
128   FLOWPROBE_NEXT_DROP,
129   FLOWPROBE_NEXT_IP4_LOOKUP,
130   FLOWPROBE_N_NEXT,
131 } flowprobe_next_t;
132
133 #define FLOWPROBE_NEXT_NODES {                                  \
134     [FLOWPROBE_NEXT_DROP] = "error-drop",                       \
135     [FLOWPROBE_NEXT_IP4_LOOKUP] = "ip4-lookup",         \
136 }
137
138 static inline flowprobe_variant_t
139 flowprobe_get_variant (flowprobe_variant_t which,
140                        flowprobe_record_t flags, u16 ethertype)
141 {
142   if (which == FLOW_VARIANT_L2
143       && (flags & FLOW_RECORD_L3 || flags & FLOW_RECORD_L4))
144     return ethertype == ETHERNET_TYPE_IP6 ? FLOW_VARIANT_L2_IP6 : ethertype ==
145       ETHERNET_TYPE_IP4 ? FLOW_VARIANT_L2_IP4 : FLOW_VARIANT_L2;
146   return which;
147 }
148
149 /*
150  * NTP rfc868 : 2 208 988 800 corresponds to 00:00  1 Jan 1970 GMT
151  */
152 #define NTP_TIMESTAMP 2208988800LU
153
154 static inline u32
155 flowprobe_common_add (vlib_buffer_t * to_b, flowprobe_entry_t * e, u16 offset)
156 {
157   u16 start = offset;
158
159   /* Ingress interface */
160   u32 rx_if = clib_host_to_net_u32 (e->key.rx_sw_if_index);
161   clib_memcpy_fast (to_b->data + offset, &rx_if, sizeof (rx_if));
162   offset += sizeof (rx_if);
163
164   /* Egress interface */
165   u32 tx_if = clib_host_to_net_u32 (e->key.tx_sw_if_index);
166   clib_memcpy_fast (to_b->data + offset, &tx_if, sizeof (tx_if));
167   offset += sizeof (tx_if);
168
169   /* packet delta count */
170   u64 packetdelta = clib_host_to_net_u64 (e->packetcount);
171   clib_memcpy_fast (to_b->data + offset, &packetdelta, sizeof (u64));
172   offset += sizeof (u64);
173
174   /* flowStartNanoseconds */
175   u32 t = clib_host_to_net_u32 (e->flow_start.sec + NTP_TIMESTAMP);
176   clib_memcpy_fast (to_b->data + offset, &t, sizeof (u32));
177   offset += sizeof (u32);
178   t = clib_host_to_net_u32 (e->flow_start.nsec);
179   clib_memcpy_fast (to_b->data + offset, &t, sizeof (u32));
180   offset += sizeof (u32);
181
182   /* flowEndNanoseconds */
183   t = clib_host_to_net_u32 (e->flow_end.sec + NTP_TIMESTAMP);
184   clib_memcpy_fast (to_b->data + offset, &t, sizeof (u32));
185   offset += sizeof (u32);
186   t = clib_host_to_net_u32 (e->flow_end.nsec);
187   clib_memcpy_fast (to_b->data + offset, &t, sizeof (u32));
188   offset += sizeof (u32);
189
190   return offset - start;
191 }
192
193 static inline u32
194 flowprobe_l2_add (vlib_buffer_t * to_b, flowprobe_entry_t * e, u16 offset)
195 {
196   u16 start = offset;
197
198   /* src mac address */
199   clib_memcpy_fast (to_b->data + offset, &e->key.src_mac, 6);
200   offset += 6;
201
202   /* dst mac address */
203   clib_memcpy_fast (to_b->data + offset, &e->key.dst_mac, 6);
204   offset += 6;
205
206   /* ethertype */
207   clib_memcpy_fast (to_b->data + offset, &e->key.ethertype, 2);
208   offset += 2;
209
210   return offset - start;
211 }
212
213 static inline u32
214 flowprobe_l3_ip6_add (vlib_buffer_t * to_b, flowprobe_entry_t * e, u16 offset)
215 {
216   u16 start = offset;
217
218   /* ip6 src address */
219   clib_memcpy_fast (to_b->data + offset, &e->key.src_address,
220                     sizeof (ip6_address_t));
221   offset += sizeof (ip6_address_t);
222
223   /* ip6 dst address */
224   clib_memcpy_fast (to_b->data + offset, &e->key.dst_address,
225                     sizeof (ip6_address_t));
226   offset += sizeof (ip6_address_t);
227
228   /* Protocol */
229   to_b->data[offset++] = e->key.protocol;
230
231   /* octetDeltaCount */
232   u64 octetdelta = clib_host_to_net_u64 (e->octetcount);
233   clib_memcpy_fast (to_b->data + offset, &octetdelta, sizeof (u64));
234   offset += sizeof (u64);
235
236   return offset - start;
237 }
238
239 static inline u32
240 flowprobe_l3_ip4_add (vlib_buffer_t * to_b, flowprobe_entry_t * e, u16 offset)
241 {
242   u16 start = offset;
243
244   /* ip4 src address */
245   clib_memcpy_fast (to_b->data + offset, &e->key.src_address.ip4,
246                     sizeof (ip4_address_t));
247   offset += sizeof (ip4_address_t);
248
249   /* ip4 dst address */
250   clib_memcpy_fast (to_b->data + offset, &e->key.dst_address.ip4,
251                     sizeof (ip4_address_t));
252   offset += sizeof (ip4_address_t);
253
254   /* Protocol */
255   to_b->data[offset++] = e->key.protocol;
256
257   /* octetDeltaCount */
258   u64 octetdelta = clib_host_to_net_u64 (e->octetcount);
259   clib_memcpy_fast (to_b->data + offset, &octetdelta, sizeof (u64));
260   offset += sizeof (u64);
261
262   return offset - start;
263 }
264
265 static inline u32
266 flowprobe_l4_add (vlib_buffer_t * to_b, flowprobe_entry_t * e, u16 offset)
267 {
268   u16 start = offset;
269
270   /* src port */
271   clib_memcpy_fast (to_b->data + offset, &e->key.src_port, 2);
272   offset += 2;
273
274   /* dst port */
275   clib_memcpy_fast (to_b->data + offset, &e->key.dst_port, 2);
276   offset += 2;
277
278   /* tcp control bits */
279   u16 control_bits = htons (e->prot.tcp.flags);
280   clib_memcpy_fast (to_b->data + offset, &control_bits, 2);
281   offset += 2;
282
283   return offset - start;
284 }
285
286 static inline u32
287 flowprobe_hash (flowprobe_key_t * k)
288 {
289   flowprobe_main_t *fm = &flowprobe_main;
290   u32 h = 0;
291
292 #ifdef clib_crc32c_uses_intrinsics
293   h = clib_crc32c ((u8 *) k, sizeof (*k));
294 #else
295   int i;
296   u64 tmp = 0;
297   for (i = 0; i < sizeof (*k) / 8; i++)
298     tmp ^= ((u64 *) k)[i];
299
300   h = clib_xxhash (tmp);
301 #endif
302
303   return h >> (32 - fm->ht_log2len);
304 }
305
306 flowprobe_entry_t *
307 flowprobe_lookup (u32 my_cpu_number, flowprobe_key_t * k, u32 * poolindex,
308                   bool * collision)
309 {
310   flowprobe_main_t *fm = &flowprobe_main;
311   flowprobe_entry_t *e;
312   u32 h;
313
314   h = (fm->active_timer) ? flowprobe_hash (k) : 0;
315
316   /* Lookup in the flow state pool */
317   *poolindex = fm->hash_per_worker[my_cpu_number][h];
318   if (*poolindex != ~0)
319     {
320       e = pool_elt_at_index (fm->pool_per_worker[my_cpu_number], *poolindex);
321       if (e)
322         {
323           /* Verify key or report collision */
324           if (memcmp (k, &e->key, sizeof (flowprobe_key_t)))
325             *collision = true;
326           return e;
327         }
328     }
329
330   return 0;
331 }
332
333 flowprobe_entry_t *
334 flowprobe_create (u32 my_cpu_number, flowprobe_key_t * k, u32 * poolindex)
335 {
336   flowprobe_main_t *fm = &flowprobe_main;
337   u32 h;
338
339   flowprobe_entry_t *e;
340
341   /* Get my index */
342   h = (fm->active_timer) ? flowprobe_hash (k) : 0;
343
344   pool_get (fm->pool_per_worker[my_cpu_number], e);
345   *poolindex = e - fm->pool_per_worker[my_cpu_number];
346   fm->hash_per_worker[my_cpu_number][h] = *poolindex;
347
348   e->key = *k;
349
350   if (fm->passive_timer > 0)
351     {
352       e->passive_timer_handle = tw_timer_start_2t_1w_2048sl
353         (fm->timers_per_worker[my_cpu_number], *poolindex, 0,
354          fm->passive_timer);
355     }
356   return e;
357 }
358
359 static inline void
360 add_to_flow_record_state (vlib_main_t * vm, vlib_node_runtime_t * node,
361                           flowprobe_main_t * fm, vlib_buffer_t * b,
362                           timestamp_nsec_t timestamp, u16 length,
363                           flowprobe_variant_t which, flowprobe_trace_t * t)
364 {
365   if (fm->disabled)
366     return;
367
368   u32 my_cpu_number = vm->thread_index;
369   u16 octets = 0;
370
371   flowprobe_record_t flags = fm->context[which].flags;
372   bool collect_ip4 = false, collect_ip6 = false;
373   ASSERT (b);
374   ethernet_header_t *eth = vlib_buffer_get_current (b);
375   u16 ethertype = clib_net_to_host_u16 (eth->type);
376   /* *INDENT-OFF* */
377   flowprobe_key_t k = {};
378   /* *INDENT-ON* */
379   ip4_header_t *ip4 = 0;
380   ip6_header_t *ip6 = 0;
381   udp_header_t *udp = 0;
382   tcp_header_t *tcp = 0;
383   u8 tcp_flags = 0;
384
385   if (flags & FLOW_RECORD_L3 || flags & FLOW_RECORD_L4)
386     {
387       collect_ip4 = which == FLOW_VARIANT_L2_IP4 || which == FLOW_VARIANT_IP4;
388       collect_ip6 = which == FLOW_VARIANT_L2_IP6 || which == FLOW_VARIANT_IP6;
389     }
390
391   k.rx_sw_if_index = vnet_buffer (b)->sw_if_index[VLIB_RX];
392   k.tx_sw_if_index = vnet_buffer (b)->sw_if_index[VLIB_TX];
393
394   k.which = which;
395
396   if (flags & FLOW_RECORD_L2)
397     {
398       clib_memcpy_fast (k.src_mac, eth->src_address, 6);
399       clib_memcpy_fast (k.dst_mac, eth->dst_address, 6);
400       k.ethertype = ethertype;
401     }
402   if (collect_ip6 && ethertype == ETHERNET_TYPE_IP6)
403     {
404       ip6 = (ip6_header_t *) (eth + 1);
405       if (flags & FLOW_RECORD_L3)
406         {
407           k.src_address.as_u64[0] = ip6->src_address.as_u64[0];
408           k.src_address.as_u64[1] = ip6->src_address.as_u64[1];
409           k.dst_address.as_u64[0] = ip6->dst_address.as_u64[0];
410           k.dst_address.as_u64[1] = ip6->dst_address.as_u64[1];
411         }
412       k.protocol = ip6->protocol;
413       if (k.protocol == IP_PROTOCOL_UDP)
414         udp = (udp_header_t *) (ip6 + 1);
415       else if (k.protocol == IP_PROTOCOL_TCP)
416         tcp = (tcp_header_t *) (ip6 + 1);
417
418       octets = clib_net_to_host_u16 (ip6->payload_length)
419         + sizeof (ip6_header_t);
420     }
421   if (collect_ip4 && ethertype == ETHERNET_TYPE_IP4)
422     {
423       ip4 = (ip4_header_t *) (eth + 1);
424       if (flags & FLOW_RECORD_L3)
425         {
426           k.src_address.ip4.as_u32 = ip4->src_address.as_u32;
427           k.dst_address.ip4.as_u32 = ip4->dst_address.as_u32;
428         }
429       k.protocol = ip4->protocol;
430       if ((flags & FLOW_RECORD_L4) && k.protocol == IP_PROTOCOL_UDP)
431         udp = (udp_header_t *) (ip4 + 1);
432       else if ((flags & FLOW_RECORD_L4) && k.protocol == IP_PROTOCOL_TCP)
433         tcp = (tcp_header_t *) (ip4 + 1);
434
435       octets = clib_net_to_host_u16 (ip4->length);
436     }
437
438   if (udp)
439     {
440       k.src_port = udp->src_port;
441       k.dst_port = udp->dst_port;
442     }
443   else if (tcp)
444     {
445       k.src_port = tcp->src_port;
446       k.dst_port = tcp->dst_port;
447       tcp_flags = tcp->flags;
448     }
449
450   if (t)
451     {
452       t->rx_sw_if_index = k.rx_sw_if_index;
453       t->tx_sw_if_index = k.tx_sw_if_index;
454       clib_memcpy_fast (t->src_mac, k.src_mac, 6);
455       clib_memcpy_fast (t->dst_mac, k.dst_mac, 6);
456       t->ethertype = k.ethertype;
457       t->src_address.ip4.as_u32 = k.src_address.ip4.as_u32;
458       t->dst_address.ip4.as_u32 = k.dst_address.ip4.as_u32;
459       t->protocol = k.protocol;
460       t->src_port = k.src_port;
461       t->dst_port = k.dst_port;
462       t->which = k.which;
463     }
464
465   flowprobe_entry_t *e = 0;
466   f64 now = vlib_time_now (vm);
467   if (fm->active_timer > 0)
468     {
469       u32 poolindex = ~0;
470       bool collision = false;
471
472       e = flowprobe_lookup (my_cpu_number, &k, &poolindex, &collision);
473       if (collision)
474         {
475           /* Flush data and clean up entry for reuse. */
476           if (e->packetcount)
477             flowprobe_export_entry (vm, e);
478           e->key = k;
479           e->flow_start = timestamp;
480           vlib_node_increment_counter (vm, node->node_index,
481                                        FLOWPROBE_ERROR_COLLISION, 1);
482         }
483       if (!e)                   /* Create new entry */
484         {
485           e = flowprobe_create (my_cpu_number, &k, &poolindex);
486           e->last_exported = now;
487           e->flow_start = timestamp;
488         }
489     }
490   else
491     {
492       e = &fm->stateless_entry[my_cpu_number];
493       e->key = k;
494     }
495
496   if (e)
497     {
498       /* Updating entry */
499       e->packetcount++;
500       e->octetcount += octets;
501       e->last_updated = now;
502       e->flow_end = timestamp;
503       e->prot.tcp.flags |= tcp_flags;
504       if (fm->active_timer == 0
505           || (now > e->last_exported + fm->active_timer))
506         flowprobe_export_entry (vm, e);
507     }
508 }
509
510 static u16
511 flowprobe_get_headersize (void)
512 {
513   return sizeof (ip4_header_t) + sizeof (udp_header_t) +
514     sizeof (ipfix_message_header_t) + sizeof (ipfix_set_header_t);
515 }
516
517 static void
518 flowprobe_export_send (vlib_main_t * vm, vlib_buffer_t * b0,
519                        flowprobe_variant_t which)
520 {
521   flowprobe_main_t *fm = &flowprobe_main;
522   flow_report_main_t *frm = &flow_report_main;
523   vlib_frame_t *f;
524   ip4_ipfix_template_packet_t *tp;
525   ipfix_set_header_t *s;
526   ipfix_message_header_t *h;
527   ip4_header_t *ip;
528   udp_header_t *udp;
529   flowprobe_record_t flags = fm->context[which].flags;
530   u32 my_cpu_number = vm->thread_index;
531
532   /* Fill in header */
533   flow_report_stream_t *stream;
534
535   /* Nothing to send */
536   if (fm->context[which].next_record_offset_per_worker[my_cpu_number] <=
537       flowprobe_get_headersize ())
538     return;
539
540   u32 i, index = vec_len (frm->streams);
541   for (i = 0; i < index; i++)
542     if (frm->streams[i].domain_id == 1)
543       {
544         index = i;
545         break;
546       }
547   if (i == vec_len (frm->streams))
548     {
549       vec_validate (frm->streams, index);
550       frm->streams[index].domain_id = 1;
551     }
552   stream = &frm->streams[index];
553
554   tp = vlib_buffer_get_current (b0);
555   ip = (ip4_header_t *) & tp->ip4;
556   udp = (udp_header_t *) (ip + 1);
557   h = (ipfix_message_header_t *) (udp + 1);
558   s = (ipfix_set_header_t *) (h + 1);
559
560   ip->ip_version_and_header_length = 0x45;
561   ip->ttl = 254;
562   ip->protocol = IP_PROTOCOL_UDP;
563   ip->flags_and_fragment_offset = 0;
564   ip->src_address.as_u32 = frm->src_address.as_u32;
565   ip->dst_address.as_u32 = frm->ipfix_collector.as_u32;
566   udp->src_port = clib_host_to_net_u16 (UDP_DST_PORT_ipfix);
567   udp->dst_port = clib_host_to_net_u16 (UDP_DST_PORT_ipfix);
568   udp->checksum = 0;
569
570   /* FIXUP: message header export_time */
571   h->export_time = (u32)
572     (((f64) frm->unix_time_0) +
573      (vlib_time_now (frm->vlib_main) - frm->vlib_time_0));
574   h->export_time = clib_host_to_net_u32 (h->export_time);
575   h->domain_id = clib_host_to_net_u32 (stream->domain_id);
576
577   /* FIXUP: message header sequence_number */
578   h->sequence_number = stream->sequence_number++;
579   h->sequence_number = clib_host_to_net_u32 (h->sequence_number);
580
581   s->set_id_length = ipfix_set_id_length (fm->template_reports[flags],
582                                           b0->current_length -
583                                           (sizeof (*ip) + sizeof (*udp) +
584                                            sizeof (*h)));
585   h->version_length = version_length (b0->current_length -
586                                       (sizeof (*ip) + sizeof (*udp)));
587
588   ip->length = clib_host_to_net_u16 (b0->current_length);
589
590   ip->checksum = ip4_header_checksum (ip);
591   udp->length = clib_host_to_net_u16 (b0->current_length - sizeof (*ip));
592
593   if (frm->udp_checksum)
594     {
595       /* RFC 7011 section 10.3.2. */
596       udp->checksum = ip4_tcp_udp_compute_checksum (vm, b0, ip);
597       if (udp->checksum == 0)
598         udp->checksum = 0xffff;
599     }
600
601   ASSERT (ip4_header_checksum_is_valid (ip));
602
603   /* Find or allocate a frame */
604   f = fm->context[which].frames_per_worker[my_cpu_number];
605   if (PREDICT_FALSE (f == 0))
606     {
607       u32 *to_next;
608       f = vlib_get_frame_to_node (vm, ip4_lookup_node.index);
609       fm->context[which].frames_per_worker[my_cpu_number] = f;
610       u32 bi0 = vlib_get_buffer_index (vm, b0);
611
612       /* Enqueue the buffer */
613       to_next = vlib_frame_vector_args (f);
614       to_next[0] = bi0;
615       f->n_vectors = 1;
616     }
617
618   vlib_put_frame_to_node (vm, ip4_lookup_node.index, f);
619   vlib_node_increment_counter (vm, flowprobe_l2_node.index,
620                                FLOWPROBE_ERROR_EXPORTED_PACKETS, 1);
621
622   fm->context[which].frames_per_worker[my_cpu_number] = 0;
623   fm->context[which].buffers_per_worker[my_cpu_number] = 0;
624   fm->context[which].next_record_offset_per_worker[my_cpu_number] =
625     flowprobe_get_headersize ();
626 }
627
628 static vlib_buffer_t *
629 flowprobe_get_buffer (vlib_main_t * vm, flowprobe_variant_t which)
630 {
631   flowprobe_main_t *fm = &flowprobe_main;
632   flow_report_main_t *frm = &flow_report_main;
633   vlib_buffer_t *b0;
634   u32 bi0;
635   u32 my_cpu_number = vm->thread_index;
636
637   /* Find or allocate a buffer */
638   b0 = fm->context[which].buffers_per_worker[my_cpu_number];
639
640   /* Need to allocate a buffer? */
641   if (PREDICT_FALSE (b0 == 0))
642     {
643       if (vlib_buffer_alloc (vm, &bi0, 1) != 1)
644         {
645           vlib_node_increment_counter (vm, flowprobe_l2_node.index,
646                                        FLOWPROBE_ERROR_BUFFER, 1);
647           return 0;
648         }
649
650       /* Initialize the buffer */
651       b0 = fm->context[which].buffers_per_worker[my_cpu_number] =
652         vlib_get_buffer (vm, bi0);
653       VLIB_BUFFER_TRACE_TRAJECTORY_INIT (b0);
654
655       b0->current_data = 0;
656       b0->current_length = flowprobe_get_headersize ();
657       b0->flags |=
658         (VLIB_BUFFER_TOTAL_LENGTH_VALID | VNET_BUFFER_F_FLOW_REPORT);
659       vnet_buffer (b0)->sw_if_index[VLIB_RX] = 0;
660       vnet_buffer (b0)->sw_if_index[VLIB_TX] = frm->fib_index;
661       fm->context[which].next_record_offset_per_worker[my_cpu_number] =
662         b0->current_length;
663     }
664
665   return b0;
666 }
667
668 static void
669 flowprobe_export_entry (vlib_main_t * vm, flowprobe_entry_t * e)
670 {
671   u32 my_cpu_number = vm->thread_index;
672   flowprobe_main_t *fm = &flowprobe_main;
673   flow_report_main_t *frm = &flow_report_main;
674   vlib_buffer_t *b0;
675   bool collect_ip4 = false, collect_ip6 = false;
676   flowprobe_variant_t which = e->key.which;
677   flowprobe_record_t flags = fm->context[which].flags;
678   u16 offset =
679     fm->context[which].next_record_offset_per_worker[my_cpu_number];
680
681   if (offset < flowprobe_get_headersize ())
682     offset = flowprobe_get_headersize ();
683
684   b0 = flowprobe_get_buffer (vm, which);
685   /* No available buffer, what to do... */
686   if (b0 == 0)
687     return;
688
689   if (flags & FLOW_RECORD_L3)
690     {
691       collect_ip4 = which == FLOW_VARIANT_L2_IP4 || which == FLOW_VARIANT_IP4;
692       collect_ip6 = which == FLOW_VARIANT_L2_IP6 || which == FLOW_VARIANT_IP6;
693     }
694
695   offset += flowprobe_common_add (b0, e, offset);
696
697   if (flags & FLOW_RECORD_L2)
698     offset += flowprobe_l2_add (b0, e, offset);
699   if (collect_ip6)
700     offset += flowprobe_l3_ip6_add (b0, e, offset);
701   if (collect_ip4)
702     offset += flowprobe_l3_ip4_add (b0, e, offset);
703   if (flags & FLOW_RECORD_L4)
704     offset += flowprobe_l4_add (b0, e, offset);
705
706   /* Reset per flow-export counters */
707   e->packetcount = 0;
708   e->octetcount = 0;
709   e->last_exported = vlib_time_now (vm);
710
711   b0->current_length = offset;
712
713   fm->context[which].next_record_offset_per_worker[my_cpu_number] = offset;
714   /* Time to flush the buffer? */
715   if (offset + fm->template_size[flags] > frm->path_mtu)
716     flowprobe_export_send (vm, b0, which);
717 }
718
719 uword
720 flowprobe_node_fn (vlib_main_t * vm,
721                    vlib_node_runtime_t * node, vlib_frame_t * frame,
722                    flowprobe_variant_t which)
723 {
724   u32 n_left_from, *from, *to_next;
725   flowprobe_next_t next_index;
726   flowprobe_main_t *fm = &flowprobe_main;
727   timestamp_nsec_t timestamp;
728
729   unix_time_now_nsec_fraction (&timestamp.sec, &timestamp.nsec);
730
731   from = vlib_frame_vector_args (frame);
732   n_left_from = frame->n_vectors;
733   next_index = node->cached_next_index;
734
735   while (n_left_from > 0)
736     {
737       u32 n_left_to_next;
738
739       vlib_get_next_frame (vm, node, next_index, to_next, n_left_to_next);
740
741       while (n_left_from >= 4 && n_left_to_next >= 2)
742         {
743           u32 next0 = FLOWPROBE_NEXT_DROP;
744           u32 next1 = FLOWPROBE_NEXT_DROP;
745           u16 len0, len1;
746           u32 bi0, bi1;
747           vlib_buffer_t *b0, *b1;
748
749           /* Prefetch next iteration. */
750           {
751             vlib_buffer_t *p2, *p3;
752
753             p2 = vlib_get_buffer (vm, from[2]);
754             p3 = vlib_get_buffer (vm, from[3]);
755
756             vlib_prefetch_buffer_header (p2, LOAD);
757             vlib_prefetch_buffer_header (p3, LOAD);
758
759             CLIB_PREFETCH (p2->data, CLIB_CACHE_LINE_BYTES, STORE);
760             CLIB_PREFETCH (p3->data, CLIB_CACHE_LINE_BYTES, STORE);
761           }
762
763           /* speculatively enqueue b0 and b1 to the current next frame */
764           to_next[0] = bi0 = from[0];
765           to_next[1] = bi1 = from[1];
766           from += 2;
767           to_next += 2;
768           n_left_from -= 2;
769           n_left_to_next -= 2;
770
771           b0 = vlib_get_buffer (vm, bi0);
772           b1 = vlib_get_buffer (vm, bi1);
773
774           vnet_feature_next (&next0, b0);
775           vnet_feature_next (&next1, b1);
776
777           len0 = vlib_buffer_length_in_chain (vm, b0);
778           ethernet_header_t *eh0 = vlib_buffer_get_current (b0);
779           u16 ethertype0 = clib_net_to_host_u16 (eh0->type);
780
781           if (PREDICT_TRUE ((b0->flags & VNET_BUFFER_F_FLOW_REPORT) == 0))
782             add_to_flow_record_state (vm, node, fm, b0, timestamp, len0,
783                                       flowprobe_get_variant
784                                       (which, fm->context[which].flags,
785                                        ethertype0), 0);
786
787           len1 = vlib_buffer_length_in_chain (vm, b1);
788           ethernet_header_t *eh1 = vlib_buffer_get_current (b1);
789           u16 ethertype1 = clib_net_to_host_u16 (eh1->type);
790
791           if (PREDICT_TRUE ((b1->flags & VNET_BUFFER_F_FLOW_REPORT) == 0))
792             add_to_flow_record_state (vm, node, fm, b1, timestamp, len1,
793                                       flowprobe_get_variant
794                                       (which, fm->context[which].flags,
795                                        ethertype1), 0);
796
797           /* verify speculative enqueues, maybe switch current next frame */
798           vlib_validate_buffer_enqueue_x2 (vm, node, next_index,
799                                            to_next, n_left_to_next,
800                                            bi0, bi1, next0, next1);
801         }
802
803       while (n_left_from > 0 && n_left_to_next > 0)
804         {
805           u32 bi0;
806           vlib_buffer_t *b0;
807           u32 next0 = FLOWPROBE_NEXT_DROP;
808           u16 len0;
809
810           /* speculatively enqueue b0 to the current next frame */
811           bi0 = from[0];
812           to_next[0] = bi0;
813           from += 1;
814           to_next += 1;
815           n_left_from -= 1;
816           n_left_to_next -= 1;
817
818           b0 = vlib_get_buffer (vm, bi0);
819
820           vnet_feature_next (&next0, b0);
821
822           len0 = vlib_buffer_length_in_chain (vm, b0);
823           ethernet_header_t *eh0 = vlib_buffer_get_current (b0);
824           u16 ethertype0 = clib_net_to_host_u16 (eh0->type);
825
826           if (PREDICT_TRUE ((b0->flags & VNET_BUFFER_F_FLOW_REPORT) == 0))
827             {
828               flowprobe_trace_t *t = 0;
829               if (PREDICT_FALSE ((node->flags & VLIB_NODE_FLAG_TRACE)
830                                  && (b0->flags & VLIB_BUFFER_IS_TRACED)))
831                 t = vlib_add_trace (vm, node, b0, sizeof (*t));
832
833               add_to_flow_record_state (vm, node, fm, b0, timestamp, len0,
834                                         flowprobe_get_variant
835                                         (which, fm->context[which].flags,
836                                          ethertype0), t);
837             }
838
839           /* verify speculative enqueue, maybe switch current next frame */
840           vlib_validate_buffer_enqueue_x1 (vm, node, next_index,
841                                            to_next, n_left_to_next,
842                                            bi0, next0);
843         }
844
845       vlib_put_next_frame (vm, node, next_index, n_left_to_next);
846     }
847   return frame->n_vectors;
848 }
849
850 static uword
851 flowprobe_ip4_node_fn (vlib_main_t * vm,
852                        vlib_node_runtime_t * node, vlib_frame_t * frame)
853 {
854   return flowprobe_node_fn (vm, node, frame, FLOW_VARIANT_IP4);
855 }
856
857 static uword
858 flowprobe_ip6_node_fn (vlib_main_t * vm,
859                        vlib_node_runtime_t * node, vlib_frame_t * frame)
860 {
861   return flowprobe_node_fn (vm, node, frame, FLOW_VARIANT_IP6);
862 }
863
864 static uword
865 flowprobe_l2_node_fn (vlib_main_t * vm,
866                       vlib_node_runtime_t * node, vlib_frame_t * frame)
867 {
868   return flowprobe_node_fn (vm, node, frame, FLOW_VARIANT_L2);
869 }
870
871 static inline void
872 flush_record (flowprobe_variant_t which)
873 {
874   vlib_main_t *vm = vlib_get_main ();
875   vlib_buffer_t *b = flowprobe_get_buffer (vm, which);
876   if (b)
877     flowprobe_export_send (vm, b, which);
878 }
879
880 void
881 flowprobe_flush_callback_ip4 (void)
882 {
883   flush_record (FLOW_VARIANT_IP4);
884 }
885
886 void
887 flowprobe_flush_callback_ip6 (void)
888 {
889   flush_record (FLOW_VARIANT_IP6);
890 }
891
892 void
893 flowprobe_flush_callback_l2 (void)
894 {
895   flush_record (FLOW_VARIANT_L2);
896   flush_record (FLOW_VARIANT_L2_IP4);
897   flush_record (FLOW_VARIANT_L2_IP6);
898 }
899
900
901 static void
902 flowprobe_delete_by_index (u32 my_cpu_number, u32 poolindex)
903 {
904   flowprobe_main_t *fm = &flowprobe_main;
905   flowprobe_entry_t *e;
906   u32 h;
907
908   e = pool_elt_at_index (fm->pool_per_worker[my_cpu_number], poolindex);
909
910   /* Get my index */
911   h = flowprobe_hash (&e->key);
912
913   /* Reset hash */
914   fm->hash_per_worker[my_cpu_number][h] = ~0;
915
916   pool_put_index (fm->pool_per_worker[my_cpu_number], poolindex);
917 }
918
919
920 /* Per worker process processing the active/passive expired entries */
921 static uword
922 flowprobe_walker_process (vlib_main_t * vm,
923                           vlib_node_runtime_t * rt, vlib_frame_t * f)
924 {
925   flowprobe_main_t *fm = &flowprobe_main;
926   flow_report_main_t *frm = &flow_report_main;
927   flowprobe_entry_t *e;
928
929   /*
930    * $$$$ Remove this check from here and track FRM status and disable
931    * this process if required.
932    */
933   if (frm->ipfix_collector.as_u32 == 0 || frm->src_address.as_u32 == 0)
934     {
935       fm->disabled = true;
936       return 0;
937     }
938   fm->disabled = false;
939
940   u32 cpu_index = os_get_thread_index ();
941   u32 *to_be_removed = 0, *i;
942
943   /*
944    * Tick the timer when required and process the vector of expired
945    * timers
946    */
947   f64 start_time = vlib_time_now (vm);
948   u32 count = 0;
949
950   tw_timer_expire_timers_2t_1w_2048sl (fm->timers_per_worker[cpu_index],
951                                        start_time);
952
953   vec_foreach (i, fm->expired_passive_per_worker[cpu_index])
954   {
955     u32 exported = 0;
956     f64 now = vlib_time_now (vm);
957     if (now > start_time + 100e-6
958         || exported > FLOW_MAXIMUM_EXPORT_ENTRIES - 1)
959       break;
960
961     if (pool_is_free_index (fm->pool_per_worker[cpu_index], *i))
962       {
963         clib_warning ("Element is %d is freed already\n", *i);
964         continue;
965       }
966     else
967       e = pool_elt_at_index (fm->pool_per_worker[cpu_index], *i);
968
969     /* Check last update timestamp. If it is longer than passive time nuke
970      * entry. Otherwise restart timer with what's left
971      * Premature passive timer by more than 10%
972      */
973     if ((now - e->last_updated) < (u64) (fm->passive_timer * 0.9))
974       {
975         u64 delta = fm->passive_timer - (now - e->last_updated);
976         e->passive_timer_handle = tw_timer_start_2t_1w_2048sl
977           (fm->timers_per_worker[cpu_index], *i, 0, delta);
978       }
979     else                        /* Nuke entry */
980       {
981         vec_add1 (to_be_removed, *i);
982       }
983     /* If anything to report send it to the exporter */
984     if (e->packetcount && now > e->last_exported + fm->active_timer)
985       {
986         exported++;
987         flowprobe_export_entry (vm, e);
988       }
989     count++;
990   }
991   if (count)
992     vec_delete (fm->expired_passive_per_worker[cpu_index], count, 0);
993
994   vec_foreach (i, to_be_removed) flowprobe_delete_by_index (cpu_index, *i);
995   vec_free (to_be_removed);
996
997   return 0;
998 }
999
1000 /* *INDENT-OFF* */
1001 VLIB_REGISTER_NODE (flowprobe_ip4_node) = {
1002   .function = flowprobe_ip4_node_fn,
1003   .name = "flowprobe-ip4",
1004   .vector_size = sizeof (u32),
1005   .format_trace = format_flowprobe_trace,
1006   .type = VLIB_NODE_TYPE_INTERNAL,
1007   .n_errors = ARRAY_LEN(flowprobe_error_strings),
1008   .error_strings = flowprobe_error_strings,
1009   .n_next_nodes = FLOWPROBE_N_NEXT,
1010   .next_nodes = FLOWPROBE_NEXT_NODES,
1011 };
1012 VLIB_REGISTER_NODE (flowprobe_ip6_node) = {
1013   .function = flowprobe_ip6_node_fn,
1014   .name = "flowprobe-ip6",
1015   .vector_size = sizeof (u32),
1016   .format_trace = format_flowprobe_trace,
1017   .type = VLIB_NODE_TYPE_INTERNAL,
1018   .n_errors = ARRAY_LEN(flowprobe_error_strings),
1019   .error_strings = flowprobe_error_strings,
1020   .n_next_nodes = FLOWPROBE_N_NEXT,
1021   .next_nodes = FLOWPROBE_NEXT_NODES,
1022 };
1023 VLIB_REGISTER_NODE (flowprobe_l2_node) = {
1024   .function = flowprobe_l2_node_fn,
1025   .name = "flowprobe-l2",
1026   .vector_size = sizeof (u32),
1027   .format_trace = format_flowprobe_trace,
1028   .type = VLIB_NODE_TYPE_INTERNAL,
1029   .n_errors = ARRAY_LEN(flowprobe_error_strings),
1030   .error_strings = flowprobe_error_strings,
1031   .n_next_nodes = FLOWPROBE_N_NEXT,
1032   .next_nodes = FLOWPROBE_NEXT_NODES,
1033 };
1034 VLIB_REGISTER_NODE (flowprobe_walker_node) = {
1035   .function = flowprobe_walker_process,
1036   .name = "flowprobe-walker",
1037   .type = VLIB_NODE_TYPE_INPUT,
1038   .state = VLIB_NODE_STATE_INTERRUPT,
1039 };
1040 /* *INDENT-ON* */
1041
1042 /*
1043  * fd.io coding-style-patch-verification: ON
1044  *
1045  * Local Variables:
1046  * eval: (c-set-style "gnu")
1047  * End:
1048  */