3408e533f69bc0628674d620ee0eeb4c7b0a8cf2
[vpp.git] / src / plugins / nat / nat_inlines.h
1 /*
2  * Copyright (c) 2018 Cisco and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 /**
16  * @brief The NAT inline functions
17  */
18
19 #ifndef __included_nat_inlines_h__
20 #define __included_nat_inlines_h__
21
22 #include <vnet/fib/ip4_fib.h>
23 #include <nat/nat.h>
24 //#include <nat/nat44-ei/nat44_ei_ha.h>
25
26 always_inline u64
27 calc_nat_key (ip4_address_t addr, u16 port, u32 fib_index, u8 proto)
28 {
29   ASSERT (fib_index <= (1 << 14) - 1);
30   ASSERT (proto <= (1 << 3) - 1);
31   return (u64) addr.as_u32 << 32 | (u64) port << 16 | fib_index << 3 |
32          (proto & 0x7);
33 }
34
35 always_inline void
36 split_nat_key (u64 key, ip4_address_t * addr, u16 * port,
37                u32 * fib_index, nat_protocol_t * proto)
38 {
39   if (addr)
40     {
41       addr->as_u32 = key >> 32;
42     }
43   if (port)
44     {
45       *port = (key >> 16) & (u16) ~ 0;
46     }
47   if (fib_index)
48     {
49       *fib_index = key >> 3 & ((1 << 13) - 1);
50     }
51   if (proto)
52     {
53       *proto = key & 0x7;
54     }
55 }
56
57 always_inline void
58 init_nat_k (clib_bihash_kv_8_8_t * kv, ip4_address_t addr, u16 port,
59             u32 fib_index, nat_protocol_t proto)
60 {
61   kv->key = calc_nat_key (addr, port, fib_index, proto);
62   kv->value = ~0ULL;
63 }
64
65 always_inline void
66 init_nat_kv (clib_bihash_kv_8_8_t * kv, ip4_address_t addr, u16 port,
67              u32 fib_index, nat_protocol_t proto, u64 value)
68 {
69   init_nat_k (kv, addr, port, fib_index, proto);
70   kv->value = value;
71 }
72
73 always_inline void
74 init_nat_i2o_k (clib_bihash_kv_8_8_t * kv, snat_session_t * s)
75 {
76   return init_nat_k (kv, s->in2out.addr, s->in2out.port, s->in2out.fib_index,
77                      s->nat_proto);
78 }
79
80 always_inline void
81 init_nat_i2o_kv (clib_bihash_kv_8_8_t * kv, snat_session_t * s, u64 value)
82 {
83   init_nat_k (kv, s->in2out.addr, s->in2out.port, s->in2out.fib_index,
84               s->nat_proto);
85   kv->value = value;
86 }
87
88 always_inline void
89 init_nat_o2i_k (clib_bihash_kv_8_8_t * kv, snat_session_t * s)
90 {
91   return init_nat_k (kv, s->out2in.addr, s->out2in.port, s->out2in.fib_index,
92                      s->nat_proto);
93 }
94
95 always_inline void
96 init_nat_o2i_kv (clib_bihash_kv_8_8_t * kv, snat_session_t * s, u64 value)
97 {
98   init_nat_k (kv, s->out2in.addr, s->out2in.port, s->out2in.fib_index,
99               s->nat_proto);
100   kv->value = value;
101 }
102
103 static inline uword
104 nat_pre_node_fn_inline (vlib_main_t * vm,
105                         vlib_node_runtime_t * node,
106                         vlib_frame_t * frame, u32 def_next)
107 {
108   u32 n_left_from, *from;
109
110   from = vlib_frame_vector_args (frame);
111   n_left_from = frame->n_vectors;
112
113   vlib_buffer_t *bufs[VLIB_FRAME_SIZE], **b = bufs;
114   u16 nexts[VLIB_FRAME_SIZE], *next = nexts;
115   vlib_get_buffers (vm, from, b, n_left_from);
116
117   while (n_left_from >= 2)
118     {
119       u32 next0, next1;
120       u32 arc_next0, arc_next1;
121       vlib_buffer_t *b0, *b1;
122
123       b0 = *b;
124       b++;
125       b1 = *b;
126       b++;
127
128       /* Prefetch next iteration. */
129       if (PREDICT_TRUE (n_left_from >= 4))
130         {
131           vlib_buffer_t *p2, *p3;
132
133           p2 = *b;
134           p3 = *(b + 1);
135
136           vlib_prefetch_buffer_header (p2, LOAD);
137           vlib_prefetch_buffer_header (p3, LOAD);
138
139           CLIB_PREFETCH (p2->data, CLIB_CACHE_LINE_BYTES, LOAD);
140           CLIB_PREFETCH (p3->data, CLIB_CACHE_LINE_BYTES, LOAD);
141         }
142
143       next0 = def_next;
144       next1 = def_next;
145
146       vnet_feature_next (&arc_next0, b0);
147       vnet_feature_next (&arc_next1, b1);
148
149       vnet_buffer2 (b0)->nat.arc_next = arc_next0;
150       vnet_buffer2 (b1)->nat.arc_next = arc_next1;
151
152       if (PREDICT_FALSE ((node->flags & VLIB_NODE_FLAG_TRACE)))
153         {
154           if (b0->flags & VLIB_BUFFER_IS_TRACED)
155             {
156               nat_pre_trace_t *t = vlib_add_trace (vm, node, b0, sizeof (*t));
157               t->next_index = next0;
158               t->arc_next_index = arc_next0;
159             }
160           if (b1->flags & VLIB_BUFFER_IS_TRACED)
161             {
162               nat_pre_trace_t *t = vlib_add_trace (vm, node, b0, sizeof (*t));
163               t->next_index = next1;
164               t->arc_next_index = arc_next1;
165             }
166         }
167
168       n_left_from -= 2;
169       next[0] = next0;
170       next[1] = next1;
171       next += 2;
172     }
173
174   while (n_left_from > 0)
175     {
176       u32 next0;
177       u32 arc_next0;
178       vlib_buffer_t *b0;
179
180       b0 = *b;
181       b++;
182
183       next0 = def_next;
184       vnet_feature_next (&arc_next0, b0);
185       vnet_buffer2 (b0)->nat.arc_next = arc_next0;
186
187       if (PREDICT_FALSE ((node->flags & VLIB_NODE_FLAG_TRACE)
188                          && (b0->flags & VLIB_BUFFER_IS_TRACED)))
189         {
190           nat_pre_trace_t *t = vlib_add_trace (vm, node, b0, sizeof (*t));
191           t->next_index = next0;
192           t->arc_next_index = arc_next0;
193         }
194
195       n_left_from--;
196       next[0] = next0;
197       next++;
198     }
199   vlib_buffer_enqueue_to_next (vm, node, from, (u16 *) nexts,
200                                frame->n_vectors);
201
202   return frame->n_vectors;
203 }
204
205 always_inline u8
206 is_interface_addr (snat_main_t * sm, vlib_node_runtime_t * node,
207                    u32 sw_if_index0, u32 ip4_addr)
208 {
209   snat_runtime_t *rt = (snat_runtime_t *) node->runtime_data;
210   ip4_address_t *first_int_addr;
211
212   if (PREDICT_FALSE (rt->cached_sw_if_index != sw_if_index0))
213     {
214       first_int_addr =
215         ip4_interface_first_address (sm->ip4_main, sw_if_index0,
216                                      0 /* just want the address */ );
217       rt->cached_sw_if_index = sw_if_index0;
218       if (first_int_addr)
219         rt->cached_ip4_address = first_int_addr->as_u32;
220       else
221         rt->cached_ip4_address = 0;
222     }
223
224   if (PREDICT_FALSE (ip4_addr == rt->cached_ip4_address))
225     return 1;
226   else
227     return 0;
228 }
229
230 always_inline void
231 user_session_increment (snat_main_t * sm, snat_user_t * u, u8 is_static)
232 {
233   if (u->nsessions + u->nstaticsessions < sm->max_translations_per_user)
234     {
235       if (is_static)
236         u->nstaticsessions++;
237       else
238         u->nsessions++;
239     }
240 }
241
242 always_inline void
243 nat44_delete_user_with_no_session (snat_main_t * sm, snat_user_t * u,
244                                    u32 thread_index)
245 {
246   clib_bihash_kv_8_8_t kv;
247   snat_user_key_t u_key;
248   snat_main_per_thread_data_t *tsm = vec_elt_at_index (sm->per_thread_data,
249                                                        thread_index);
250
251   if (u->nstaticsessions == 0 && u->nsessions == 0)
252     {
253       u_key.addr.as_u32 = u->addr.as_u32;
254       u_key.fib_index = u->fib_index;
255       kv.key = u_key.as_u64;
256       pool_put_index (tsm->list_pool, u->sessions_per_user_list_head_index);
257       pool_put (tsm->users, u);
258       clib_bihash_add_del_8_8 (&tsm->user_hash, &kv, 0);
259       vlib_set_simple_counter (&sm->total_users, thread_index, 0,
260                                pool_elts (tsm->users));
261     }
262 }
263
264 always_inline void
265 nat44_delete_session (snat_main_t * sm, snat_session_t * ses,
266                       u32 thread_index)
267 {
268   snat_main_per_thread_data_t *tsm = vec_elt_at_index (sm->per_thread_data,
269                                                        thread_index);
270   clib_bihash_kv_8_8_t kv, value;
271   snat_user_t *u;
272   const snat_user_key_t u_key = {
273     .addr = ses->in2out.addr,
274     .fib_index = ses->in2out.fib_index
275   };
276   const u8 u_static = snat_is_session_static (ses);
277
278   clib_dlist_remove (tsm->list_pool, ses->per_user_index);
279   pool_put_index (tsm->list_pool, ses->per_user_index);
280   if (sm->endpoint_dependent)
281     {
282       clib_dlist_remove (tsm->lru_pool, ses->lru_index);
283       pool_put_index (tsm->lru_pool, ses->lru_index);
284     }
285   pool_put (tsm->sessions, ses);
286   vlib_set_simple_counter (&sm->total_sessions, thread_index, 0,
287                            pool_elts (tsm->sessions));
288
289   kv.key = u_key.as_u64;
290   if (!clib_bihash_search_8_8 (&tsm->user_hash, &kv, &value))
291     {
292       u = pool_elt_at_index (tsm->users, value.value);
293       if (u_static)
294         u->nstaticsessions--;
295       else
296         u->nsessions--;
297
298       nat44_delete_user_with_no_session (sm, u, thread_index);
299     }
300 }
301
302 always_inline void
303 nat44_set_tcp_session_state_i2o (snat_main_t * sm, f64 now,
304                                  snat_session_t * ses, vlib_buffer_t * b,
305                                  u32 thread_index)
306 {
307   snat_main_per_thread_data_t *tsm = &sm->per_thread_data[thread_index];
308   u8 tcp_flags = vnet_buffer (b)->ip.reass.icmp_type_or_tcp_flags;
309   u32 tcp_ack_number = vnet_buffer (b)->ip.reass.tcp_ack_number;
310   u32 tcp_seq_number = vnet_buffer (b)->ip.reass.tcp_seq_number;
311   if ((ses->state == 0) && (tcp_flags & TCP_FLAG_RST))
312     ses->state = NAT44_SES_RST;
313   if ((ses->state == NAT44_SES_RST) && !(tcp_flags & TCP_FLAG_RST))
314     ses->state = 0;
315   if ((tcp_flags & TCP_FLAG_ACK) && (ses->state & NAT44_SES_I2O_SYN) &&
316       (ses->state & NAT44_SES_O2I_SYN))
317     ses->state = 0;
318   if (tcp_flags & TCP_FLAG_SYN)
319     ses->state |= NAT44_SES_I2O_SYN;
320   if (tcp_flags & TCP_FLAG_FIN)
321     {
322       ses->i2o_fin_seq = clib_net_to_host_u32 (tcp_seq_number);
323       ses->state |= NAT44_SES_I2O_FIN;
324     }
325   if ((tcp_flags & TCP_FLAG_ACK) && (ses->state & NAT44_SES_O2I_FIN))
326     {
327       if (clib_net_to_host_u32 (tcp_ack_number) > ses->o2i_fin_seq)
328         {
329           ses->state |= NAT44_SES_O2I_FIN_ACK;
330           if (nat44_is_ses_closed (ses))
331             {                   // if session is now closed, save the timestamp
332               ses->tcp_closed_timestamp = now + sm->timeouts.tcp.transitory;
333               ses->last_lru_update = now;
334             }
335         }
336     }
337
338   // move the session to proper LRU
339   if (ses->state)
340     {
341       ses->lru_head_index = tsm->tcp_trans_lru_head_index;
342     }
343   else
344     {
345       ses->lru_head_index = tsm->tcp_estab_lru_head_index;
346     }
347   clib_dlist_remove (tsm->lru_pool, ses->lru_index);
348   clib_dlist_addtail (tsm->lru_pool, ses->lru_head_index, ses->lru_index);
349 }
350
351 always_inline void
352 nat44_set_tcp_session_state_o2i (snat_main_t * sm, f64 now,
353                                  snat_session_t * ses, u8 tcp_flags,
354                                  u32 tcp_ack_number, u32 tcp_seq_number,
355                                  u32 thread_index)
356 {
357   snat_main_per_thread_data_t *tsm = &sm->per_thread_data[thread_index];
358   if ((ses->state == 0) && (tcp_flags & TCP_FLAG_RST))
359     ses->state = NAT44_SES_RST;
360   if ((ses->state == NAT44_SES_RST) && !(tcp_flags & TCP_FLAG_RST))
361     ses->state = 0;
362   if ((tcp_flags & TCP_FLAG_ACK) && (ses->state & NAT44_SES_I2O_SYN) &&
363       (ses->state & NAT44_SES_O2I_SYN))
364     ses->state = 0;
365   if (tcp_flags & TCP_FLAG_SYN)
366     ses->state |= NAT44_SES_O2I_SYN;
367   if (tcp_flags & TCP_FLAG_FIN)
368     {
369       ses->o2i_fin_seq = clib_net_to_host_u32 (tcp_seq_number);
370       ses->state |= NAT44_SES_O2I_FIN;
371     }
372   if ((tcp_flags & TCP_FLAG_ACK) && (ses->state & NAT44_SES_I2O_FIN))
373     {
374       if (clib_net_to_host_u32 (tcp_ack_number) > ses->i2o_fin_seq)
375         ses->state |= NAT44_SES_I2O_FIN_ACK;
376       if (nat44_is_ses_closed (ses))
377         {                       // if session is now closed, save the timestamp
378           ses->tcp_closed_timestamp = now + sm->timeouts.tcp.transitory;
379           ses->last_lru_update = now;
380         }
381     }
382   // move the session to proper LRU
383   if (ses->state)
384     {
385       ses->lru_head_index = tsm->tcp_trans_lru_head_index;
386     }
387   else
388     {
389       ses->lru_head_index = tsm->tcp_estab_lru_head_index;
390     }
391   clib_dlist_remove (tsm->lru_pool, ses->lru_index);
392   clib_dlist_addtail (tsm->lru_pool, ses->lru_head_index, ses->lru_index);
393 }
394
395 always_inline u32
396 nat44_session_get_timeout (snat_main_t * sm, snat_session_t * s)
397 {
398   switch (s->nat_proto)
399     {
400     case NAT_PROTOCOL_ICMP:
401       return sm->timeouts.icmp;
402     case NAT_PROTOCOL_UDP:
403       return sm->timeouts.udp;
404     case NAT_PROTOCOL_TCP:
405       {
406         if (s->state)
407           return sm->timeouts.tcp.transitory;
408         else
409           return sm->timeouts.tcp.established;
410       }
411     default:
412       return sm->timeouts.udp;
413     }
414
415   return 0;
416 }
417
418 always_inline void
419 nat44_session_update_counters (snat_session_t * s, f64 now, uword bytes,
420                                u32 thread_index)
421 {
422   s->last_heard = now;
423   s->total_pkts++;
424   s->total_bytes += bytes;
425 #if 0
426   nat_ha_sref (&s->out2in.addr, s->out2in.port, &s->ext_host_addr,
427                s->ext_host_port, s->nat_proto, s->out2in.fib_index,
428                s->total_pkts, s->total_bytes, thread_index,
429                &s->ha_last_refreshed, now);
430 #endif
431 }
432
433 /** \brief Per-user LRU list maintenance */
434 always_inline void
435 nat44_session_update_lru (snat_main_t * sm, snat_session_t * s,
436                           u32 thread_index)
437 {
438   /* don't update too often - timeout is in magnitude of seconds anyway */
439   if (s->last_heard > s->last_lru_update + 1)
440     {
441       if (!sm->endpoint_dependent)
442         {
443           clib_dlist_remove (sm->per_thread_data[thread_index].list_pool,
444                              s->per_user_index);
445           clib_dlist_addtail (sm->per_thread_data[thread_index].list_pool,
446                               s->per_user_list_head_index, s->per_user_index);
447         }
448       else
449         {
450           clib_dlist_remove (sm->per_thread_data[thread_index].lru_pool,
451                              s->lru_index);
452           clib_dlist_addtail (sm->per_thread_data[thread_index].lru_pool,
453                               s->lru_head_index, s->lru_index);
454         }
455       s->last_lru_update = s->last_heard;
456     }
457 }
458
459 always_inline void
460 init_ed_k (clib_bihash_kv_16_8_t * kv, ip4_address_t l_addr, u16 l_port,
461            ip4_address_t r_addr, u16 r_port, u32 fib_index, u8 proto)
462 {
463   kv->key[0] = (u64) r_addr.as_u32 << 32 | l_addr.as_u32;
464   kv->key[1] =
465     (u64) r_port << 48 | (u64) l_port << 32 | fib_index << 8 | proto;
466 }
467
468 always_inline void
469 init_ed_kv (clib_bihash_kv_16_8_t * kv, ip4_address_t l_addr, u16 l_port,
470             ip4_address_t r_addr, u16 r_port, u32 fib_index, u8 proto,
471             u32 thread_index, u32 session_index)
472 {
473   init_ed_k (kv, l_addr, l_port, r_addr, r_port, fib_index, proto);
474   kv->value = (u64) thread_index << 32 | session_index;
475 }
476
477 always_inline u32
478 ed_value_get_thread_index (clib_bihash_kv_16_8_t * value)
479 {
480   return value->value >> 32;
481 }
482
483 always_inline u32
484 ed_value_get_session_index (clib_bihash_kv_16_8_t * value)
485 {
486   return value->value & ~(u32) 0;
487 }
488
489 always_inline void
490 split_ed_kv (clib_bihash_kv_16_8_t * kv,
491              ip4_address_t * l_addr, ip4_address_t * r_addr, u8 * proto,
492              u32 * fib_index, u16 * l_port, u16 * r_port)
493 {
494   if (l_addr)
495     {
496       l_addr->as_u32 = kv->key[0] & (u32) ~ 0;
497     }
498   if (r_addr)
499     {
500       r_addr->as_u32 = kv->key[0] >> 32;
501     }
502   if (r_port)
503     {
504       *r_port = kv->key[1] >> 48;
505     }
506   if (l_port)
507     {
508       *l_port = (kv->key[1] >> 32) & (u16) ~ 0;
509     }
510   if (fib_index)
511     {
512       *fib_index = (kv->key[1] >> 8) & ((1 << 24) - 1);
513     }
514   if (proto)
515     {
516       *proto = kv->key[1] & (u8) ~ 0;
517     }
518 }
519
520 static_always_inline int
521 nat_get_icmp_session_lookup_values (vlib_buffer_t *b, ip4_header_t *ip0,
522                                     ip4_address_t *lookup_saddr,
523                                     u16 *lookup_sport,
524                                     ip4_address_t *lookup_daddr,
525                                     u16 *lookup_dport, u8 *lookup_protocol)
526 {
527   icmp46_header_t *icmp0;
528   icmp_echo_header_t *echo0, *inner_echo0 = 0;
529   ip4_header_t *inner_ip0 = 0;
530   void *l4_header = 0;
531   icmp46_header_t *inner_icmp0;
532
533   icmp0 = (icmp46_header_t *) ip4_next_header (ip0);
534   echo0 = (icmp_echo_header_t *) (icmp0 + 1);
535
536   // avoid warning about unused variables in caller by setting to bogus values
537   *lookup_sport = 0;
538   *lookup_dport = 0;
539
540   if (!icmp_type_is_error_message
541       (vnet_buffer (b)->ip.reass.icmp_type_or_tcp_flags))
542     {
543       *lookup_protocol = IP_PROTOCOL_ICMP;
544       lookup_saddr->as_u32 = ip0->src_address.as_u32;
545       *lookup_sport = vnet_buffer (b)->ip.reass.l4_src_port;
546       lookup_daddr->as_u32 = ip0->dst_address.as_u32;
547       *lookup_dport = vnet_buffer (b)->ip.reass.l4_dst_port;
548     }
549   else
550     {
551       inner_ip0 = (ip4_header_t *) (echo0 + 1);
552       l4_header = ip4_next_header (inner_ip0);
553       *lookup_protocol = inner_ip0->protocol;
554       lookup_saddr->as_u32 = inner_ip0->dst_address.as_u32;
555       lookup_daddr->as_u32 = inner_ip0->src_address.as_u32;
556       switch (ip_proto_to_nat_proto (inner_ip0->protocol))
557         {
558         case NAT_PROTOCOL_ICMP:
559           inner_icmp0 = (icmp46_header_t *) l4_header;
560           inner_echo0 = (icmp_echo_header_t *) (inner_icmp0 + 1);
561           *lookup_sport = inner_echo0->identifier;
562           *lookup_dport = inner_echo0->identifier;
563           break;
564         case NAT_PROTOCOL_UDP:
565         case NAT_PROTOCOL_TCP:
566           *lookup_sport = ((tcp_udp_header_t *) l4_header)->dst_port;
567           *lookup_dport = ((tcp_udp_header_t *) l4_header)->src_port;
568           break;
569         default:
570           return NAT_IN2OUT_ED_ERROR_UNSUPPORTED_PROTOCOL;
571         }
572     }
573   return 0;
574 }
575
576 /**
577  * @brief Check if packet should be translated
578  *
579  * Packets aimed at outside interface and external address with active session
580  * should be translated.
581  *
582  * @param sm            NAT main
583  * @param rt            NAT runtime data
584  * @param sw_if_index0  index of the inside interface
585  * @param ip0           IPv4 header
586  * @param proto0        NAT protocol
587  * @param rx_fib_index0 RX FIB index
588  *
589  * @returns 0 if packet should be translated otherwise 1
590  */
591 static inline int
592 snat_not_translate_fast (snat_main_t * sm, vlib_node_runtime_t * node,
593                          u32 sw_if_index0, ip4_header_t * ip0, u32 proto0,
594                          u32 rx_fib_index0)
595 {
596   if (sm->out2in_dpo)
597     return 0;
598
599   fib_node_index_t fei = FIB_NODE_INDEX_INVALID;
600   nat_outside_fib_t *outside_fib;
601   fib_prefix_t pfx = {
602     .fp_proto = FIB_PROTOCOL_IP4,
603     .fp_len = 32,
604     .fp_addr = {
605                 .ip4.as_u32 = ip0->dst_address.as_u32,
606                 }
607     ,
608   };
609
610   /* Don't NAT packet aimed at the intfc address */
611   if (PREDICT_FALSE (is_interface_addr (sm, node, sw_if_index0,
612                                         ip0->dst_address.as_u32)))
613     return 1;
614
615   fei = fib_table_lookup (rx_fib_index0, &pfx);
616   if (FIB_NODE_INDEX_INVALID != fei)
617     {
618       u32 sw_if_index = fib_entry_get_resolving_interface (fei);
619       if (sw_if_index == ~0)
620         {
621           vec_foreach (outside_fib, sm->outside_fibs)
622           {
623             fei = fib_table_lookup (outside_fib->fib_index, &pfx);
624             if (FIB_NODE_INDEX_INVALID != fei)
625               {
626                 sw_if_index = fib_entry_get_resolving_interface (fei);
627                 if (sw_if_index != ~0)
628                   break;
629               }
630           }
631         }
632       if (sw_if_index == ~0)
633         return 1;
634
635       snat_interface_t *i;
636       /* *INDENT-OFF* */
637       pool_foreach (i, sm->interfaces)  {
638         /* NAT packet aimed at outside interface */
639         if ((nat_interface_is_outside (i)) && (sw_if_index == i->sw_if_index))
640           return 0;
641       }
642       /* *INDENT-ON* */
643     }
644
645   return 1;
646 }
647
648 static_always_inline u16
649 snat_random_port (u16 min, u16 max)
650 {
651   snat_main_t *sm = &snat_main;
652   u32 rwide;
653   u16 r;
654
655   rwide = random_u32 (&sm->random_seed);
656   r = rwide & 0xFFFF;
657   if (r >= min && r <= max)
658     return r;
659
660   return min + (rwide % (max - min + 1));
661 }
662
663 #endif /* __included_nat_inlines_h__ */
664
665 /*
666  * fd.io coding-style-patch-verification: ON
667  *
668  * Local Variables:
669  * eval: (c-set-style "gnu")
670  * End:
671  */