L2 BVI/FIB: Update L2 FIB table when BVI's MAC changes
[vpp.git] / src / vnet / classify / vnet_classify.h
index 79e7f1a..4fea95d 100644 (file)
@@ -26,9 +26,6 @@
 #include <vnet/ip/ip4_packet.h>
 #include <vnet/ip/ip6_packet.h>
 #include <vlib/cli.h>
-#include <vnet/l2/l2_input.h>
-#include <vnet/l2/l2_output.h>
-#include <vnet/l2/feat_bitmap.h>
 #include <vnet/api_errno.h>    /* for API error numbers */
 
 #include <vppinfra/error.h>
@@ -41,10 +38,6 @@ extern vlib_node_registration_t ip6_classify_node;
 
 #define CLASSIFY_TRACE 0
 
-#if !defined( __aarch64__) && !defined(__arm__)
-#define CLASSIFY_USE_SSE       //Allow usage of SSE operations
-#endif
-
 #define U32X4_ALIGNED(p) PREDICT_TRUE((((intptr_t)p) & 0xf) == 0)
 
 /*
@@ -233,7 +226,7 @@ vnet_classify_hash_packet_inline (vnet_classify_table_t * t, u8 * h)
 
   ASSERT (t);
   mask = t->mask;
-#ifdef CLASSIFY_USE_SSE
+#ifdef CLIB_HAVE_VEC128
   if (U32X4_ALIGNED (h))
     {                          //SSE can't handle unaligned data
       u32x4 *data = (u32x4 *) h;
@@ -259,7 +252,7 @@ vnet_classify_hash_packet_inline (vnet_classify_table_t * t, u8 * h)
        }
     }
   else
-#endif /* CLASSIFY_USE_SSE */
+#endif /* CLIB_HAVE_VEC128 */
     {
       u32 skip_u64 = t->skip_n_vectors * 2;
       u64 *data64 = (u64 *) h;
@@ -407,7 +400,7 @@ vnet_classify_find_entry_inline (vnet_classify_table_t * t,
 
   v = vnet_classify_entry_at_index (t, v, value_index);
 
-#ifdef CLASSIFY_USE_SSE
+#ifdef CLIB_HAVE_VEC128
   if (U32X4_ALIGNED (h))
     {
       u32x4 *data = (u32x4 *) h;
@@ -452,7 +445,7 @@ vnet_classify_find_entry_inline (vnet_classify_table_t * t,
        }
     }
   else
-#endif /* CLASSIFY_USE_SSE */
+#endif /* CLIB_HAVE_VEC128 */
     {
       u32 skip_u64 = t->skip_n_vectors * 2;
       u64 *data64 = (u64 *) h;