IPSEC: support GCM in ESP
[vpp.git] / src / vnet / ipsec / esp.h
index 063b74b..052bbfc 100644 (file)
@@ -54,142 +54,37 @@ typedef CLIB_PACKED (struct {
 }) ip6_and_esp_header_t;
 /* *INDENT-ON* */
 
-#define ESP_WINDOW_SIZE                (64)
+/**
+ * AES GCM Additional Authentication data
+ */
+typedef struct esp_aead_t_
+{
+  /**
+   * for GCM: when using ESN it's:
+   *   SPI, seq-hi, seg-low
+   * else
+   *   SPI, seq-low
+   */
+  u32 data[3];
+} __clib_packed esp_aead_t;
+
 #define ESP_SEQ_MAX            (4294967295UL)
 #define ESP_MAX_BLOCK_SIZE     (16)
-#define ESP_MAX_ICV_SIZE       (16)
+#define ESP_MAX_IV_SIZE                (16)
+#define ESP_MAX_ICV_SIZE       (32)
 
 u8 *format_esp_header (u8 * s, va_list * args);
 
-always_inline int
-esp_replay_check (ipsec_sa_t * sa, u32 seq)
-{
-  u32 diff;
-
-  if (PREDICT_TRUE (seq > sa->last_seq))
-    return 0;
-
-  diff = sa->last_seq - seq;
-
-  if (ESP_WINDOW_SIZE > diff)
-    return (sa->replay_window & (1ULL << diff)) ? 1 : 0;
-  else
-    return 1;
-
-  return 0;
-}
-
-always_inline int
-esp_replay_check_esn (ipsec_sa_t * sa, u32 seq)
-{
-  u32 tl = sa->last_seq;
-  u32 th = sa->last_seq_hi;
-  u32 diff = tl - seq;
-
-  if (PREDICT_TRUE (tl >= (ESP_WINDOW_SIZE - 1)))
-    {
-      if (seq >= (tl - ESP_WINDOW_SIZE + 1))
-       {
-         sa->seq_hi = th;
-         if (seq <= tl)
-           return (sa->replay_window & (1ULL << diff)) ? 1 : 0;
-         else
-           return 0;
-       }
-      else
-       {
-         sa->seq_hi = th + 1;
-         return 0;
-       }
-    }
-  else
-    {
-      if (seq >= (tl - ESP_WINDOW_SIZE + 1))
-       {
-         sa->seq_hi = th - 1;
-         return (sa->replay_window & (1ULL << diff)) ? 1 : 0;
-       }
-      else
-       {
-         sa->seq_hi = th;
-         if (seq <= tl)
-           return (sa->replay_window & (1ULL << diff)) ? 1 : 0;
-         else
-           return 0;
-       }
-    }
-
-  return 0;
-}
-
 /* TODO seq increment should be atomic to be accessed by multiple workers */
-always_inline void
-esp_replay_advance (ipsec_sa_t * sa, u32 seq)
-{
-  u32 pos;
-
-  if (seq > sa->last_seq)
-    {
-      pos = seq - sa->last_seq;
-      if (pos < ESP_WINDOW_SIZE)
-       sa->replay_window = ((sa->replay_window) << pos) | 1;
-      else
-       sa->replay_window = 1;
-      sa->last_seq = seq;
-    }
-  else
-    {
-      pos = sa->last_seq - seq;
-      sa->replay_window |= (1ULL << pos);
-    }
-}
-
-always_inline void
-esp_replay_advance_esn (ipsec_sa_t * sa, u32 seq)
-{
-  int wrap = sa->seq_hi - sa->last_seq_hi;
-  u32 pos;
-
-  if (wrap == 0 && seq > sa->last_seq)
-    {
-      pos = seq - sa->last_seq;
-      if (pos < ESP_WINDOW_SIZE)
-       sa->replay_window = ((sa->replay_window) << pos) | 1;
-      else
-       sa->replay_window = 1;
-      sa->last_seq = seq;
-    }
-  else if (wrap > 0)
-    {
-      pos = ~seq + sa->last_seq + 1;
-      if (pos < ESP_WINDOW_SIZE)
-       sa->replay_window = ((sa->replay_window) << pos) | 1;
-      else
-       sa->replay_window = 1;
-      sa->last_seq = seq;
-      sa->last_seq_hi = sa->seq_hi;
-    }
-  else if (wrap < 0)
-    {
-      pos = ~seq + sa->last_seq + 1;
-      sa->replay_window |= (1ULL << pos);
-    }
-  else
-    {
-      pos = sa->last_seq - seq;
-      sa->replay_window |= (1ULL << pos);
-    }
-}
-
 always_inline int
 esp_seq_advance (ipsec_sa_t * sa)
 {
-  if (PREDICT_TRUE (sa->use_esn))
+  if (PREDICT_TRUE (ipsec_sa_is_set_USE_ESN (sa)))
     {
       if (PREDICT_FALSE (sa->seq == ESP_SEQ_MAX))
        {
-         if (PREDICT_FALSE
-             (sa->use_anti_replay && sa->seq_hi == ESP_SEQ_MAX))
+         if (PREDICT_FALSE (ipsec_sa_is_set_USE_ANTI_REPLAY (sa) &&
+                            sa->seq_hi == ESP_SEQ_MAX))
            return 1;
          sa->seq_hi++;
        }
@@ -197,7 +92,8 @@ esp_seq_advance (ipsec_sa_t * sa)
     }
   else
     {
-      if (PREDICT_FALSE (sa->use_anti_replay && sa->seq == ESP_SEQ_MAX))
+      if (PREDICT_FALSE (ipsec_sa_is_set_USE_ANTI_REPLAY (sa) &&
+                        sa->seq == ESP_SEQ_MAX))
        return 1;
       sa->seq++;
     }
@@ -212,18 +108,18 @@ hmac_calc (vlib_main_t * vm, ipsec_sa_t * sa, u8 * data, int data_len,
 {
   vnet_crypto_op_t _op, *op = &_op;
 
-  if (PREDICT_FALSE (sa->integ_op_type == 0))
+  if (PREDICT_FALSE (sa->integ_op_id == 0))
     return 0;
 
-  op->op = sa->integ_op_type;
+  vnet_crypto_op_init (op, sa->integ_op_id);
   op->key = sa->integ_key.data;
   op->key_len = sa->integ_key.len;
   op->src = data;
   op->len = data_len;
-  op->dst = signature;
-  op->hmac_trunc_len = sa->integ_trunc_size;
+  op->digest = signature;
+  op->digest_len = sa->integ_icv_size;
 
-  if (sa->use_esn)
+  if (ipsec_sa_is_set_USE_ESN (sa))
     {
       u32 seq_hi = clib_host_to_net_u32 (sa->seq_hi);
 
@@ -232,9 +128,29 @@ hmac_calc (vlib_main_t * vm, ipsec_sa_t * sa, u8 * data, int data_len,
     }
 
   vnet_crypto_process_ops (vm, op, 1);
-  return sa->integ_trunc_size;
+  return sa->integ_icv_size;
 }
 
+always_inline void
+esp_aad_fill (vnet_crypto_op_t * op,
+             const esp_header_t * esp, const ipsec_sa_t * sa)
+{
+  esp_aead_t *aad;
+
+  aad = (esp_aead_t *) op->aad;
+  clib_memcpy_fast (aad, esp, 8);
+
+  if (ipsec_sa_is_set_USE_ESN (sa))
+    {
+      /* SPI, seq-hi, seq-low */
+      aad->data[2] = aad->data[1];
+      aad->data[1] = clib_host_to_net_u32 (sa->seq_hi);
+      op->aad_len = 12;
+    }
+  else
+    /* SPI, seq-low */
+    op->aad_len = 8;
+}
 #endif /* __ESP_H__ */
 
 /*