dpdk/ipsec: use physmem when creating pools
[vpp.git] / src / plugins / dpdk / ipsec / ipsec.c
1 /*
2  * Copyright (c) 2017 Intel and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 #include <vnet/vnet.h>
16 #include <vnet/ip/ip.h>
17 #include <vnet/api_errno.h>
18 #include <vnet/ipsec/ipsec.h>
19 #include <vlib/node_funcs.h>
20
21 #include <dpdk/device/dpdk.h>
22 #include <dpdk/ipsec/ipsec.h>
23
24 dpdk_crypto_main_t dpdk_crypto_main;
25
26 #define EMPTY_STRUCT {0}
27
28 static void
29 algos_init (u32 n_mains)
30 {
31   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
32   crypto_alg_t *a;
33
34   vec_validate_aligned (dcm->cipher_algs, IPSEC_CRYPTO_N_ALG - 1, 8);
35
36   {
37 #define _(v,f,str) \
38   dcm->cipher_algs[IPSEC_CRYPTO_ALG_##f].name = str; \
39   dcm->cipher_algs[IPSEC_CRYPTO_ALG_##f].disabled = n_mains;
40     foreach_ipsec_crypto_alg
41 #undef _
42   }
43
44   /* Minimum boundary for ciphers is 4B, required by ESP */
45   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_NONE];
46   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
47   a->alg = RTE_CRYPTO_CIPHER_NULL;
48   a->boundary = 4;              /* 1 */
49   a->key_len = 0;
50   a->iv_len = 0;
51
52   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CBC_128];
53   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
54   a->alg = RTE_CRYPTO_CIPHER_AES_CBC;
55   a->boundary = 16;
56   a->key_len = 16;
57   a->iv_len = 16;
58
59   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CBC_192];
60   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
61   a->alg = RTE_CRYPTO_CIPHER_AES_CBC;
62   a->boundary = 16;
63   a->key_len = 24;
64   a->iv_len = 16;
65
66   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CBC_256];
67   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
68   a->alg = RTE_CRYPTO_CIPHER_AES_CBC;
69   a->boundary = 16;
70   a->key_len = 32;
71   a->iv_len = 16;
72
73   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CTR_128];
74   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
75   a->alg = RTE_CRYPTO_CIPHER_AES_CTR;
76   a->boundary = 4;              /* 1 */
77   a->key_len = 16;
78   a->iv_len = 8;
79
80   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CTR_192];
81   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
82   a->alg = RTE_CRYPTO_CIPHER_AES_CTR;
83   a->boundary = 4;              /* 1 */
84   a->key_len = 24;
85   a->iv_len = 8;
86
87   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CTR_256];
88   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
89   a->alg = RTE_CRYPTO_CIPHER_AES_CTR;
90   a->boundary = 4;              /* 1 */
91   a->key_len = 32;
92   a->iv_len = 8;
93
94 #if DPDK_NO_AEAD
95 #define AES_GCM_TYPE RTE_CRYPTO_SYM_XFORM_CIPHER
96 #define AES_GCM_ALG RTE_CRYPTO_CIPHER_AES_GCM
97 #else
98 #define AES_GCM_TYPE RTE_CRYPTO_SYM_XFORM_AEAD
99 #define AES_GCM_ALG RTE_CRYPTO_AEAD_AES_GCM
100 #endif
101
102   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_GCM_128];
103   a->type = AES_GCM_TYPE;
104   a->alg = AES_GCM_ALG;
105   a->boundary = 4;              /* 1 */
106   a->key_len = 16;
107   a->iv_len = 8;
108   a->trunc_size = 16;
109
110   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_GCM_192];
111   a->type = AES_GCM_TYPE;
112   a->alg = AES_GCM_ALG;
113   a->boundary = 4;              /* 1 */
114   a->key_len = 24;
115   a->iv_len = 8;
116   a->trunc_size = 16;
117
118   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_GCM_256];
119   a->type = AES_GCM_TYPE;
120   a->alg = AES_GCM_ALG;
121   a->boundary = 4;              /* 1 */
122   a->key_len = 32;
123   a->iv_len = 8;
124   a->trunc_size = 16;
125
126   vec_validate (dcm->auth_algs, IPSEC_INTEG_N_ALG - 1);
127
128   {
129 #define _(v,f,str) \
130   dcm->auth_algs[IPSEC_INTEG_ALG_##f].name = str; \
131   dcm->auth_algs[IPSEC_INTEG_ALG_##f].disabled = n_mains;
132     foreach_ipsec_integ_alg
133 #undef _
134   }
135
136   a = &dcm->auth_algs[IPSEC_INTEG_ALG_NONE];
137   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
138   a->alg = RTE_CRYPTO_AUTH_NULL;
139   a->key_len = 0;
140   a->trunc_size = 0;
141
142   a = &dcm->auth_algs[IPSEC_INTEG_ALG_MD5_96];
143   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
144   a->alg = RTE_CRYPTO_AUTH_MD5_HMAC;
145   a->key_len = 16;
146   a->trunc_size = 12;
147
148   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA1_96];
149   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
150   a->alg = RTE_CRYPTO_AUTH_SHA1_HMAC;
151   a->key_len = 20;
152   a->trunc_size = 12;
153
154   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA_256_96];
155   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
156   a->alg = RTE_CRYPTO_AUTH_SHA256_HMAC;
157   a->key_len = 32;
158   a->trunc_size = 12;
159
160   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA_256_128];
161   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
162   a->alg = RTE_CRYPTO_AUTH_SHA256_HMAC;
163   a->key_len = 32;
164   a->trunc_size = 16;
165
166   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA_384_192];
167   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
168   a->alg = RTE_CRYPTO_AUTH_SHA384_HMAC;
169   a->key_len = 48;
170   a->trunc_size = 24;
171
172   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA_512_256];
173   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
174   a->alg = RTE_CRYPTO_AUTH_SHA512_HMAC;
175   a->key_len = 64;
176   a->trunc_size = 32;
177 }
178
179 static u8
180 cipher_alg_index (const crypto_alg_t * alg)
181 {
182   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
183
184   return (alg - dcm->cipher_algs);
185 }
186
187 static u8
188 auth_alg_index (const crypto_alg_t * alg)
189 {
190   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
191
192   return (alg - dcm->auth_algs);
193 }
194
195 static crypto_alg_t *
196 cipher_cap_to_alg (const struct rte_cryptodev_capabilities *cap, u8 key_len)
197 {
198   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
199   crypto_alg_t *alg;
200
201   if (cap->op != RTE_CRYPTO_OP_TYPE_SYMMETRIC)
202     return NULL;
203
204   /* *INDENT-OFF* */
205   vec_foreach (alg, dcm->cipher_algs)
206     {
207       if ((cap->sym.xform_type == RTE_CRYPTO_SYM_XFORM_CIPHER) &&
208           (alg->type == RTE_CRYPTO_SYM_XFORM_CIPHER) &&
209           (cap->sym.cipher.algo == alg->alg) &&
210           (alg->key_len == key_len))
211         return alg;
212 #if ! DPDK_NO_AEAD
213       if ((cap->sym.xform_type == RTE_CRYPTO_SYM_XFORM_AEAD) &&
214           (alg->type == RTE_CRYPTO_SYM_XFORM_AEAD) &&
215           (cap->sym.aead.algo == alg->alg) &&
216           (alg->key_len == key_len))
217         return alg;
218 #endif
219     }
220   /* *INDENT-ON* */
221
222   return NULL;
223 }
224
225 static crypto_alg_t *
226 auth_cap_to_alg (const struct rte_cryptodev_capabilities *cap, u8 trunc_size)
227 {
228   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
229   crypto_alg_t *alg;
230
231   if ((cap->op != RTE_CRYPTO_OP_TYPE_SYMMETRIC) ||
232       (cap->sym.xform_type != RTE_CRYPTO_SYM_XFORM_AUTH))
233     return NULL;
234
235   /* *INDENT-OFF* */
236   vec_foreach (alg, dcm->auth_algs)
237     {
238       if ((cap->sym.auth.algo == alg->alg) &&
239           (alg->trunc_size == trunc_size))
240         return alg;
241     }
242   /* *INDENT-ON* */
243
244   return NULL;
245 }
246
247 #if ! DPDK_NO_AEAD
248 static void
249 crypto_set_aead_xform (struct rte_crypto_sym_xform *xform,
250                        ipsec_sa_t * sa, u8 is_outbound)
251 {
252   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
253   crypto_alg_t *c;
254
255   c = vec_elt_at_index (dcm->cipher_algs, sa->crypto_alg);
256
257   ASSERT (c->type == RTE_CRYPTO_SYM_XFORM_AEAD);
258
259   xform->type = RTE_CRYPTO_SYM_XFORM_AEAD;
260   xform->aead.algo = c->alg;
261   xform->aead.key.data = sa->crypto_key;
262   xform->aead.key.length = c->key_len;
263   xform->aead.iv.offset =
264     crypto_op_get_priv_offset () + offsetof (dpdk_op_priv_t, cb);
265   xform->aead.iv.length = 12;
266   xform->aead.digest_length = c->trunc_size;
267   xform->aead.aad_length = sa->use_esn ? 12 : 8;
268   xform->next = NULL;
269
270   if (is_outbound)
271     xform->aead.op = RTE_CRYPTO_AEAD_OP_ENCRYPT;
272   else
273     xform->aead.op = RTE_CRYPTO_AEAD_OP_DECRYPT;
274 }
275 #endif
276
277 static void
278 crypto_set_cipher_xform (struct rte_crypto_sym_xform *xform,
279                          ipsec_sa_t * sa, u8 is_outbound)
280 {
281   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
282   crypto_alg_t *c;
283
284   c = vec_elt_at_index (dcm->cipher_algs, sa->crypto_alg);
285
286   ASSERT (c->type == RTE_CRYPTO_SYM_XFORM_CIPHER);
287
288   xform->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
289   xform->cipher.algo = c->alg;
290   xform->cipher.key.data = sa->crypto_key;
291   xform->cipher.key.length = c->key_len;
292 #if ! DPDK_NO_AEAD
293   xform->cipher.iv.offset =
294     crypto_op_get_priv_offset () + offsetof (dpdk_op_priv_t, cb);
295   xform->cipher.iv.length = c->iv_len;
296 #endif
297   xform->next = NULL;
298
299   if (is_outbound)
300     xform->cipher.op = RTE_CRYPTO_CIPHER_OP_ENCRYPT;
301   else
302     xform->cipher.op = RTE_CRYPTO_CIPHER_OP_DECRYPT;
303 }
304
305 static void
306 crypto_set_auth_xform (struct rte_crypto_sym_xform *xform,
307                        ipsec_sa_t * sa, u8 is_outbound)
308 {
309   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
310   crypto_alg_t *a;
311
312   a = vec_elt_at_index (dcm->auth_algs, sa->integ_alg);
313
314   ASSERT (a->type == RTE_CRYPTO_SYM_XFORM_AUTH);
315
316   xform->type = RTE_CRYPTO_SYM_XFORM_AUTH;
317   xform->auth.algo = a->alg;
318   xform->auth.key.data = sa->integ_key;
319   xform->auth.key.length = a->key_len;
320   xform->auth.digest_length = a->trunc_size;
321 #if DPDK_NO_AEAD
322   if (sa->crypto_alg == IPSEC_CRYPTO_ALG_AES_GCM_128 ||
323       sa->crypto_alg == IPSEC_CRYPTO_ALG_AES_GCM_192 ||
324       sa->crypto_alg == IPSEC_CRYPTO_ALG_AES_GCM_256)
325     xform->auth.algo = RTE_CRYPTO_AUTH_AES_GCM;
326   xform->auth.add_auth_data_length = sa->use_esn ? 12 : 8;
327 #else
328 #if 0
329   xform->auth.iv.offset =
330     sizeof (struct rte_crypto_op) + sizeof (struct rte_crypto_sym_op) +
331     offsetof (dpdk_op_priv_t, cb);
332   xform->auth.iv.length = a->iv_len;
333 #endif
334 #endif
335   xform->next = NULL;
336
337   if (is_outbound)
338     xform->auth.op = RTE_CRYPTO_AUTH_OP_GENERATE;
339   else
340     xform->auth.op = RTE_CRYPTO_AUTH_OP_VERIFY;
341 }
342
343 clib_error_t *
344 create_sym_session (struct rte_cryptodev_sym_session **session,
345                     u32 sa_idx,
346                     crypto_resource_t * res,
347                     crypto_worker_main_t * cwm, u8 is_outbound)
348 {
349   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
350   ipsec_main_t *im = &ipsec_main;
351   crypto_data_t *data;
352   ipsec_sa_t *sa;
353   struct rte_crypto_sym_xform cipher_xform = { 0 };
354   struct rte_crypto_sym_xform auth_xform = { 0 };
355   struct rte_crypto_sym_xform *xfs;
356   crypto_session_key_t key = { 0 };
357
358   key.drv_id = res->drv_id;
359   key.sa_idx = sa_idx;
360
361   sa = pool_elt_at_index (im->sad, sa_idx);
362
363 #if ! DPDK_NO_AEAD
364   if ((sa->crypto_alg == IPSEC_CRYPTO_ALG_AES_GCM_128) |
365       (sa->crypto_alg == IPSEC_CRYPTO_ALG_AES_GCM_192) |
366       (sa->crypto_alg == IPSEC_CRYPTO_ALG_AES_GCM_256))
367     {
368       crypto_set_aead_xform (&cipher_xform, sa, is_outbound);
369       xfs = &cipher_xform;
370     }
371   else
372 #endif /* ! DPDK_NO_AEAD */
373     {
374       crypto_set_cipher_xform (&cipher_xform, sa, is_outbound);
375       crypto_set_auth_xform (&auth_xform, sa, is_outbound);
376
377       if (is_outbound)
378         {
379           cipher_xform.next = &auth_xform;
380           xfs = &cipher_xform;
381         }
382       else
383         {
384           auth_xform.next = &cipher_xform;
385           xfs = &auth_xform;
386         }
387     }
388
389   data = vec_elt_at_index (dcm->data, res->numa);
390
391 #if DPDK_NO_AEAD
392   /*
393    * DPDK_VER <= 1705:
394    *   Each worker/thread has its own session per device driver
395    */
396   session[0] = rte_cryptodev_sym_session_create (res->dev_id, xfs);
397   if (!session[0])
398     {
399       data->session_drv_failed[res->drv_id] += 1;
400       return clib_error_return (0, "failed to create session for dev %u",
401                                 res->dev_id);
402     }
403 #else
404   /*
405    * DPDK_VER >= 1708:
406    *   Multiple worker/threads share the session for an SA
407    *   Single session per SA, initialized for each device driver
408    */
409   session[0] = (void *) hash_get (data->session_by_sa_index, sa_idx);
410
411   if (!session[0])
412     {
413       session[0] = rte_cryptodev_sym_session_create (data->session_h);
414       if (!session[0])
415         {
416           data->session_h_failed += 1;
417           return clib_error_return (0, "failed to create session header");
418         }
419       hash_set (data->session_by_sa_index, sa_idx, session[0]);
420     }
421
422   struct rte_mempool **mp;
423   mp = vec_elt_at_index (data->session_drv, res->drv_id);
424   ASSERT (mp[0] != NULL);
425
426   i32 ret =
427     rte_cryptodev_sym_session_init (res->dev_id, session[0], xfs, mp[0]);
428   if (ret)
429     {
430       data->session_drv_failed[res->drv_id] += 1;
431       return clib_error_return (0, "failed to init session for drv %u",
432                                 res->drv_id);
433     }
434 #endif /* DPDK_NO_AEAD */
435
436   hash_set (cwm->session_by_drv_id_and_sa_index, key.val, session[0]);
437
438   return 0;
439 }
440
441 static void __attribute__ ((unused)) clear_and_free_obj (void *obj)
442 {
443   struct rte_mempool *mp = rte_mempool_from_obj (obj);
444
445   memset (obj, 0, mp->elt_size);
446
447   rte_mempool_put (mp, obj);
448 }
449
450 #if ! DPDK_NO_AEAD
451 /* This is from rte_cryptodev_pmd.h */
452 static inline void *
453 get_session_private_data (const struct rte_cryptodev_sym_session *sess,
454                           uint8_t driver_id)
455 {
456   return sess->sess_private_data[driver_id];
457 }
458
459 /* This is from rte_cryptodev_pmd.h */
460 static inline void
461 set_session_private_data (struct rte_cryptodev_sym_session *sess,
462                           uint8_t driver_id, void *private_data)
463 {
464   sess->sess_private_data[driver_id] = private_data;
465 }
466 #endif
467
468 static clib_error_t *
469 add_del_sa_session (u32 sa_index, u8 is_add)
470 {
471   ipsec_main_t *im = &ipsec_main;
472   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
473   crypto_worker_main_t *cwm;
474   struct rte_cryptodev_sym_session *s;
475   crypto_session_key_t key = { 0 };
476   uword *val;
477   u32 drv_id;
478   i32 ret;
479
480   key.sa_idx = sa_index;
481
482   if (is_add)
483     {
484 #if 1
485       ipsec_sa_t *sa = pool_elt_at_index (im->sad, sa_index);
486       u32 seed;
487       switch (sa->crypto_alg)
488         {
489         case IPSEC_CRYPTO_ALG_AES_GCM_128:
490         case IPSEC_CRYPTO_ALG_AES_GCM_192:
491         case IPSEC_CRYPTO_ALG_AES_GCM_256:
492           clib_memcpy (&sa->salt, &sa->crypto_key[sa->crypto_key_len - 4], 4);
493           break;
494         default:
495           seed = (u32) clib_cpu_time_now ();
496           sa->salt = random_u32 (&seed);
497         }
498 #endif
499       return 0;
500     }
501
502   /* XXX Wait N cycles to be sure session is not in use OR
503    * keep refcnt at SA level per worker/thread ? */
504   unix_sleep (0.2);
505
506   /* *INDENT-OFF* */
507   vec_foreach (cwm, dcm->workers_main)
508     {
509       for (drv_id = 0; drv_id < dcm->max_drv_id; drv_id++)
510         {
511           key.drv_id = drv_id;
512           val = hash_get (cwm->session_by_drv_id_and_sa_index, key.val);
513           s = (struct rte_cryptodev_sym_session *) val;
514
515           if (!s)
516             continue;
517
518 #if DPDK_NO_AEAD
519           ret = (rte_cryptodev_sym_session_free (s->dev_id, s) == NULL);
520           ASSERT (ret);
521 #endif
522           hash_unset (cwm->session_by_drv_id_and_sa_index, key.val);
523         }
524     }
525   /* *INDENT-ON* */
526
527 #if ! DPDK_NO_AEAD
528   crypto_data_t *data;
529   /* *INDENT-OFF* */
530   vec_foreach (data, dcm->data)
531     {
532       val = hash_get (data->session_by_sa_index, sa_index);
533       s = (struct rte_cryptodev_sym_session *) val;
534
535       if (!s)
536         continue;
537
538       hash_unset (data->session_by_sa_index, sa_index);
539
540       void *drv_session;
541       vec_foreach_index (drv_id, dcm->drv)
542         {
543           drv_session = get_session_private_data (s, drv_id);
544           if (!drv_session)
545             continue;
546
547           /*
548            * Custom clear to avoid finding a dev_id for drv_id:
549            *  ret = rte_cryptodev_sym_session_clear (dev_id, drv_session);
550            *  ASSERT (!ret);
551            */
552           clear_and_free_obj (drv_session);
553
554           set_session_private_data (s, drv_id, NULL);
555         }
556
557       ret = rte_cryptodev_sym_session_free(s);
558       ASSERT (!ret);
559     }
560   /* *INDENT-ON* */
561 #endif
562
563   return 0;
564 }
565
566 static clib_error_t *
567 dpdk_ipsec_check_support (ipsec_sa_t * sa)
568 {
569   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
570
571   if (sa->integ_alg == IPSEC_INTEG_ALG_NONE)
572     switch (sa->crypto_alg)
573       {
574       case IPSEC_CRYPTO_ALG_AES_GCM_128:
575       case IPSEC_CRYPTO_ALG_AES_GCM_192:
576       case IPSEC_CRYPTO_ALG_AES_GCM_256:
577         break;
578       default:
579         return clib_error_return (0, "unsupported integ-alg %U crypto-alg %U",
580                                   format_ipsec_integ_alg, sa->integ_alg,
581                                   format_ipsec_crypto_alg, sa->crypto_alg);
582       }
583
584   /* XXX do we need the NONE check? */
585   if (sa->crypto_alg != IPSEC_CRYPTO_ALG_NONE &&
586       dcm->cipher_algs[sa->crypto_alg].disabled)
587     return clib_error_return (0, "disabled crypto-alg %U",
588                               format_ipsec_crypto_alg, sa->crypto_alg);
589
590   /* XXX do we need the NONE check? */
591   if (sa->integ_alg != IPSEC_INTEG_ALG_NONE &&
592       dcm->auth_algs[sa->integ_alg].disabled)
593     return clib_error_return (0, "disabled integ-alg %U",
594                               format_ipsec_integ_alg, sa->integ_alg);
595   return NULL;
596 }
597
598 static void
599 crypto_parse_capabilities (crypto_dev_t * dev,
600                            const struct rte_cryptodev_capabilities *cap,
601                            u32 n_mains)
602 {
603   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
604   crypto_alg_t *alg;
605   u8 len, inc;
606
607   for (; cap->op != RTE_CRYPTO_OP_TYPE_UNDEFINED; cap++)
608     {
609       /* A single capability maps to multiple cipher/auth algorithms */
610       switch (cap->sym.xform_type)
611         {
612 #if ! DPDK_NO_AEAD
613         case RTE_CRYPTO_SYM_XFORM_AEAD:
614 #endif
615         case RTE_CRYPTO_SYM_XFORM_CIPHER:
616           inc = cap->sym.cipher.key_size.increment;
617           inc = inc ? inc : 1;
618           for (len = cap->sym.cipher.key_size.min;
619                len <= cap->sym.cipher.key_size.max; len += inc)
620             {
621               alg = cipher_cap_to_alg (cap, len);
622               if (!alg)
623                 continue;
624               dev->cipher_support[cipher_alg_index (alg)] = 1;
625               alg->resources += vec_len (dev->free_resources);
626               /* At least enough resources to support one algo */
627               dcm->enabled |= (alg->resources >= n_mains);
628             }
629           break;
630         case RTE_CRYPTO_SYM_XFORM_AUTH:
631           inc = cap->sym.auth.digest_size.increment;
632           inc = inc ? inc : 1;
633           for (len = cap->sym.auth.digest_size.min;
634                len <= cap->sym.auth.digest_size.max; len += inc)
635             {
636               alg = auth_cap_to_alg (cap, len);
637               if (!alg)
638                 continue;
639               dev->auth_support[auth_alg_index (alg)] = 1;
640               alg->resources += vec_len (dev->free_resources);
641               /* At least enough resources to support one algo */
642               dcm->enabled |= (alg->resources >= n_mains);
643             }
644           break;
645         default:
646           ;
647         }
648     }
649 }
650
651 #define DPDK_CRYPTO_N_QUEUE_DESC  2048
652 #define DPDK_CRYPTO_NB_SESS_OBJS  20000
653
654 static clib_error_t *
655 crypto_dev_conf (u8 dev, u16 n_qp, u8 numa)
656 {
657   struct rte_cryptodev_config dev_conf;
658   struct rte_cryptodev_qp_conf qp_conf;
659   i32 ret;
660   u16 qp;
661   i8 *error_str;
662
663   dev_conf.socket_id = numa;
664   dev_conf.nb_queue_pairs = n_qp;
665 #if DPDK_NO_AEAD
666   dev_conf.session_mp.nb_objs = DPDK_CRYPTO_NB_SESS_OBJS;
667   dev_conf.session_mp.cache_size = 512;
668 #endif
669
670   error_str = "failed to configure crypto device %u";
671   ret = rte_cryptodev_configure (dev, &dev_conf);
672   if (ret < 0)
673     return clib_error_return (0, error_str, dev);
674
675   error_str = "failed to setup crypto device %u queue pair %u";
676   qp_conf.nb_descriptors = DPDK_CRYPTO_N_QUEUE_DESC;
677   for (qp = 0; qp < n_qp; qp++)
678     {
679 #if DPDK_NO_AEAD
680       ret = rte_cryptodev_queue_pair_setup (dev, qp, &qp_conf, numa);
681 #else
682       ret = rte_cryptodev_queue_pair_setup (dev, qp, &qp_conf, numa, NULL);
683 #endif
684       if (ret < 0)
685         return clib_error_return (0, error_str, dev, qp);
686     }
687
688   return 0;
689 }
690
691 static void
692 crypto_scan_devs (u32 n_mains)
693 {
694   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
695   struct rte_cryptodev *cryptodev;
696   struct rte_cryptodev_info info;
697   crypto_dev_t *dev;
698   crypto_resource_t *res;
699   clib_error_t *error;
700   u32 i;
701   u16 max_res_idx, res_idx, j;
702   u8 drv_id;
703
704   vec_validate_init_empty (dcm->dev, rte_cryptodev_count () - 1,
705                            (crypto_dev_t) EMPTY_STRUCT);
706
707   for (i = 0; i < rte_cryptodev_count (); i++)
708     {
709       dev = vec_elt_at_index (dcm->dev, i);
710
711       cryptodev = &rte_cryptodevs[i];
712       rte_cryptodev_info_get (i, &info);
713
714       dev->id = i;
715       dev->name = cryptodev->data->name;
716       dev->numa = rte_cryptodev_socket_id (i);
717       dev->features = info.feature_flags;
718       dev->max_qp = info.max_nb_queue_pairs;
719 #if DPDK_NO_AEAD
720       drv_id = cryptodev->dev_type;
721 #else
722       drv_id = info.driver_id;
723 #endif
724       if (drv_id >= vec_len (dcm->drv))
725         vec_validate_init_empty (dcm->drv, drv_id,
726                                  (crypto_drv_t) EMPTY_STRUCT);
727       vec_elt_at_index (dcm->drv, drv_id)->name = info.driver_name;
728       dev->drv_id = drv_id;
729       vec_add1 (vec_elt_at_index (dcm->drv, drv_id)->devs, i);
730
731       if (!(info.feature_flags & RTE_CRYPTODEV_FF_SYM_OPERATION_CHAINING))
732         continue;
733
734       if ((error = crypto_dev_conf (i, dev->max_qp, dev->numa)))
735         {
736           clib_error_report (error);
737           continue;
738         }
739
740       max_res_idx = (dev->max_qp / 2) - 1;
741
742       vec_validate (dev->free_resources, max_res_idx);
743
744       res_idx = vec_len (dcm->resource);
745       vec_validate_init_empty_aligned (dcm->resource, res_idx + max_res_idx,
746                                        (crypto_resource_t) EMPTY_STRUCT,
747                                        CLIB_CACHE_LINE_BYTES);
748
749       for (j = 0; j <= max_res_idx; j++, res_idx++)
750         {
751           vec_elt (dev->free_resources, max_res_idx - j) = res_idx;
752           res = &dcm->resource[res_idx];
753           res->dev_id = i;
754           res->drv_id = drv_id;
755           res->qp_id = j * 2;
756           res->numa = dev->numa;
757           res->thread_idx = (u16) ~ 0;
758         }
759
760       crypto_parse_capabilities (dev, info.capabilities, n_mains);
761     }
762 }
763
764 void
765 crypto_auto_placement (void)
766 {
767   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
768   crypto_resource_t *res;
769   crypto_worker_main_t *cwm;
770   crypto_dev_t *dev;
771   u32 thread_idx, skip_master;
772   u16 res_idx, *idx;
773   u8 used;
774   u16 i;
775
776   skip_master = vlib_num_workers () > 0;
777
778   /* *INDENT-OFF* */
779   vec_foreach (dev, dcm->dev)
780     {
781       vec_foreach_index (thread_idx, dcm->workers_main)
782         {
783           if (vec_len (dev->free_resources) == 0)
784             break;
785
786           if (thread_idx < skip_master)
787             continue;
788
789           /* Check thread is not already using the device */
790           vec_foreach (idx, dev->used_resources)
791             if (dcm->resource[idx[0]].thread_idx == thread_idx)
792               continue;
793
794           cwm = vec_elt_at_index (dcm->workers_main, thread_idx);
795
796           used = 0;
797           res_idx = vec_pop (dev->free_resources);
798
799           /* Set device only for supported algos */
800           for (i = 0; i < IPSEC_CRYPTO_N_ALG; i++)
801             if (dev->cipher_support[i] &&
802                 cwm->cipher_resource_idx[i] == (u16) ~0)
803               {
804                 dcm->cipher_algs[i].disabled--;
805                 cwm->cipher_resource_idx[i] = res_idx;
806                 used = 1;
807               }
808
809           for (i = 0; i < IPSEC_INTEG_N_ALG; i++)
810             if (dev->auth_support[i] &&
811                 cwm->auth_resource_idx[i] == (u16) ~0)
812               {
813                 dcm->auth_algs[i].disabled--;
814                 cwm->auth_resource_idx[i] = res_idx;
815                 used = 1;
816               }
817
818           if (!used)
819             {
820               vec_add1 (dev->free_resources, res_idx);
821               continue;
822             }
823
824           vec_add1 (dev->used_resources, res_idx);
825
826           res = vec_elt_at_index (dcm->resource, res_idx);
827
828           ASSERT (res->thread_idx == (u16) ~0);
829           res->thread_idx = thread_idx;
830
831           /* Add device to vector of polling resources */
832           vec_add1 (cwm->resource_idx, res_idx);
833         }
834     }
835   /* *INDENT-ON* */
836 }
837
838 static void
839 crypto_op_init (struct rte_mempool *mempool,
840                 void *_arg __attribute__ ((unused)),
841                 void *_obj, unsigned i __attribute__ ((unused)))
842 {
843   struct rte_crypto_op *op = _obj;
844
845 #if DPDK_NO_AEAD
846   op->sym = (struct rte_crypto_sym_op *) (op + 1);
847   op->sym->sess_type = RTE_CRYPTO_SYM_OP_WITH_SESSION;
848 #else
849   op->sess_type = RTE_CRYPTO_OP_WITH_SESSION;
850 #endif
851   op->type = RTE_CRYPTO_OP_TYPE_SYMMETRIC;
852   op->status = RTE_CRYPTO_OP_STATUS_NOT_PROCESSED;
853   op->phys_addr = rte_mem_virt2phy (_obj);
854   op->mempool = mempool;
855 }
856
857 static clib_error_t *
858 crypto_create_crypto_op_pool (vlib_main_t * vm, u8 numa)
859 {
860   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
861   dpdk_config_main_t *conf = &dpdk_config_main;
862   crypto_data_t *data;
863   u8 *pool_name;
864   u32 pool_priv_size = sizeof (struct rte_crypto_op_pool_private);
865   struct rte_crypto_op_pool_private *priv;
866   struct rte_mempool *mp;
867   clib_error_t *error = NULL;
868   vlib_physmem_region_index_t pri;
869
870   data = vec_elt_at_index (dcm->data, numa);
871
872   /* Already allocated */
873   if (data->crypto_op)
874     return NULL;
875
876   pool_name = format (0, "crypto_pool_numa%u%c", numa, 0);
877
878   error =
879     dpdk_pool_create (vm, pool_name, crypto_op_len (), conf->num_mbufs,
880                       pool_priv_size, 512, numa, &mp, &pri);
881
882   vec_free (pool_name);
883
884   if (error)
885     return error;
886
887   /* Initialize mempool private data */
888   priv = rte_mempool_get_priv (mp);
889   priv->priv_size = pool_priv_size;
890   priv->type = RTE_CRYPTO_OP_TYPE_SYMMETRIC;
891
892   /* call the object initializers */
893   rte_mempool_obj_iter (mp, crypto_op_init, 0);
894
895   data->crypto_op = mp;
896
897   return NULL;
898 }
899
900 static clib_error_t *
901 crypto_create_session_h_pool (vlib_main_t * vm, u8 numa)
902 {
903 #if DPDK_NO_AEAD
904   return NULL;
905 #else
906   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
907   crypto_data_t *data;
908   u8 *pool_name;
909   struct rte_mempool *mp;
910   clib_error_t *error = NULL;
911   vlib_physmem_region_index_t pri;
912   u32 elt_size;
913
914   data = vec_elt_at_index (dcm->data, numa);
915
916   if (data->session_h)
917     return NULL;
918
919   pool_name = format (0, "session_h_pool_numa%u%c", numa, 0);
920
921   elt_size = rte_cryptodev_get_header_session_size ();
922
923   error =
924     dpdk_pool_create (vm, pool_name, elt_size, DPDK_CRYPTO_NB_SESS_OBJS,
925                       0, 512, numa, &mp, &pri);
926
927   vec_free (pool_name);
928
929   if (error)
930     return error;
931
932   data->session_h = mp;
933
934   return NULL;
935 #endif
936 }
937
938 static clib_error_t *
939 crypto_create_session_drv_pool (vlib_main_t * vm, crypto_dev_t * dev)
940 {
941 #if DPDK_NO_AEAD
942   return NULL;
943 #else
944   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
945   crypto_data_t *data;
946   u8 *pool_name;
947   struct rte_mempool *mp;
948   clib_error_t *error = NULL;
949   vlib_physmem_region_index_t pri;
950   u32 elt_size;
951   u8 numa = dev->numa;
952
953   data = vec_elt_at_index (dcm->data, numa);
954
955   vec_validate (data->session_drv, dev->drv_id);
956   vec_validate (data->session_drv_failed, dev->drv_id);
957
958   if (data->session_drv[dev->drv_id])
959     return NULL;
960
961   pool_name = format (0, "session_drv%u_pool_numa%u%c", dev->drv_id, numa, 0);
962   elt_size = rte_cryptodev_get_private_session_size (dev->id);
963
964   error =
965     dpdk_pool_create (vm, pool_name, elt_size, DPDK_CRYPTO_NB_SESS_OBJS,
966                       0, 512, numa, &mp, &pri);
967
968   vec_free (pool_name);
969
970   if (error)
971     return error;
972
973   data->session_drv[dev->drv_id] = mp;
974
975   return NULL;
976 #endif
977 }
978
979 static clib_error_t *
980 crypto_create_pools (vlib_main_t * vm)
981 {
982   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
983   clib_error_t *error = NULL;
984   crypto_dev_t *dev;
985
986   /* *INDENT-OFF* */
987   vec_foreach (dev, dcm->dev)
988     {
989       vec_validate_aligned (dcm->data, dev->numa, CLIB_CACHE_LINE_BYTES);
990
991       error = crypto_create_crypto_op_pool (vm, dev->numa);
992       if (error)
993         return error;
994
995       error = crypto_create_session_h_pool (vm, dev->numa);
996       if (error)
997         return error;
998
999       error = crypto_create_session_drv_pool (vm, dev);
1000       if (error)
1001         return error;
1002     }
1003   /* *INDENT-ON* */
1004
1005   return NULL;
1006 }
1007
1008 static void
1009 crypto_disable (void)
1010 {
1011   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
1012   crypto_data_t *data;
1013   u8 i;
1014
1015   dcm->enabled = 0;
1016
1017   /* *INDENT-OFF* */
1018   vec_foreach (data, dcm->data)
1019     {
1020       rte_mempool_free (data->crypto_op);
1021       rte_mempool_free (data->session_h);
1022
1023       vec_foreach_index (i, data->session_drv)
1024         rte_mempool_free (data->session_drv[i]);
1025
1026       vec_free (data->session_drv);
1027     }
1028   /* *INDENT-ON* */
1029
1030   vec_free (dcm->data);
1031   vec_free (dcm->workers_main);
1032   vec_free (dcm->sa_session);
1033   vec_free (dcm->dev);
1034   vec_free (dcm->resource);
1035   vec_free (dcm->cipher_algs);
1036   vec_free (dcm->auth_algs);
1037 }
1038
1039 static uword
1040 dpdk_ipsec_process (vlib_main_t * vm, vlib_node_runtime_t * rt,
1041                     vlib_frame_t * f)
1042 {
1043   ipsec_main_t *im = &ipsec_main;
1044   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
1045   vlib_thread_main_t *tm = vlib_get_thread_main ();
1046   crypto_worker_main_t *cwm;
1047   clib_error_t *error = NULL;
1048   u32 i, skip_master, n_mains;
1049
1050   n_mains = tm->n_vlib_mains;
1051   skip_master = vlib_num_workers () > 0;
1052
1053   algos_init (n_mains - skip_master);
1054
1055   crypto_scan_devs (n_mains - skip_master);
1056
1057   if (!(dcm->enabled))
1058     {
1059       clib_warning ("not enough DPDK crypto resources, default to OpenSSL");
1060       crypto_disable ();
1061       return 0;
1062     }
1063
1064   vec_validate_init_empty_aligned (dcm->workers_main, n_mains - 1,
1065                                    (crypto_worker_main_t) EMPTY_STRUCT,
1066                                    CLIB_CACHE_LINE_BYTES);
1067
1068   /* *INDENT-OFF* */
1069   vec_foreach (cwm, dcm->workers_main)
1070     {
1071       vec_validate_init_empty_aligned (cwm->ops, VLIB_FRAME_SIZE - 1, 0,
1072                                        CLIB_CACHE_LINE_BYTES);
1073       memset (cwm->cipher_resource_idx, ~0,
1074               IPSEC_CRYPTO_N_ALG * sizeof(*cwm->cipher_resource_idx));
1075       memset (cwm->auth_resource_idx, ~0,
1076               IPSEC_INTEG_N_ALG * sizeof(*cwm->auth_resource_idx));
1077     }
1078   /* *INDENT-ON* */
1079
1080   crypto_auto_placement ();
1081
1082   error = crypto_create_pools (vm);
1083   if (error)
1084     {
1085       clib_error_report (error);
1086       crypto_disable ();
1087       return 0;
1088     }
1089
1090   /* Add new next node and set it as default */
1091   vlib_node_t *node, *next_node;
1092
1093   next_node = vlib_get_node_by_name (vm, (u8 *) "dpdk-esp-encrypt");
1094   ASSERT (next_node);
1095   node = vlib_get_node_by_name (vm, (u8 *) "ipsec-output-ip4");
1096   ASSERT (node);
1097   im->esp_encrypt_node_index = next_node->index;
1098   im->esp_encrypt_next_index =
1099     vlib_node_add_next (vm, node->index, next_node->index);
1100
1101   next_node = vlib_get_node_by_name (vm, (u8 *) "dpdk-esp-decrypt");
1102   ASSERT (next_node);
1103   node = vlib_get_node_by_name (vm, (u8 *) "ipsec-input-ip4");
1104   ASSERT (node);
1105   im->esp_decrypt_node_index = next_node->index;
1106   im->esp_decrypt_next_index =
1107     vlib_node_add_next (vm, node->index, next_node->index);
1108
1109   im->cb.check_support_cb = dpdk_ipsec_check_support;
1110   im->cb.add_del_sa_sess_cb = add_del_sa_session;
1111
1112   node = vlib_get_node_by_name (vm, (u8 *) "dpdk-crypto-input");
1113   ASSERT (node);
1114   for (i = skip_master; i < n_mains; i++)
1115     vlib_node_set_state (vlib_mains[i], node->index, VLIB_NODE_STATE_POLLING);
1116   return 0;
1117 }
1118
1119 /* *INDENT-OFF* */
1120 VLIB_REGISTER_NODE (dpdk_ipsec_process_node,static) = {
1121     .function = dpdk_ipsec_process,
1122     .type = VLIB_NODE_TYPE_PROCESS,
1123     .name = "dpdk-ipsec-process",
1124     .process_log2_n_stack_bytes = 17,
1125 };
1126 /* *INDENT-ON* */
1127
1128 /*
1129  * fd.io coding-style-patch-verification: ON
1130  *
1131  * Local Variables:
1132  * eval: (c-set-style "gnu")
1133  * End:
1134  */