dpdk-ipsec: use single queue pair per crypto resource
[vpp.git] / src / plugins / dpdk / ipsec / ipsec.c
1 /*
2  * Copyright (c) 2017 Intel and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 #include <vnet/vnet.h>
16 #include <vnet/ip/ip.h>
17 #include <vnet/api_errno.h>
18 #include <vnet/ipsec/ipsec.h>
19 #include <vlib/node_funcs.h>
20
21 #include <dpdk/device/dpdk.h>
22 #include <dpdk/buffer.h>
23 #include <dpdk/ipsec/ipsec.h>
24
25 dpdk_crypto_main_t dpdk_crypto_main;
26
27 #define EMPTY_STRUCT {0}
28 #define NUM_CRYPTO_MBUFS 16384
29
30 static void
31 algos_init (u32 n_mains)
32 {
33   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
34   crypto_alg_t *a;
35
36   vec_validate_aligned (dcm->cipher_algs, IPSEC_CRYPTO_N_ALG - 1, 8);
37
38   {
39 #define _(v,f,str) \
40   dcm->cipher_algs[IPSEC_CRYPTO_ALG_##f].name = str; \
41   dcm->cipher_algs[IPSEC_CRYPTO_ALG_##f].disabled = n_mains;
42     foreach_ipsec_crypto_alg
43 #undef _
44   }
45
46   /* Minimum boundary for ciphers is 4B, required by ESP */
47   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_NONE];
48   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
49   a->alg = RTE_CRYPTO_CIPHER_NULL;
50   a->boundary = 4;              /* 1 */
51   a->key_len = 0;
52   a->iv_len = 0;
53
54   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CBC_128];
55   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
56   a->alg = RTE_CRYPTO_CIPHER_AES_CBC;
57   a->boundary = 16;
58   a->key_len = 16;
59   a->iv_len = 16;
60
61   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CBC_192];
62   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
63   a->alg = RTE_CRYPTO_CIPHER_AES_CBC;
64   a->boundary = 16;
65   a->key_len = 24;
66   a->iv_len = 16;
67
68   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CBC_256];
69   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
70   a->alg = RTE_CRYPTO_CIPHER_AES_CBC;
71   a->boundary = 16;
72   a->key_len = 32;
73   a->iv_len = 16;
74
75   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CTR_128];
76   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
77   a->alg = RTE_CRYPTO_CIPHER_AES_CTR;
78   a->boundary = 4;              /* 1 */
79   a->key_len = 16;
80   a->iv_len = 8;
81
82   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CTR_192];
83   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
84   a->alg = RTE_CRYPTO_CIPHER_AES_CTR;
85   a->boundary = 4;              /* 1 */
86   a->key_len = 24;
87   a->iv_len = 8;
88
89   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CTR_256];
90   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
91   a->alg = RTE_CRYPTO_CIPHER_AES_CTR;
92   a->boundary = 4;              /* 1 */
93   a->key_len = 32;
94   a->iv_len = 8;
95
96 #define AES_GCM_TYPE RTE_CRYPTO_SYM_XFORM_AEAD
97 #define AES_GCM_ALG RTE_CRYPTO_AEAD_AES_GCM
98
99   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_GCM_128];
100   a->type = AES_GCM_TYPE;
101   a->alg = AES_GCM_ALG;
102   a->boundary = 4;              /* 1 */
103   a->key_len = 16;
104   a->iv_len = 8;
105   a->trunc_size = 16;
106
107   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_GCM_192];
108   a->type = AES_GCM_TYPE;
109   a->alg = AES_GCM_ALG;
110   a->boundary = 4;              /* 1 */
111   a->key_len = 24;
112   a->iv_len = 8;
113   a->trunc_size = 16;
114
115   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_GCM_256];
116   a->type = AES_GCM_TYPE;
117   a->alg = AES_GCM_ALG;
118   a->boundary = 4;              /* 1 */
119   a->key_len = 32;
120   a->iv_len = 8;
121   a->trunc_size = 16;
122
123   vec_validate (dcm->auth_algs, IPSEC_INTEG_N_ALG - 1);
124
125   {
126 #define _(v,f,str) \
127   dcm->auth_algs[IPSEC_INTEG_ALG_##f].name = str; \
128   dcm->auth_algs[IPSEC_INTEG_ALG_##f].disabled = n_mains;
129     foreach_ipsec_integ_alg
130 #undef _
131   }
132
133   a = &dcm->auth_algs[IPSEC_INTEG_ALG_NONE];
134   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
135   a->alg = RTE_CRYPTO_AUTH_NULL;
136   a->key_len = 0;
137   a->trunc_size = 0;
138
139   a = &dcm->auth_algs[IPSEC_INTEG_ALG_MD5_96];
140   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
141   a->alg = RTE_CRYPTO_AUTH_MD5_HMAC;
142   a->key_len = 16;
143   a->trunc_size = 12;
144
145   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA1_96];
146   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
147   a->alg = RTE_CRYPTO_AUTH_SHA1_HMAC;
148   a->key_len = 20;
149   a->trunc_size = 12;
150
151   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA_256_96];
152   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
153   a->alg = RTE_CRYPTO_AUTH_SHA256_HMAC;
154   a->key_len = 32;
155   a->trunc_size = 12;
156
157   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA_256_128];
158   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
159   a->alg = RTE_CRYPTO_AUTH_SHA256_HMAC;
160   a->key_len = 32;
161   a->trunc_size = 16;
162
163   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA_384_192];
164   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
165   a->alg = RTE_CRYPTO_AUTH_SHA384_HMAC;
166   a->key_len = 48;
167   a->trunc_size = 24;
168
169   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA_512_256];
170   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
171   a->alg = RTE_CRYPTO_AUTH_SHA512_HMAC;
172   a->key_len = 64;
173   a->trunc_size = 32;
174 }
175
176 static u8
177 cipher_alg_index (const crypto_alg_t * alg)
178 {
179   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
180
181   return (alg - dcm->cipher_algs);
182 }
183
184 static u8
185 auth_alg_index (const crypto_alg_t * alg)
186 {
187   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
188
189   return (alg - dcm->auth_algs);
190 }
191
192 static crypto_alg_t *
193 cipher_cap_to_alg (const struct rte_cryptodev_capabilities *cap, u8 key_len)
194 {
195   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
196   crypto_alg_t *alg;
197
198   if (cap->op != RTE_CRYPTO_OP_TYPE_SYMMETRIC)
199     return NULL;
200
201   /* *INDENT-OFF* */
202   vec_foreach (alg, dcm->cipher_algs)
203     {
204       if ((cap->sym.xform_type == RTE_CRYPTO_SYM_XFORM_CIPHER) &&
205           (alg->type == RTE_CRYPTO_SYM_XFORM_CIPHER) &&
206           (cap->sym.cipher.algo == alg->alg) &&
207           (alg->key_len == key_len))
208         return alg;
209       if ((cap->sym.xform_type == RTE_CRYPTO_SYM_XFORM_AEAD) &&
210           (alg->type == RTE_CRYPTO_SYM_XFORM_AEAD) &&
211           (cap->sym.aead.algo == alg->alg) &&
212           (alg->key_len == key_len))
213         return alg;
214     }
215   /* *INDENT-ON* */
216
217   return NULL;
218 }
219
220 static crypto_alg_t *
221 auth_cap_to_alg (const struct rte_cryptodev_capabilities *cap, u8 trunc_size)
222 {
223   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
224   crypto_alg_t *alg;
225
226   if ((cap->op != RTE_CRYPTO_OP_TYPE_SYMMETRIC) ||
227       (cap->sym.xform_type != RTE_CRYPTO_SYM_XFORM_AUTH))
228     return NULL;
229
230   /* *INDENT-OFF* */
231   vec_foreach (alg, dcm->auth_algs)
232     {
233       if ((cap->sym.auth.algo == alg->alg) &&
234           (alg->trunc_size == trunc_size))
235         return alg;
236     }
237   /* *INDENT-ON* */
238
239   return NULL;
240 }
241
242 static void
243 crypto_set_aead_xform (struct rte_crypto_sym_xform *xform,
244                        ipsec_sa_t * sa, u8 is_outbound)
245 {
246   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
247   crypto_alg_t *c;
248
249   c = vec_elt_at_index (dcm->cipher_algs, sa->crypto_alg);
250
251   ASSERT (c->type == RTE_CRYPTO_SYM_XFORM_AEAD);
252
253   xform->type = RTE_CRYPTO_SYM_XFORM_AEAD;
254   xform->aead.algo = c->alg;
255   xform->aead.key.data = sa->crypto_key;
256   xform->aead.key.length = c->key_len;
257   xform->aead.iv.offset =
258     crypto_op_get_priv_offset () + offsetof (dpdk_op_priv_t, cb);
259   xform->aead.iv.length = 12;
260   xform->aead.digest_length = c->trunc_size;
261   xform->aead.aad_length = sa->use_esn ? 12 : 8;
262   xform->next = NULL;
263
264   if (is_outbound)
265     xform->aead.op = RTE_CRYPTO_AEAD_OP_ENCRYPT;
266   else
267     xform->aead.op = RTE_CRYPTO_AEAD_OP_DECRYPT;
268 }
269
270 static void
271 crypto_set_cipher_xform (struct rte_crypto_sym_xform *xform,
272                          ipsec_sa_t * sa, u8 is_outbound)
273 {
274   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
275   crypto_alg_t *c;
276
277   c = vec_elt_at_index (dcm->cipher_algs, sa->crypto_alg);
278
279   ASSERT (c->type == RTE_CRYPTO_SYM_XFORM_CIPHER);
280
281   xform->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
282   xform->cipher.algo = c->alg;
283   xform->cipher.key.data = sa->crypto_key;
284   xform->cipher.key.length = c->key_len;
285   xform->cipher.iv.offset =
286     crypto_op_get_priv_offset () + offsetof (dpdk_op_priv_t, cb);
287   xform->cipher.iv.length = c->iv_len;
288   xform->next = NULL;
289
290   if (is_outbound)
291     xform->cipher.op = RTE_CRYPTO_CIPHER_OP_ENCRYPT;
292   else
293     xform->cipher.op = RTE_CRYPTO_CIPHER_OP_DECRYPT;
294 }
295
296 static void
297 crypto_set_auth_xform (struct rte_crypto_sym_xform *xform,
298                        ipsec_sa_t * sa, u8 is_outbound)
299 {
300   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
301   crypto_alg_t *a;
302
303   a = vec_elt_at_index (dcm->auth_algs, sa->integ_alg);
304
305   ASSERT (a->type == RTE_CRYPTO_SYM_XFORM_AUTH);
306
307   xform->type = RTE_CRYPTO_SYM_XFORM_AUTH;
308   xform->auth.algo = a->alg;
309   xform->auth.key.data = sa->integ_key;
310   xform->auth.key.length = a->key_len;
311   xform->auth.digest_length = a->trunc_size;
312   xform->next = NULL;
313
314   if (is_outbound)
315     xform->auth.op = RTE_CRYPTO_AUTH_OP_GENERATE;
316   else
317     xform->auth.op = RTE_CRYPTO_AUTH_OP_VERIFY;
318 }
319
320 clib_error_t *
321 create_sym_session (struct rte_cryptodev_sym_session **session,
322                     u32 sa_idx,
323                     crypto_resource_t * res,
324                     crypto_worker_main_t * cwm, u8 is_outbound)
325 {
326   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
327   ipsec_main_t *im = &ipsec_main;
328   crypto_data_t *data;
329   ipsec_sa_t *sa;
330   struct rte_crypto_sym_xform cipher_xform = { 0 };
331   struct rte_crypto_sym_xform auth_xform = { 0 };
332   struct rte_crypto_sym_xform *xfs;
333   struct rte_cryptodev_sym_session **s;
334   clib_error_t *erorr = 0;
335
336
337   sa = pool_elt_at_index (im->sad, sa_idx);
338
339   if ((sa->crypto_alg == IPSEC_CRYPTO_ALG_AES_GCM_128) |
340       (sa->crypto_alg == IPSEC_CRYPTO_ALG_AES_GCM_192) |
341       (sa->crypto_alg == IPSEC_CRYPTO_ALG_AES_GCM_256))
342     {
343       crypto_set_aead_xform (&cipher_xform, sa, is_outbound);
344       xfs = &cipher_xform;
345     }
346   else
347     {
348       crypto_set_cipher_xform (&cipher_xform, sa, is_outbound);
349       crypto_set_auth_xform (&auth_xform, sa, is_outbound);
350
351       if (is_outbound)
352         {
353           cipher_xform.next = &auth_xform;
354           xfs = &cipher_xform;
355         }
356       else
357         {
358           auth_xform.next = &cipher_xform;
359           xfs = &auth_xform;
360         }
361     }
362
363   data = vec_elt_at_index (dcm->data, res->numa);
364   clib_spinlock_lock_if_init (&data->lockp);
365
366   /*
367    * DPDK_VER >= 1708:
368    *   Multiple worker/threads share the session for an SA
369    *   Single session per SA, initialized for each device driver
370    */
371   s = (void *) hash_get (data->session_by_sa_index, sa_idx);
372
373   if (!s)
374     {
375       session[0] = rte_cryptodev_sym_session_create (data->session_h);
376       if (!session[0])
377         {
378           data->session_h_failed += 1;
379           erorr = clib_error_return (0, "failed to create session header");
380           goto done;
381         }
382       hash_set (data->session_by_sa_index, sa_idx, session[0]);
383     }
384   else
385     session[0] = s[0];
386
387   struct rte_mempool **mp;
388   mp = vec_elt_at_index (data->session_drv, res->drv_id);
389   ASSERT (mp[0] != NULL);
390
391   i32 ret =
392     rte_cryptodev_sym_session_init (res->dev_id, session[0], xfs, mp[0]);
393   if (ret)
394     {
395       data->session_drv_failed[res->drv_id] += 1;
396       erorr = clib_error_return (0, "failed to init session for drv %u",
397                                  res->drv_id);
398       goto done;
399     }
400
401   add_session_by_drv_and_sa_idx (session[0], data, res->drv_id, sa_idx);
402
403 done:
404   clib_spinlock_unlock_if_init (&data->lockp);
405   return erorr;
406 }
407
408 static void __attribute__ ((unused)) clear_and_free_obj (void *obj)
409 {
410   struct rte_mempool *mp = rte_mempool_from_obj (obj);
411
412   clib_memset (obj, 0, mp->elt_size);
413
414   rte_mempool_put (mp, obj);
415 }
416
417 /* This is from rte_cryptodev_pmd.h */
418 static inline void *
419 get_session_private_data (const struct rte_cryptodev_sym_session *sess,
420                           uint8_t driver_id)
421 {
422   return sess->sess_private_data[driver_id];
423 }
424
425 /* This is from rte_cryptodev_pmd.h */
426 static inline void
427 set_session_private_data (struct rte_cryptodev_sym_session *sess,
428                           uint8_t driver_id, void *private_data)
429 {
430   sess->sess_private_data[driver_id] = private_data;
431 }
432
433 static clib_error_t *
434 dpdk_crypto_session_disposal (crypto_session_disposal_t * v, u64 ts)
435 {
436   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
437   crypto_session_disposal_t *s;
438   void *drv_session;
439   u32 drv_id;
440   i32 ret;
441
442   /* *INDENT-OFF* */
443   vec_foreach (s, v)
444     {
445       /* ordered vector by timestamp */
446       if (!(s->ts + dcm->session_timeout < ts))
447         break;
448
449       vec_foreach_index (drv_id, dcm->drv)
450         {
451           drv_session = get_session_private_data (s->session, drv_id);
452           if (!drv_session)
453             continue;
454
455           /*
456            * Custom clear to avoid finding a dev_id for drv_id:
457            *  ret = rte_cryptodev_sym_session_clear (dev_id, drv_session);
458            *  ASSERT (!ret);
459            */
460           clear_and_free_obj (drv_session);
461
462           set_session_private_data (s->session, drv_id, NULL);
463         }
464
465       if (rte_mempool_from_obj(s->session))
466         {
467           ret = rte_cryptodev_sym_session_free (s->session);
468           ASSERT (!ret);
469         }
470     }
471   /* *INDENT-ON* */
472
473   if (s < vec_end (v))
474     vec_delete (v, s - v, 0);
475   else
476     vec_reset_length (v);
477
478   return 0;
479 }
480
481 static clib_error_t *
482 add_del_sa_session (u32 sa_index, u8 is_add)
483 {
484   ipsec_main_t *im = &ipsec_main;
485   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
486   crypto_data_t *data;
487   struct rte_cryptodev_sym_session *s;
488   uword *val;
489   u32 drv_id;
490
491   if (is_add)
492     {
493 #if 1
494       ipsec_sa_t *sa = pool_elt_at_index (im->sad, sa_index);
495       u32 seed;
496       switch (sa->crypto_alg)
497         {
498         case IPSEC_CRYPTO_ALG_AES_GCM_128:
499         case IPSEC_CRYPTO_ALG_AES_GCM_192:
500         case IPSEC_CRYPTO_ALG_AES_GCM_256:
501           clib_memcpy (&sa->salt, &sa->crypto_key[sa->crypto_key_len - 4], 4);
502           break;
503         default:
504           seed = (u32) clib_cpu_time_now ();
505           sa->salt = random_u32 (&seed);
506         }
507 #endif
508       return 0;
509     }
510
511   /* *INDENT-OFF* */
512   vec_foreach (data, dcm->data)
513     {
514       clib_spinlock_lock_if_init (&data->lockp);
515       val = hash_get (data->session_by_sa_index, sa_index);
516       if (val)
517         {
518           s = (struct rte_cryptodev_sym_session *) val[0];
519           vec_foreach_index (drv_id, dcm->drv)
520             {
521               val = (uword*) get_session_by_drv_and_sa_idx (data, drv_id, sa_index);
522               if (val)
523                 add_session_by_drv_and_sa_idx(NULL, data, drv_id, sa_index);
524             }
525
526           hash_unset (data->session_by_sa_index, sa_index);
527
528           u64 ts = unix_time_now_nsec ();
529           dpdk_crypto_session_disposal (data->session_disposal, ts);
530
531           crypto_session_disposal_t sd;
532           sd.ts = ts;
533           sd.session = s;
534
535           vec_add1 (data->session_disposal, sd);
536         }
537       clib_spinlock_unlock_if_init (&data->lockp);
538     }
539   /* *INDENT-ON* */
540
541   return 0;
542 }
543
544 static clib_error_t *
545 dpdk_ipsec_check_support (ipsec_sa_t * sa)
546 {
547   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
548
549   if (sa->integ_alg == IPSEC_INTEG_ALG_NONE)
550     switch (sa->crypto_alg)
551       {
552       case IPSEC_CRYPTO_ALG_NONE:
553       case IPSEC_CRYPTO_ALG_AES_GCM_128:
554       case IPSEC_CRYPTO_ALG_AES_GCM_192:
555       case IPSEC_CRYPTO_ALG_AES_GCM_256:
556         break;
557       default:
558         return clib_error_return (0, "unsupported integ-alg %U crypto-alg %U",
559                                   format_ipsec_integ_alg, sa->integ_alg,
560                                   format_ipsec_crypto_alg, sa->crypto_alg);
561       }
562
563   /* XXX do we need the NONE check? */
564   if (sa->crypto_alg != IPSEC_CRYPTO_ALG_NONE &&
565       dcm->cipher_algs[sa->crypto_alg].disabled)
566     return clib_error_return (0, "disabled crypto-alg %U",
567                               format_ipsec_crypto_alg, sa->crypto_alg);
568
569   /* XXX do we need the NONE check? */
570   if (sa->integ_alg != IPSEC_INTEG_ALG_NONE &&
571       dcm->auth_algs[sa->integ_alg].disabled)
572     return clib_error_return (0, "disabled integ-alg %U",
573                               format_ipsec_integ_alg, sa->integ_alg);
574   return NULL;
575 }
576
577 static void
578 crypto_parse_capabilities (crypto_dev_t * dev,
579                            const struct rte_cryptodev_capabilities *cap,
580                            u32 n_mains)
581 {
582   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
583   crypto_alg_t *alg;
584   u8 len, inc;
585
586   for (; cap->op != RTE_CRYPTO_OP_TYPE_UNDEFINED; cap++)
587     {
588       /* A single capability maps to multiple cipher/auth algorithms */
589       switch (cap->sym.xform_type)
590         {
591         case RTE_CRYPTO_SYM_XFORM_AEAD:
592         case RTE_CRYPTO_SYM_XFORM_CIPHER:
593           inc = cap->sym.cipher.key_size.increment;
594           inc = inc ? inc : 1;
595           for (len = cap->sym.cipher.key_size.min;
596                len <= cap->sym.cipher.key_size.max; len += inc)
597             {
598               alg = cipher_cap_to_alg (cap, len);
599               if (!alg)
600                 continue;
601               dev->cipher_support[cipher_alg_index (alg)] = 1;
602               alg->resources += vec_len (dev->free_resources);
603               /* At least enough resources to support one algo */
604               dcm->enabled |= (alg->resources >= n_mains);
605             }
606           break;
607         case RTE_CRYPTO_SYM_XFORM_AUTH:
608           inc = cap->sym.auth.digest_size.increment;
609           inc = inc ? inc : 1;
610           for (len = cap->sym.auth.digest_size.min;
611                len <= cap->sym.auth.digest_size.max; len += inc)
612             {
613               alg = auth_cap_to_alg (cap, len);
614               if (!alg)
615                 continue;
616               dev->auth_support[auth_alg_index (alg)] = 1;
617               alg->resources += vec_len (dev->free_resources);
618               /* At least enough resources to support one algo */
619               dcm->enabled |= (alg->resources >= n_mains);
620             }
621           break;
622         default:
623           ;
624         }
625     }
626 }
627
628 #define DPDK_CRYPTO_N_QUEUE_DESC  2048
629 #define DPDK_CRYPTO_NB_SESS_OBJS  20000
630
631 static clib_error_t *
632 crypto_dev_conf (u8 dev, u16 n_qp, u8 numa)
633 {
634   struct rte_cryptodev_config dev_conf;
635   struct rte_cryptodev_qp_conf qp_conf;
636   i32 ret;
637   u16 qp;
638   char *error_str;
639
640   dev_conf.socket_id = numa;
641   dev_conf.nb_queue_pairs = n_qp;
642
643   error_str = "failed to configure crypto device %u";
644   ret = rte_cryptodev_configure (dev, &dev_conf);
645   if (ret < 0)
646     return clib_error_return (0, error_str, dev);
647
648   error_str = "failed to setup crypto device %u queue pair %u";
649   qp_conf.nb_descriptors = DPDK_CRYPTO_N_QUEUE_DESC;
650   for (qp = 0; qp < n_qp; qp++)
651     {
652       ret = rte_cryptodev_queue_pair_setup (dev, qp, &qp_conf, numa, NULL);
653       if (ret < 0)
654         return clib_error_return (0, error_str, dev, qp);
655     }
656
657   error_str = "failed to start crypto device %u";
658   if (rte_cryptodev_start (dev))
659     return clib_error_return (0, error_str, dev);
660
661   return 0;
662 }
663
664 static void
665 crypto_scan_devs (u32 n_mains)
666 {
667   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
668   struct rte_cryptodev *cryptodev;
669   struct rte_cryptodev_info info;
670   crypto_dev_t *dev;
671   crypto_resource_t *res;
672   clib_error_t *error;
673   u32 i;
674   u16 max_res_idx, res_idx, j;
675   u8 drv_id;
676
677   vec_validate_init_empty (dcm->dev, rte_cryptodev_count () - 1,
678                            (crypto_dev_t) EMPTY_STRUCT);
679
680   for (i = 0; i < rte_cryptodev_count (); i++)
681     {
682       dev = vec_elt_at_index (dcm->dev, i);
683
684       cryptodev = &rte_cryptodevs[i];
685       rte_cryptodev_info_get (i, &info);
686
687       dev->id = i;
688       dev->name = cryptodev->data->name;
689       dev->numa = rte_cryptodev_socket_id (i);
690       dev->features = info.feature_flags;
691       dev->max_qp = info.max_nb_queue_pairs;
692       drv_id = info.driver_id;
693       if (drv_id >= vec_len (dcm->drv))
694         vec_validate_init_empty (dcm->drv, drv_id,
695                                  (crypto_drv_t) EMPTY_STRUCT);
696       vec_elt_at_index (dcm->drv, drv_id)->name = info.driver_name;
697       dev->drv_id = drv_id;
698       vec_add1 (vec_elt_at_index (dcm->drv, drv_id)->devs, i);
699
700       if (!(info.feature_flags & RTE_CRYPTODEV_FF_SYM_OPERATION_CHAINING))
701         continue;
702
703       if ((error = crypto_dev_conf (i, dev->max_qp, dev->numa)))
704         {
705           clib_error_report (error);
706           continue;
707         }
708
709       max_res_idx = dev->max_qp - 1;
710
711       vec_validate (dev->free_resources, max_res_idx);
712
713       res_idx = vec_len (dcm->resource);
714       vec_validate_init_empty_aligned (dcm->resource, res_idx + max_res_idx,
715                                        (crypto_resource_t) EMPTY_STRUCT,
716                                        CLIB_CACHE_LINE_BYTES);
717
718       for (j = 0; j <= max_res_idx; j++)
719         {
720           vec_elt (dev->free_resources, max_res_idx - j) = res_idx + j;
721           res = &dcm->resource[res_idx + j];
722           res->dev_id = i;
723           res->drv_id = drv_id;
724           res->qp_id = j;
725           res->numa = dev->numa;
726           res->thread_idx = (u16) ~ 0;
727         }
728
729       crypto_parse_capabilities (dev, info.capabilities, n_mains);
730     }
731 }
732
733 void
734 crypto_auto_placement (void)
735 {
736   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
737   crypto_resource_t *res;
738   crypto_worker_main_t *cwm;
739   crypto_dev_t *dev;
740   u32 thread_idx, skip_master;
741   u16 res_idx, *idx;
742   u8 used;
743   u16 i;
744
745   skip_master = vlib_num_workers () > 0;
746
747   /* *INDENT-OFF* */
748   vec_foreach (dev, dcm->dev)
749     {
750       vec_foreach_index (thread_idx, dcm->workers_main)
751         {
752           if (vec_len (dev->free_resources) == 0)
753             break;
754
755           if (thread_idx < skip_master)
756             continue;
757
758           /* Check thread is not already using the device */
759           vec_foreach (idx, dev->used_resources)
760             if (dcm->resource[idx[0]].thread_idx == thread_idx)
761               continue;
762
763           cwm = vec_elt_at_index (dcm->workers_main, thread_idx);
764
765           used = 0;
766           res_idx = vec_pop (dev->free_resources);
767
768           /* Set device only for supported algos */
769           for (i = 0; i < IPSEC_CRYPTO_N_ALG; i++)
770             if (dev->cipher_support[i] &&
771                 cwm->cipher_resource_idx[i] == (u16) ~0)
772               {
773                 dcm->cipher_algs[i].disabled--;
774                 cwm->cipher_resource_idx[i] = res_idx;
775                 used = 1;
776               }
777
778           for (i = 0; i < IPSEC_INTEG_N_ALG; i++)
779             if (dev->auth_support[i] &&
780                 cwm->auth_resource_idx[i] == (u16) ~0)
781               {
782                 dcm->auth_algs[i].disabled--;
783                 cwm->auth_resource_idx[i] = res_idx;
784                 used = 1;
785               }
786
787           if (!used)
788             {
789               vec_add1 (dev->free_resources, res_idx);
790               continue;
791             }
792
793           vec_add1 (dev->used_resources, res_idx);
794
795           res = vec_elt_at_index (dcm->resource, res_idx);
796
797           ASSERT (res->thread_idx == (u16) ~0);
798           res->thread_idx = thread_idx;
799
800           /* Add device to vector of polling resources */
801           vec_add1 (cwm->resource_idx, res_idx);
802         }
803     }
804   /* *INDENT-ON* */
805 }
806
807 static void
808 crypto_op_init (struct rte_mempool *mempool,
809                 void *_arg __attribute__ ((unused)),
810                 void *_obj, unsigned i __attribute__ ((unused)))
811 {
812   struct rte_crypto_op *op = _obj;
813
814   op->sess_type = RTE_CRYPTO_OP_WITH_SESSION;
815   op->type = RTE_CRYPTO_OP_TYPE_SYMMETRIC;
816   op->status = RTE_CRYPTO_OP_STATUS_NOT_PROCESSED;
817   op->phys_addr = rte_mempool_virt2iova (_obj);
818   op->mempool = mempool;
819 }
820
821 static clib_error_t *
822 crypto_create_crypto_op_pool (vlib_main_t * vm, u8 numa)
823 {
824   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
825   dpdk_config_main_t *conf = &dpdk_config_main;
826   crypto_data_t *data;
827   u8 *pool_name;
828   u32 pool_priv_size = sizeof (struct rte_crypto_op_pool_private);
829   struct rte_crypto_op_pool_private *priv;
830   struct rte_mempool *mp;
831
832   data = vec_elt_at_index (dcm->data, numa);
833
834   /* Already allocated */
835   if (data->crypto_op)
836     return NULL;
837
838   pool_name = format (0, "crypto_pool_numa%u%c", numa, 0);
839
840   if (conf->num_crypto_mbufs == 0)
841     conf->num_crypto_mbufs = NUM_CRYPTO_MBUFS;
842
843   mp = rte_mempool_create ((char *) pool_name, conf->num_crypto_mbufs,
844                            crypto_op_len (), 512, pool_priv_size, NULL, NULL,
845                            crypto_op_init, NULL, numa, 0);
846
847   vec_free (pool_name);
848
849   if (!mp)
850     return clib_error_return (0, "failed to create crypto op mempool");
851
852   /* Initialize mempool private data */
853   priv = rte_mempool_get_priv (mp);
854   priv->priv_size = pool_priv_size;
855   priv->type = RTE_CRYPTO_OP_TYPE_SYMMETRIC;
856
857   data->crypto_op = mp;
858
859   return NULL;
860 }
861
862 static clib_error_t *
863 crypto_create_session_h_pool (vlib_main_t * vm, u8 numa)
864 {
865   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
866   crypto_data_t *data;
867   u8 *pool_name;
868   struct rte_mempool *mp;
869   u32 elt_size;
870
871   data = vec_elt_at_index (dcm->data, numa);
872
873   if (data->session_h)
874     return NULL;
875
876   pool_name = format (0, "session_h_pool_numa%u%c", numa, 0);
877
878
879   elt_size = rte_cryptodev_sym_get_header_session_size ();
880
881   mp =
882     rte_mempool_create ((char *) pool_name, DPDK_CRYPTO_NB_SESS_OBJS,
883                         elt_size, 512, 0, NULL, NULL, NULL, NULL, numa, 0);
884
885   vec_free (pool_name);
886
887   if (!mp)
888     return clib_error_return (0, "failed to create crypto session mempool");
889
890   data->session_h = mp;
891
892   return NULL;
893 }
894
895 static clib_error_t *
896 crypto_create_session_drv_pool (vlib_main_t * vm, crypto_dev_t * dev)
897 {
898   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
899   crypto_data_t *data;
900   u8 *pool_name;
901   struct rte_mempool *mp;
902   u32 elt_size;
903   u8 numa = dev->numa;
904
905   data = vec_elt_at_index (dcm->data, numa);
906
907   vec_validate (data->session_drv, dev->drv_id);
908   vec_validate (data->session_drv_failed, dev->drv_id);
909   vec_validate_aligned (data->session_by_drv_id_and_sa_index, 32,
910                         CLIB_CACHE_LINE_BYTES);
911
912   if (data->session_drv[dev->drv_id])
913     return NULL;
914
915   pool_name = format (0, "session_drv%u_pool_numa%u%c", dev->drv_id, numa, 0);
916
917   elt_size = rte_cryptodev_sym_get_private_session_size (dev->id);
918   mp =
919     rte_mempool_create ((char *) pool_name, DPDK_CRYPTO_NB_SESS_OBJS,
920                         elt_size, 512, 0, NULL, NULL, NULL, NULL, numa, 0);
921
922   vec_free (pool_name);
923
924   if (!mp)
925     return clib_error_return (0, "failed to create session drv mempool");
926
927   data->session_drv[dev->drv_id] = mp;
928   clib_spinlock_init (&data->lockp);
929
930   return NULL;
931 }
932
933 static clib_error_t *
934 crypto_create_pools (vlib_main_t * vm)
935 {
936   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
937   clib_error_t *error = NULL;
938   crypto_dev_t *dev;
939
940   /* *INDENT-OFF* */
941   vec_foreach (dev, dcm->dev)
942     {
943       vec_validate_aligned (dcm->data, dev->numa, CLIB_CACHE_LINE_BYTES);
944
945       error = crypto_create_crypto_op_pool (vm, dev->numa);
946       if (error)
947         return error;
948
949       error = crypto_create_session_h_pool (vm, dev->numa);
950       if (error)
951         return error;
952
953       error = crypto_create_session_drv_pool (vm, dev);
954       if (error)
955         return error;
956     }
957   /* *INDENT-ON* */
958
959   return NULL;
960 }
961
962 static void
963 crypto_disable (void)
964 {
965   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
966   crypto_data_t *data;
967   u8 i;
968
969   dcm->enabled = 0;
970
971   /* *INDENT-OFF* */
972   vec_foreach (data, dcm->data)
973     {
974       rte_mempool_free (data->crypto_op);
975       rte_mempool_free (data->session_h);
976
977       vec_foreach_index (i, data->session_drv)
978         rte_mempool_free (data->session_drv[i]);
979
980       vec_free (data->session_drv);
981       clib_spinlock_free (&data->lockp);
982     }
983   /* *INDENT-ON* */
984
985   vec_free (dcm->data);
986   vec_free (dcm->workers_main);
987   vec_free (dcm->dev);
988   vec_free (dcm->resource);
989   vec_free (dcm->cipher_algs);
990   vec_free (dcm->auth_algs);
991 }
992
993 static uword
994 dpdk_ipsec_process (vlib_main_t * vm, vlib_node_runtime_t * rt,
995                     vlib_frame_t * f)
996 {
997   ipsec_main_t *im = &ipsec_main;
998   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
999   vlib_thread_main_t *tm = vlib_get_thread_main ();
1000   crypto_worker_main_t *cwm;
1001   clib_error_t *error = NULL;
1002   u32 i, skip_master, n_mains;
1003
1004   n_mains = tm->n_vlib_mains;
1005   skip_master = vlib_num_workers () > 0;
1006
1007   algos_init (n_mains - skip_master);
1008
1009   crypto_scan_devs (n_mains - skip_master);
1010
1011   if (!(dcm->enabled))
1012     {
1013       clib_warning ("not enough DPDK crypto resources, default to OpenSSL");
1014       crypto_disable ();
1015       return 0;
1016     }
1017
1018   dcm->session_timeout = 10e9;
1019
1020   vec_validate_init_empty_aligned (dcm->workers_main, n_mains - 1,
1021                                    (crypto_worker_main_t) EMPTY_STRUCT,
1022                                    CLIB_CACHE_LINE_BYTES);
1023
1024   /* *INDENT-OFF* */
1025   vec_foreach (cwm, dcm->workers_main)
1026     {
1027       vec_validate_init_empty_aligned (cwm->ops, VLIB_FRAME_SIZE - 1, 0,
1028                                        CLIB_CACHE_LINE_BYTES);
1029       clib_memset (cwm->cipher_resource_idx, ~0,
1030               IPSEC_CRYPTO_N_ALG * sizeof(*cwm->cipher_resource_idx));
1031       clib_memset (cwm->auth_resource_idx, ~0,
1032               IPSEC_INTEG_N_ALG * sizeof(*cwm->auth_resource_idx));
1033     }
1034   /* *INDENT-ON* */
1035
1036   crypto_auto_placement ();
1037
1038   error = crypto_create_pools (vm);
1039   if (error)
1040     {
1041       clib_error_report (error);
1042       crypto_disable ();
1043       return 0;
1044     }
1045
1046
1047   u32 idx = ipsec_register_esp_backend (vm, im, "dpdk backend",
1048                                         "dpdk-esp4-encrypt",
1049                                         "dpdk-esp4-decrypt",
1050                                         "dpdk-esp6-encrypt",
1051                                         "dpdk-esp6-decrypt",
1052                                         dpdk_ipsec_check_support,
1053                                         add_del_sa_session);
1054   int rv = ipsec_select_esp_backend (im, idx);
1055   ASSERT (rv == 0);
1056
1057   vlib_node_t *node = vlib_get_node_by_name (vm, (u8 *) "dpdk-crypto-input");
1058   ASSERT (node);
1059   for (i = skip_master; i < n_mains; i++)
1060     vlib_node_set_state (vlib_mains[i], node->index, VLIB_NODE_STATE_POLLING);
1061   return 0;
1062 }
1063
1064 /* *INDENT-OFF* */
1065 VLIB_REGISTER_NODE (dpdk_ipsec_process_node,static) = {
1066     .function = dpdk_ipsec_process,
1067     .type = VLIB_NODE_TYPE_PROCESS,
1068     .name = "dpdk-ipsec-process",
1069     .process_log2_n_stack_bytes = 17,
1070 };
1071 /* *INDENT-ON* */
1072
1073 /*
1074  * fd.io coding-style-patch-verification: ON
1075  *
1076  * Local Variables:
1077  * eval: (c-set-style "gnu")
1078  * End:
1079  */