Fix crypto session deletion crash
[vpp.git] / src / plugins / dpdk / ipsec / ipsec.c
1 /*
2  * Copyright (c) 2017 Intel and/or its affiliates.
3  * Licensed under the Apache License, Version 2.0 (the "License");
4  * you may not use this file except in compliance with the License.
5  * You may obtain a copy of the License at:
6  *
7  *     http://www.apache.org/licenses/LICENSE-2.0
8  *
9  * Unless required by applicable law or agreed to in writing, software
10  * distributed under the License is distributed on an "AS IS" BASIS,
11  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
12  * See the License for the specific language governing permissions and
13  * limitations under the License.
14  */
15 #include <vnet/vnet.h>
16 #include <vnet/ip/ip.h>
17 #include <vnet/api_errno.h>
18 #include <vnet/ipsec/ipsec.h>
19 #include <vlib/node_funcs.h>
20
21 #include <dpdk/device/dpdk.h>
22 #include <dpdk/ipsec/ipsec.h>
23
24 dpdk_crypto_main_t dpdk_crypto_main;
25
26 #define EMPTY_STRUCT {0}
27
28 static void
29 algos_init (u32 n_mains)
30 {
31   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
32   crypto_alg_t *a;
33
34   vec_validate_aligned (dcm->cipher_algs, IPSEC_CRYPTO_N_ALG - 1, 8);
35
36   {
37 #define _(v,f,str) \
38   dcm->cipher_algs[IPSEC_CRYPTO_ALG_##f].name = str; \
39   dcm->cipher_algs[IPSEC_CRYPTO_ALG_##f].disabled = n_mains;
40     foreach_ipsec_crypto_alg
41 #undef _
42   }
43
44   /* Minimum boundary for ciphers is 4B, required by ESP */
45   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_NONE];
46   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
47   a->alg = RTE_CRYPTO_CIPHER_NULL;
48   a->boundary = 4;              /* 1 */
49   a->key_len = 0;
50   a->iv_len = 0;
51
52   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CBC_128];
53   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
54   a->alg = RTE_CRYPTO_CIPHER_AES_CBC;
55   a->boundary = 16;
56   a->key_len = 16;
57   a->iv_len = 16;
58
59   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CBC_192];
60   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
61   a->alg = RTE_CRYPTO_CIPHER_AES_CBC;
62   a->boundary = 16;
63   a->key_len = 24;
64   a->iv_len = 16;
65
66   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CBC_256];
67   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
68   a->alg = RTE_CRYPTO_CIPHER_AES_CBC;
69   a->boundary = 16;
70   a->key_len = 32;
71   a->iv_len = 16;
72
73   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CTR_128];
74   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
75   a->alg = RTE_CRYPTO_CIPHER_AES_CTR;
76   a->boundary = 4;              /* 1 */
77   a->key_len = 16;
78   a->iv_len = 8;
79
80   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CTR_192];
81   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
82   a->alg = RTE_CRYPTO_CIPHER_AES_CTR;
83   a->boundary = 4;              /* 1 */
84   a->key_len = 24;
85   a->iv_len = 8;
86
87   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_CTR_256];
88   a->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
89   a->alg = RTE_CRYPTO_CIPHER_AES_CTR;
90   a->boundary = 4;              /* 1 */
91   a->key_len = 32;
92   a->iv_len = 8;
93
94 #define AES_GCM_TYPE RTE_CRYPTO_SYM_XFORM_AEAD
95 #define AES_GCM_ALG RTE_CRYPTO_AEAD_AES_GCM
96
97   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_GCM_128];
98   a->type = AES_GCM_TYPE;
99   a->alg = AES_GCM_ALG;
100   a->boundary = 4;              /* 1 */
101   a->key_len = 16;
102   a->iv_len = 8;
103   a->trunc_size = 16;
104
105   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_GCM_192];
106   a->type = AES_GCM_TYPE;
107   a->alg = AES_GCM_ALG;
108   a->boundary = 4;              /* 1 */
109   a->key_len = 24;
110   a->iv_len = 8;
111   a->trunc_size = 16;
112
113   a = &dcm->cipher_algs[IPSEC_CRYPTO_ALG_AES_GCM_256];
114   a->type = AES_GCM_TYPE;
115   a->alg = AES_GCM_ALG;
116   a->boundary = 4;              /* 1 */
117   a->key_len = 32;
118   a->iv_len = 8;
119   a->trunc_size = 16;
120
121   vec_validate (dcm->auth_algs, IPSEC_INTEG_N_ALG - 1);
122
123   {
124 #define _(v,f,str) \
125   dcm->auth_algs[IPSEC_INTEG_ALG_##f].name = str; \
126   dcm->auth_algs[IPSEC_INTEG_ALG_##f].disabled = n_mains;
127     foreach_ipsec_integ_alg
128 #undef _
129   }
130
131   a = &dcm->auth_algs[IPSEC_INTEG_ALG_NONE];
132   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
133   a->alg = RTE_CRYPTO_AUTH_NULL;
134   a->key_len = 0;
135   a->trunc_size = 0;
136
137   a = &dcm->auth_algs[IPSEC_INTEG_ALG_MD5_96];
138   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
139   a->alg = RTE_CRYPTO_AUTH_MD5_HMAC;
140   a->key_len = 16;
141   a->trunc_size = 12;
142
143   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA1_96];
144   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
145   a->alg = RTE_CRYPTO_AUTH_SHA1_HMAC;
146   a->key_len = 20;
147   a->trunc_size = 12;
148
149   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA_256_96];
150   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
151   a->alg = RTE_CRYPTO_AUTH_SHA256_HMAC;
152   a->key_len = 32;
153   a->trunc_size = 12;
154
155   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA_256_128];
156   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
157   a->alg = RTE_CRYPTO_AUTH_SHA256_HMAC;
158   a->key_len = 32;
159   a->trunc_size = 16;
160
161   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA_384_192];
162   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
163   a->alg = RTE_CRYPTO_AUTH_SHA384_HMAC;
164   a->key_len = 48;
165   a->trunc_size = 24;
166
167   a = &dcm->auth_algs[IPSEC_INTEG_ALG_SHA_512_256];
168   a->type = RTE_CRYPTO_SYM_XFORM_AUTH;
169   a->alg = RTE_CRYPTO_AUTH_SHA512_HMAC;
170   a->key_len = 64;
171   a->trunc_size = 32;
172 }
173
174 static u8
175 cipher_alg_index (const crypto_alg_t * alg)
176 {
177   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
178
179   return (alg - dcm->cipher_algs);
180 }
181
182 static u8
183 auth_alg_index (const crypto_alg_t * alg)
184 {
185   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
186
187   return (alg - dcm->auth_algs);
188 }
189
190 static crypto_alg_t *
191 cipher_cap_to_alg (const struct rte_cryptodev_capabilities *cap, u8 key_len)
192 {
193   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
194   crypto_alg_t *alg;
195
196   if (cap->op != RTE_CRYPTO_OP_TYPE_SYMMETRIC)
197     return NULL;
198
199   /* *INDENT-OFF* */
200   vec_foreach (alg, dcm->cipher_algs)
201     {
202       if ((cap->sym.xform_type == RTE_CRYPTO_SYM_XFORM_CIPHER) &&
203           (alg->type == RTE_CRYPTO_SYM_XFORM_CIPHER) &&
204           (cap->sym.cipher.algo == alg->alg) &&
205           (alg->key_len == key_len))
206         return alg;
207       if ((cap->sym.xform_type == RTE_CRYPTO_SYM_XFORM_AEAD) &&
208           (alg->type == RTE_CRYPTO_SYM_XFORM_AEAD) &&
209           (cap->sym.aead.algo == alg->alg) &&
210           (alg->key_len == key_len))
211         return alg;
212     }
213   /* *INDENT-ON* */
214
215   return NULL;
216 }
217
218 static crypto_alg_t *
219 auth_cap_to_alg (const struct rte_cryptodev_capabilities *cap, u8 trunc_size)
220 {
221   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
222   crypto_alg_t *alg;
223
224   if ((cap->op != RTE_CRYPTO_OP_TYPE_SYMMETRIC) ||
225       (cap->sym.xform_type != RTE_CRYPTO_SYM_XFORM_AUTH))
226     return NULL;
227
228   /* *INDENT-OFF* */
229   vec_foreach (alg, dcm->auth_algs)
230     {
231       if ((cap->sym.auth.algo == alg->alg) &&
232           (alg->trunc_size == trunc_size))
233         return alg;
234     }
235   /* *INDENT-ON* */
236
237   return NULL;
238 }
239
240 static void
241 crypto_set_aead_xform (struct rte_crypto_sym_xform *xform,
242                        ipsec_sa_t * sa, u8 is_outbound)
243 {
244   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
245   crypto_alg_t *c;
246
247   c = vec_elt_at_index (dcm->cipher_algs, sa->crypto_alg);
248
249   ASSERT (c->type == RTE_CRYPTO_SYM_XFORM_AEAD);
250
251   xform->type = RTE_CRYPTO_SYM_XFORM_AEAD;
252   xform->aead.algo = c->alg;
253   xform->aead.key.data = sa->crypto_key;
254   xform->aead.key.length = c->key_len;
255   xform->aead.iv.offset =
256     crypto_op_get_priv_offset () + offsetof (dpdk_op_priv_t, cb);
257   xform->aead.iv.length = 12;
258   xform->aead.digest_length = c->trunc_size;
259   xform->aead.aad_length = sa->use_esn ? 12 : 8;
260   xform->next = NULL;
261
262   if (is_outbound)
263     xform->aead.op = RTE_CRYPTO_AEAD_OP_ENCRYPT;
264   else
265     xform->aead.op = RTE_CRYPTO_AEAD_OP_DECRYPT;
266 }
267
268 static void
269 crypto_set_cipher_xform (struct rte_crypto_sym_xform *xform,
270                          ipsec_sa_t * sa, u8 is_outbound)
271 {
272   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
273   crypto_alg_t *c;
274
275   c = vec_elt_at_index (dcm->cipher_algs, sa->crypto_alg);
276
277   ASSERT (c->type == RTE_CRYPTO_SYM_XFORM_CIPHER);
278
279   xform->type = RTE_CRYPTO_SYM_XFORM_CIPHER;
280   xform->cipher.algo = c->alg;
281   xform->cipher.key.data = sa->crypto_key;
282   xform->cipher.key.length = c->key_len;
283   xform->cipher.iv.offset =
284     crypto_op_get_priv_offset () + offsetof (dpdk_op_priv_t, cb);
285   xform->cipher.iv.length = c->iv_len;
286   xform->next = NULL;
287
288   if (is_outbound)
289     xform->cipher.op = RTE_CRYPTO_CIPHER_OP_ENCRYPT;
290   else
291     xform->cipher.op = RTE_CRYPTO_CIPHER_OP_DECRYPT;
292 }
293
294 static void
295 crypto_set_auth_xform (struct rte_crypto_sym_xform *xform,
296                        ipsec_sa_t * sa, u8 is_outbound)
297 {
298   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
299   crypto_alg_t *a;
300
301   a = vec_elt_at_index (dcm->auth_algs, sa->integ_alg);
302
303   ASSERT (a->type == RTE_CRYPTO_SYM_XFORM_AUTH);
304
305   xform->type = RTE_CRYPTO_SYM_XFORM_AUTH;
306   xform->auth.algo = a->alg;
307   xform->auth.key.data = sa->integ_key;
308   xform->auth.key.length = a->key_len;
309   xform->auth.digest_length = a->trunc_size;
310   xform->next = NULL;
311
312   if (is_outbound)
313     xform->auth.op = RTE_CRYPTO_AUTH_OP_GENERATE;
314   else
315     xform->auth.op = RTE_CRYPTO_AUTH_OP_VERIFY;
316 }
317
318 clib_error_t *
319 create_sym_session (struct rte_cryptodev_sym_session **session,
320                     u32 sa_idx,
321                     crypto_resource_t * res,
322                     crypto_worker_main_t * cwm, u8 is_outbound)
323 {
324   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
325   ipsec_main_t *im = &ipsec_main;
326   crypto_data_t *data;
327   ipsec_sa_t *sa;
328   struct rte_crypto_sym_xform cipher_xform = { 0 };
329   struct rte_crypto_sym_xform auth_xform = { 0 };
330   struct rte_crypto_sym_xform *xfs;
331   struct rte_cryptodev_sym_session **s;
332   crypto_session_key_t key = { 0 };
333
334   key.drv_id = res->drv_id;
335   key.sa_idx = sa_idx;
336
337   data = vec_elt_at_index (dcm->data, res->numa);
338
339   sa = pool_elt_at_index (im->sad, sa_idx);
340
341   if ((sa->crypto_alg == IPSEC_CRYPTO_ALG_AES_GCM_128) |
342       (sa->crypto_alg == IPSEC_CRYPTO_ALG_AES_GCM_192) |
343       (sa->crypto_alg == IPSEC_CRYPTO_ALG_AES_GCM_256))
344     {
345       crypto_set_aead_xform (&cipher_xform, sa, is_outbound);
346       xfs = &cipher_xform;
347     }
348   else
349     {
350       crypto_set_cipher_xform (&cipher_xform, sa, is_outbound);
351       crypto_set_auth_xform (&auth_xform, sa, is_outbound);
352
353       if (is_outbound)
354         {
355           cipher_xform.next = &auth_xform;
356           xfs = &cipher_xform;
357         }
358       else
359         {
360           auth_xform.next = &cipher_xform;
361           xfs = &auth_xform;
362         }
363     }
364
365   /*
366    * DPDK_VER >= 1708:
367    *   Multiple worker/threads share the session for an SA
368    *   Single session per SA, initialized for each device driver
369    */
370   s = (void *) hash_get (data->session_by_sa_index, sa_idx);
371
372   if (!s)
373     {
374       session[0] = rte_cryptodev_sym_session_create (data->session_h);
375       if (!session[0])
376         {
377           data->session_h_failed += 1;
378           return clib_error_return (0, "failed to create session header");
379         }
380       hash_set (data->session_by_sa_index, sa_idx, session[0]);
381     }
382   else
383     session[0] = s[0];
384
385   struct rte_mempool **mp;
386   mp = vec_elt_at_index (data->session_drv, res->drv_id);
387   ASSERT (mp[0] != NULL);
388
389   i32 ret =
390     rte_cryptodev_sym_session_init (res->dev_id, session[0], xfs, mp[0]);
391   if (ret)
392     {
393       data->session_drv_failed[res->drv_id] += 1;
394       return clib_error_return (0, "failed to init session for drv %u",
395                                 res->drv_id);
396     }
397
398   hash_set (data->session_by_drv_id_and_sa_index, key.val, session[0]);
399
400   return 0;
401 }
402
403 static void __attribute__ ((unused)) clear_and_free_obj (void *obj)
404 {
405   struct rte_mempool *mp = rte_mempool_from_obj (obj);
406
407   memset (obj, 0, mp->elt_size);
408
409   rte_mempool_put (mp, obj);
410 }
411
412 /* This is from rte_cryptodev_pmd.h */
413 static inline void *
414 get_session_private_data (const struct rte_cryptodev_sym_session *sess,
415                           uint8_t driver_id)
416 {
417   return sess->sess_private_data[driver_id];
418 }
419
420 /* This is from rte_cryptodev_pmd.h */
421 static inline void
422 set_session_private_data (struct rte_cryptodev_sym_session *sess,
423                           uint8_t driver_id, void *private_data)
424 {
425   sess->sess_private_data[driver_id] = private_data;
426 }
427
428 static clib_error_t *
429 dpdk_crypto_session_disposal (crypto_session_disposal_t * v, u64 ts)
430 {
431   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
432   crypto_session_disposal_t *s;
433   void *drv_session;
434   u32 drv_id;
435   i32 ret;
436
437   /* *INDENT-OFF* */
438   vec_foreach (s, v)
439     {
440       /* ordered vector by timestamp */
441       if (!(s->ts + dcm->session_timeout < ts))
442         break;
443
444       vec_foreach_index (drv_id, dcm->drv)
445         {
446           drv_session = get_session_private_data (s->session, drv_id);
447           if (!drv_session)
448             continue;
449
450           /*
451            * Custom clear to avoid finding a dev_id for drv_id:
452            *  ret = rte_cryptodev_sym_session_clear (dev_id, drv_session);
453            *  ASSERT (!ret);
454            */
455           clear_and_free_obj (drv_session);
456
457           set_session_private_data (s->session, drv_id, NULL);
458         }
459
460       if (rte_mempool_from_obj(s->session))
461         {
462           ret = rte_cryptodev_sym_session_free (s->session);
463           ASSERT (!ret);
464         }
465     }
466   /* *INDENT-ON* */
467
468   if (s < vec_end (v))
469     vec_delete (v, s - v, 0);
470
471   return 0;
472 }
473
474 static clib_error_t *
475 add_del_sa_session (u32 sa_index, u8 is_add)
476 {
477   ipsec_main_t *im = &ipsec_main;
478   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
479   crypto_data_t *data;
480   struct rte_cryptodev_sym_session *s;
481   crypto_session_key_t key = { 0 };
482   uword *val;
483   u32 drv_id;
484
485   if (is_add)
486     {
487 #if 1
488       ipsec_sa_t *sa = pool_elt_at_index (im->sad, sa_index);
489       u32 seed;
490       switch (sa->crypto_alg)
491         {
492         case IPSEC_CRYPTO_ALG_AES_GCM_128:
493         case IPSEC_CRYPTO_ALG_AES_GCM_192:
494         case IPSEC_CRYPTO_ALG_AES_GCM_256:
495           clib_memcpy (&sa->salt, &sa->crypto_key[sa->crypto_key_len - 4], 4);
496           break;
497         default:
498           seed = (u32) clib_cpu_time_now ();
499           sa->salt = random_u32 (&seed);
500         }
501 #endif
502       return 0;
503     }
504
505   key.sa_idx = sa_index;
506
507   /* *INDENT-OFF* */
508   vec_foreach (data, dcm->data)
509     {
510       val = hash_get (data->session_by_sa_index, sa_index);
511
512       if (!val)
513         continue;
514
515       s = (struct rte_cryptodev_sym_session *) val[0];
516
517       vec_foreach_index (drv_id, dcm->drv)
518         {
519           key.drv_id = drv_id;
520           val = hash_get (data->session_by_drv_id_and_sa_index, key.val);
521
522           if (!val)
523             continue;
524
525           hash_unset (data->session_by_drv_id_and_sa_index, key.val);
526         }
527
528       hash_unset (data->session_by_sa_index, sa_index);
529
530       u64 ts = unix_time_now_nsec ();
531       dpdk_crypto_session_disposal (data->session_disposal, ts);
532
533       crypto_session_disposal_t sd;
534       sd.ts = ts;
535       sd.session = s;
536
537       vec_add1 (data->session_disposal, sd);
538     }
539   /* *INDENT-ON* */
540
541   return 0;
542 }
543
544 static clib_error_t *
545 dpdk_ipsec_check_support (ipsec_sa_t * sa)
546 {
547   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
548
549   if (sa->integ_alg == IPSEC_INTEG_ALG_NONE)
550     switch (sa->crypto_alg)
551       {
552       case IPSEC_CRYPTO_ALG_AES_GCM_128:
553       case IPSEC_CRYPTO_ALG_AES_GCM_192:
554       case IPSEC_CRYPTO_ALG_AES_GCM_256:
555         break;
556       default:
557         return clib_error_return (0, "unsupported integ-alg %U crypto-alg %U",
558                                   format_ipsec_integ_alg, sa->integ_alg,
559                                   format_ipsec_crypto_alg, sa->crypto_alg);
560       }
561
562   /* XXX do we need the NONE check? */
563   if (sa->crypto_alg != IPSEC_CRYPTO_ALG_NONE &&
564       dcm->cipher_algs[sa->crypto_alg].disabled)
565     return clib_error_return (0, "disabled crypto-alg %U",
566                               format_ipsec_crypto_alg, sa->crypto_alg);
567
568   /* XXX do we need the NONE check? */
569   if (sa->integ_alg != IPSEC_INTEG_ALG_NONE &&
570       dcm->auth_algs[sa->integ_alg].disabled)
571     return clib_error_return (0, "disabled integ-alg %U",
572                               format_ipsec_integ_alg, sa->integ_alg);
573   return NULL;
574 }
575
576 static void
577 crypto_parse_capabilities (crypto_dev_t * dev,
578                            const struct rte_cryptodev_capabilities *cap,
579                            u32 n_mains)
580 {
581   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
582   crypto_alg_t *alg;
583   u8 len, inc;
584
585   for (; cap->op != RTE_CRYPTO_OP_TYPE_UNDEFINED; cap++)
586     {
587       /* A single capability maps to multiple cipher/auth algorithms */
588       switch (cap->sym.xform_type)
589         {
590         case RTE_CRYPTO_SYM_XFORM_AEAD:
591         case RTE_CRYPTO_SYM_XFORM_CIPHER:
592           inc = cap->sym.cipher.key_size.increment;
593           inc = inc ? inc : 1;
594           for (len = cap->sym.cipher.key_size.min;
595                len <= cap->sym.cipher.key_size.max; len += inc)
596             {
597               alg = cipher_cap_to_alg (cap, len);
598               if (!alg)
599                 continue;
600               dev->cipher_support[cipher_alg_index (alg)] = 1;
601               alg->resources += vec_len (dev->free_resources);
602               /* At least enough resources to support one algo */
603               dcm->enabled |= (alg->resources >= n_mains);
604             }
605           break;
606         case RTE_CRYPTO_SYM_XFORM_AUTH:
607           inc = cap->sym.auth.digest_size.increment;
608           inc = inc ? inc : 1;
609           for (len = cap->sym.auth.digest_size.min;
610                len <= cap->sym.auth.digest_size.max; len += inc)
611             {
612               alg = auth_cap_to_alg (cap, len);
613               if (!alg)
614                 continue;
615               dev->auth_support[auth_alg_index (alg)] = 1;
616               alg->resources += vec_len (dev->free_resources);
617               /* At least enough resources to support one algo */
618               dcm->enabled |= (alg->resources >= n_mains);
619             }
620           break;
621         default:
622           ;
623         }
624     }
625 }
626
627 #define DPDK_CRYPTO_N_QUEUE_DESC  2048
628 #define DPDK_CRYPTO_NB_SESS_OBJS  20000
629
630 static clib_error_t *
631 crypto_dev_conf (u8 dev, u16 n_qp, u8 numa)
632 {
633   struct rte_cryptodev_config dev_conf;
634   struct rte_cryptodev_qp_conf qp_conf;
635   i32 ret;
636   u16 qp;
637   i8 *error_str;
638
639   dev_conf.socket_id = numa;
640   dev_conf.nb_queue_pairs = n_qp;
641
642   error_str = "failed to configure crypto device %u";
643   ret = rte_cryptodev_configure (dev, &dev_conf);
644   if (ret < 0)
645     return clib_error_return (0, error_str, dev);
646
647   error_str = "failed to setup crypto device %u queue pair %u";
648   qp_conf.nb_descriptors = DPDK_CRYPTO_N_QUEUE_DESC;
649   for (qp = 0; qp < n_qp; qp++)
650     {
651       ret = rte_cryptodev_queue_pair_setup (dev, qp, &qp_conf, numa, NULL);
652       if (ret < 0)
653         return clib_error_return (0, error_str, dev, qp);
654     }
655
656   return 0;
657 }
658
659 static void
660 crypto_scan_devs (u32 n_mains)
661 {
662   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
663   struct rte_cryptodev *cryptodev;
664   struct rte_cryptodev_info info;
665   crypto_dev_t *dev;
666   crypto_resource_t *res;
667   clib_error_t *error;
668   u32 i;
669   u16 max_res_idx, res_idx, j;
670   u8 drv_id;
671
672   vec_validate_init_empty (dcm->dev, rte_cryptodev_count () - 1,
673                            (crypto_dev_t) EMPTY_STRUCT);
674
675   for (i = 0; i < rte_cryptodev_count (); i++)
676     {
677       dev = vec_elt_at_index (dcm->dev, i);
678
679       cryptodev = &rte_cryptodevs[i];
680       rte_cryptodev_info_get (i, &info);
681
682       dev->id = i;
683       dev->name = cryptodev->data->name;
684       dev->numa = rte_cryptodev_socket_id (i);
685       dev->features = info.feature_flags;
686       dev->max_qp = info.max_nb_queue_pairs;
687       drv_id = info.driver_id;
688       if (drv_id >= vec_len (dcm->drv))
689         vec_validate_init_empty (dcm->drv, drv_id,
690                                  (crypto_drv_t) EMPTY_STRUCT);
691       vec_elt_at_index (dcm->drv, drv_id)->name = info.driver_name;
692       dev->drv_id = drv_id;
693       vec_add1 (vec_elt_at_index (dcm->drv, drv_id)->devs, i);
694
695       if (!(info.feature_flags & RTE_CRYPTODEV_FF_SYM_OPERATION_CHAINING))
696         continue;
697
698       if ((error = crypto_dev_conf (i, dev->max_qp, dev->numa)))
699         {
700           clib_error_report (error);
701           continue;
702         }
703
704       max_res_idx = (dev->max_qp / 2) - 1;
705
706       vec_validate (dev->free_resources, max_res_idx);
707
708       res_idx = vec_len (dcm->resource);
709       vec_validate_init_empty_aligned (dcm->resource, res_idx + max_res_idx,
710                                        (crypto_resource_t) EMPTY_STRUCT,
711                                        CLIB_CACHE_LINE_BYTES);
712
713       for (j = 0; j <= max_res_idx; j++, res_idx++)
714         {
715           vec_elt (dev->free_resources, max_res_idx - j) = res_idx;
716           res = &dcm->resource[res_idx];
717           res->dev_id = i;
718           res->drv_id = drv_id;
719           res->qp_id = j * 2;
720           res->numa = dev->numa;
721           res->thread_idx = (u16) ~ 0;
722         }
723
724       crypto_parse_capabilities (dev, info.capabilities, n_mains);
725     }
726 }
727
728 void
729 crypto_auto_placement (void)
730 {
731   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
732   crypto_resource_t *res;
733   crypto_worker_main_t *cwm;
734   crypto_dev_t *dev;
735   u32 thread_idx, skip_master;
736   u16 res_idx, *idx;
737   u8 used;
738   u16 i;
739
740   skip_master = vlib_num_workers () > 0;
741
742   /* *INDENT-OFF* */
743   vec_foreach (dev, dcm->dev)
744     {
745       vec_foreach_index (thread_idx, dcm->workers_main)
746         {
747           if (vec_len (dev->free_resources) == 0)
748             break;
749
750           if (thread_idx < skip_master)
751             continue;
752
753           /* Check thread is not already using the device */
754           vec_foreach (idx, dev->used_resources)
755             if (dcm->resource[idx[0]].thread_idx == thread_idx)
756               continue;
757
758           cwm = vec_elt_at_index (dcm->workers_main, thread_idx);
759
760           used = 0;
761           res_idx = vec_pop (dev->free_resources);
762
763           /* Set device only for supported algos */
764           for (i = 0; i < IPSEC_CRYPTO_N_ALG; i++)
765             if (dev->cipher_support[i] &&
766                 cwm->cipher_resource_idx[i] == (u16) ~0)
767               {
768                 dcm->cipher_algs[i].disabled--;
769                 cwm->cipher_resource_idx[i] = res_idx;
770                 used = 1;
771               }
772
773           for (i = 0; i < IPSEC_INTEG_N_ALG; i++)
774             if (dev->auth_support[i] &&
775                 cwm->auth_resource_idx[i] == (u16) ~0)
776               {
777                 dcm->auth_algs[i].disabled--;
778                 cwm->auth_resource_idx[i] = res_idx;
779                 used = 1;
780               }
781
782           if (!used)
783             {
784               vec_add1 (dev->free_resources, res_idx);
785               continue;
786             }
787
788           vec_add1 (dev->used_resources, res_idx);
789
790           res = vec_elt_at_index (dcm->resource, res_idx);
791
792           ASSERT (res->thread_idx == (u16) ~0);
793           res->thread_idx = thread_idx;
794
795           /* Add device to vector of polling resources */
796           vec_add1 (cwm->resource_idx, res_idx);
797         }
798     }
799   /* *INDENT-ON* */
800 }
801
802 static void
803 crypto_op_init (struct rte_mempool *mempool,
804                 void *_arg __attribute__ ((unused)),
805                 void *_obj, unsigned i __attribute__ ((unused)))
806 {
807   struct rte_crypto_op *op = _obj;
808
809   op->sess_type = RTE_CRYPTO_OP_WITH_SESSION;
810   op->type = RTE_CRYPTO_OP_TYPE_SYMMETRIC;
811   op->status = RTE_CRYPTO_OP_STATUS_NOT_PROCESSED;
812   op->phys_addr = rte_mempool_virt2iova (_obj);
813   op->mempool = mempool;
814 }
815
816 static clib_error_t *
817 crypto_create_crypto_op_pool (vlib_main_t * vm, u8 numa)
818 {
819   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
820   dpdk_config_main_t *conf = &dpdk_config_main;
821   crypto_data_t *data;
822   u8 *pool_name;
823   u32 pool_priv_size = sizeof (struct rte_crypto_op_pool_private);
824   struct rte_crypto_op_pool_private *priv;
825   struct rte_mempool *mp;
826   clib_error_t *error = NULL;
827   vlib_physmem_region_index_t pri;
828
829   data = vec_elt_at_index (dcm->data, numa);
830
831   /* Already allocated */
832   if (data->crypto_op)
833     return NULL;
834
835   pool_name = format (0, "crypto_pool_numa%u%c", numa, 0);
836
837   error =
838     dpdk_pool_create (vm, pool_name, crypto_op_len (), conf->num_mbufs,
839                       pool_priv_size, 512, numa, &mp, &pri);
840
841   vec_free (pool_name);
842
843   if (error)
844     return error;
845
846   /* Initialize mempool private data */
847   priv = rte_mempool_get_priv (mp);
848   priv->priv_size = pool_priv_size;
849   priv->type = RTE_CRYPTO_OP_TYPE_SYMMETRIC;
850
851   /* call the object initializers */
852   rte_mempool_obj_iter (mp, crypto_op_init, 0);
853
854   data->crypto_op = mp;
855
856   return NULL;
857 }
858
859 static clib_error_t *
860 crypto_create_session_h_pool (vlib_main_t * vm, u8 numa)
861 {
862   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
863   crypto_data_t *data;
864   u8 *pool_name;
865   struct rte_mempool *mp;
866   clib_error_t *error = NULL;
867   vlib_physmem_region_index_t pri;
868   u32 elt_size;
869
870   data = vec_elt_at_index (dcm->data, numa);
871
872   if (data->session_h)
873     return NULL;
874
875   pool_name = format (0, "session_h_pool_numa%u%c", numa, 0);
876
877   elt_size = rte_cryptodev_get_header_session_size ();
878
879   error =
880     dpdk_pool_create (vm, pool_name, elt_size, DPDK_CRYPTO_NB_SESS_OBJS,
881                       0, 512, numa, &mp, &pri);
882
883   vec_free (pool_name);
884
885   if (error)
886     return error;
887
888   data->session_h = mp;
889
890   return NULL;
891 }
892
893 static clib_error_t *
894 crypto_create_session_drv_pool (vlib_main_t * vm, crypto_dev_t * dev)
895 {
896   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
897   crypto_data_t *data;
898   u8 *pool_name;
899   struct rte_mempool *mp;
900   clib_error_t *error = NULL;
901   vlib_physmem_region_index_t pri;
902   u32 elt_size;
903   u8 numa = dev->numa;
904
905   data = vec_elt_at_index (dcm->data, numa);
906
907   vec_validate (data->session_drv, dev->drv_id);
908   vec_validate (data->session_drv_failed, dev->drv_id);
909
910   if (data->session_drv[dev->drv_id])
911     return NULL;
912
913   pool_name = format (0, "session_drv%u_pool_numa%u%c", dev->drv_id, numa, 0);
914   elt_size = rte_cryptodev_get_private_session_size (dev->id);
915
916   error =
917     dpdk_pool_create (vm, pool_name, elt_size, DPDK_CRYPTO_NB_SESS_OBJS,
918                       0, 512, numa, &mp, &pri);
919
920   vec_free (pool_name);
921
922   if (error)
923     return error;
924
925   data->session_drv[dev->drv_id] = mp;
926
927   return NULL;
928 }
929
930 static clib_error_t *
931 crypto_create_pools (vlib_main_t * vm)
932 {
933   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
934   clib_error_t *error = NULL;
935   crypto_dev_t *dev;
936
937   /* *INDENT-OFF* */
938   vec_foreach (dev, dcm->dev)
939     {
940       vec_validate_aligned (dcm->data, dev->numa, CLIB_CACHE_LINE_BYTES);
941
942       error = crypto_create_crypto_op_pool (vm, dev->numa);
943       if (error)
944         return error;
945
946       error = crypto_create_session_h_pool (vm, dev->numa);
947       if (error)
948         return error;
949
950       error = crypto_create_session_drv_pool (vm, dev);
951       if (error)
952         return error;
953     }
954   /* *INDENT-ON* */
955
956   return NULL;
957 }
958
959 static void
960 crypto_disable (void)
961 {
962   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
963   crypto_data_t *data;
964   u8 i;
965
966   dcm->enabled = 0;
967
968   /* *INDENT-OFF* */
969   vec_foreach (data, dcm->data)
970     {
971       rte_mempool_free (data->crypto_op);
972       rte_mempool_free (data->session_h);
973
974       vec_foreach_index (i, data->session_drv)
975         rte_mempool_free (data->session_drv[i]);
976
977       vec_free (data->session_drv);
978     }
979   /* *INDENT-ON* */
980
981   vec_free (dcm->data);
982   vec_free (dcm->workers_main);
983   vec_free (dcm->sa_session);
984   vec_free (dcm->dev);
985   vec_free (dcm->resource);
986   vec_free (dcm->cipher_algs);
987   vec_free (dcm->auth_algs);
988 }
989
990 static uword
991 dpdk_ipsec_process (vlib_main_t * vm, vlib_node_runtime_t * rt,
992                     vlib_frame_t * f)
993 {
994   ipsec_main_t *im = &ipsec_main;
995   dpdk_crypto_main_t *dcm = &dpdk_crypto_main;
996   vlib_thread_main_t *tm = vlib_get_thread_main ();
997   crypto_worker_main_t *cwm;
998   clib_error_t *error = NULL;
999   u32 i, skip_master, n_mains;
1000
1001   n_mains = tm->n_vlib_mains;
1002   skip_master = vlib_num_workers () > 0;
1003
1004   algos_init (n_mains - skip_master);
1005
1006   crypto_scan_devs (n_mains - skip_master);
1007
1008   if (!(dcm->enabled))
1009     {
1010       clib_warning ("not enough DPDK crypto resources, default to OpenSSL");
1011       crypto_disable ();
1012       return 0;
1013     }
1014
1015   dcm->session_timeout = 10e9;
1016
1017   vec_validate_init_empty_aligned (dcm->workers_main, n_mains - 1,
1018                                    (crypto_worker_main_t) EMPTY_STRUCT,
1019                                    CLIB_CACHE_LINE_BYTES);
1020
1021   /* *INDENT-OFF* */
1022   vec_foreach (cwm, dcm->workers_main)
1023     {
1024       vec_validate_init_empty_aligned (cwm->ops, VLIB_FRAME_SIZE - 1, 0,
1025                                        CLIB_CACHE_LINE_BYTES);
1026       memset (cwm->cipher_resource_idx, ~0,
1027               IPSEC_CRYPTO_N_ALG * sizeof(*cwm->cipher_resource_idx));
1028       memset (cwm->auth_resource_idx, ~0,
1029               IPSEC_INTEG_N_ALG * sizeof(*cwm->auth_resource_idx));
1030     }
1031   /* *INDENT-ON* */
1032
1033   crypto_auto_placement ();
1034
1035   error = crypto_create_pools (vm);
1036   if (error)
1037     {
1038       clib_error_report (error);
1039       crypto_disable ();
1040       return 0;
1041     }
1042
1043   /* Add new next node and set it as default */
1044   vlib_node_t *node, *next_node;
1045
1046   next_node = vlib_get_node_by_name (vm, (u8 *) "dpdk-esp-encrypt");
1047   ASSERT (next_node);
1048   node = vlib_get_node_by_name (vm, (u8 *) "ipsec-output-ip4");
1049   ASSERT (node);
1050   im->esp_encrypt_node_index = next_node->index;
1051   im->esp_encrypt_next_index =
1052     vlib_node_add_next (vm, node->index, next_node->index);
1053
1054   next_node = vlib_get_node_by_name (vm, (u8 *) "dpdk-esp-decrypt");
1055   ASSERT (next_node);
1056   node = vlib_get_node_by_name (vm, (u8 *) "ipsec-input-ip4");
1057   ASSERT (node);
1058   im->esp_decrypt_node_index = next_node->index;
1059   im->esp_decrypt_next_index =
1060     vlib_node_add_next (vm, node->index, next_node->index);
1061
1062   im->cb.check_support_cb = dpdk_ipsec_check_support;
1063   im->cb.add_del_sa_sess_cb = add_del_sa_session;
1064
1065   node = vlib_get_node_by_name (vm, (u8 *) "dpdk-crypto-input");
1066   ASSERT (node);
1067   for (i = skip_master; i < n_mains; i++)
1068     vlib_node_set_state (vlib_mains[i], node->index, VLIB_NODE_STATE_POLLING);
1069   return 0;
1070 }
1071
1072 /* *INDENT-OFF* */
1073 VLIB_REGISTER_NODE (dpdk_ipsec_process_node,static) = {
1074     .function = dpdk_ipsec_process,
1075     .type = VLIB_NODE_TYPE_PROCESS,
1076     .name = "dpdk-ipsec-process",
1077     .process_log2_n_stack_bytes = 17,
1078 };
1079 /* *INDENT-ON* */
1080
1081 /*
1082  * fd.io coding-style-patch-verification: ON
1083  *
1084  * Local Variables:
1085  * eval: (c-set-style "gnu")
1086  * End:
1087  */