New upstream version 18.11-rc2
[deb_dpdk.git] / drivers / net / mlx5 / mlx5_rxtx_vec.c
index b66c291..340292a 100644 (file)
@@ -1,6 +1,6 @@
 /* SPDX-License-Identifier: BSD-3-Clause
  * Copyright 2017 6WIND S.A.
- * Copyright 2017 Mellanox.
+ * Copyright 2017 Mellanox Technologies, Ltd
  */
 
 #include <assert.h>
 #endif
 
 /**
- * Count the number of packets having same ol_flags and calculate cs_flags.
+ * Count the number of packets having same ol_flags and same metadata (if
+ * PKT_TX_METADATA is set in ol_flags), and calculate cs_flags.
  *
- * @param txq
- *   Pointer to TX queue structure.
  * @param pkts
  *   Pointer to array of packets.
  * @param pkts_n
  *   Number of packets.
  * @param cs_flags
  *   Pointer of flags to be returned.
+ * @param metadata
+ *   Pointer of metadata to be returned.
+ * @param txq_offloads
+ *   Offloads enabled on Tx queue
  *
  * @return
- *   Number of packets having same ol_flags.
+ *   Number of packets having same ol_flags and metadata, if relevant.
  */
 static inline unsigned int
-txq_calc_offload(struct mlx5_txq_data *txq, struct rte_mbuf **pkts,
-                uint16_t pkts_n, uint8_t *cs_flags)
+txq_calc_offload(struct rte_mbuf **pkts, uint16_t pkts_n, uint8_t *cs_flags,
+                rte_be32_t *metadata, const uint64_t txq_offloads)
 {
        unsigned int pos;
-       const uint64_t ol_mask =
+       const uint64_t cksum_ol_mask =
                PKT_TX_IP_CKSUM | PKT_TX_TCP_CKSUM |
                PKT_TX_UDP_CKSUM | PKT_TX_TUNNEL_GRE |
                PKT_TX_TUNNEL_VXLAN | PKT_TX_OUTER_IP_CKSUM;
+       rte_be32_t p0_metadata, pn_metadata;
 
        if (!pkts_n)
                return 0;
-       /* Count the number of packets having same ol_flags. */
-       for (pos = 1; pos < pkts_n; ++pos)
-               if ((pkts[pos]->ol_flags ^ pkts[0]->ol_flags) & ol_mask)
+       p0_metadata = pkts[0]->ol_flags & PKT_TX_METADATA ?
+                       pkts[0]->tx_metadata : 0;
+       /* Count the number of packets having same offload parameters. */
+       for (pos = 1; pos < pkts_n; ++pos) {
+               /* Check if packet has same checksum flags. */
+               if ((txq_offloads & MLX5_VEC_TX_CKSUM_OFFLOAD_CAP) &&
+                   ((pkts[pos]->ol_flags ^ pkts[0]->ol_flags) & cksum_ol_mask))
                        break;
-       *cs_flags = txq_ol_cksum_to_cs(txq, pkts[0]);
+               /* Check if packet has same metadata. */
+               if (txq_offloads & DEV_TX_OFFLOAD_MATCH_METADATA) {
+                       pn_metadata = pkts[pos]->ol_flags & PKT_TX_METADATA ?
+                                       pkts[pos]->tx_metadata : 0;
+                       if (pn_metadata != p0_metadata)
+                               break;
+               }
+       }
+       *cs_flags = txq_ol_cksum_to_cs(pkts[0]);
+       *metadata = p0_metadata;
        return pos;
 }
 
@@ -99,7 +116,7 @@ mlx5_tx_burst_raw_vec(void *dpdk_txq, struct rte_mbuf **pkts,
                uint16_t ret;
 
                n = RTE_MIN((uint16_t)(pkts_n - nb_tx), MLX5_VPMD_TX_MAX_BURST);
-               ret = txq_burst_v(txq, &pkts[nb_tx], n, 0);
+               ret = txq_burst_v(txq, &pkts[nb_tx], n, 0, 0);
                nb_tx += ret;
                if (!ret)
                        break;
@@ -130,6 +147,7 @@ mlx5_tx_burst_vec(void *dpdk_txq, struct rte_mbuf **pkts, uint16_t pkts_n)
                uint8_t cs_flags = 0;
                uint16_t n;
                uint16_t ret;
+               rte_be32_t metadata = 0;
 
                /* Transmit multi-seg packets in the head of pkts list. */
                if ((txq->offloads & DEV_TX_OFFLOAD_MULTI_SEGS) &&
@@ -140,9 +158,12 @@ mlx5_tx_burst_vec(void *dpdk_txq, struct rte_mbuf **pkts, uint16_t pkts_n)
                n = RTE_MIN((uint16_t)(pkts_n - nb_tx), MLX5_VPMD_TX_MAX_BURST);
                if (txq->offloads & DEV_TX_OFFLOAD_MULTI_SEGS)
                        n = txq_count_contig_single_seg(&pkts[nb_tx], n);
-               if (txq->offloads & MLX5_VEC_TX_CKSUM_OFFLOAD_CAP)
-                       n = txq_calc_offload(txq, &pkts[nb_tx], n, &cs_flags);
-               ret = txq_burst_v(txq, &pkts[nb_tx], n, cs_flags);
+               if (txq->offloads & (MLX5_VEC_TX_CKSUM_OFFLOAD_CAP |
+                                    DEV_TX_OFFLOAD_MATCH_METADATA))
+                       n = txq_calc_offload(&pkts[nb_tx], n,
+                                            &cs_flags, &metadata,
+                                            txq->offloads);
+               ret = txq_burst_v(txq, &pkts[nb_tx], n, cs_flags, metadata);
                nb_tx += ret;
                if (!ret)
                        break;
@@ -223,17 +244,14 @@ mlx5_rx_burst_vec(void *dpdk_rxq, struct rte_mbuf **pkts, uint16_t pkts_n)
 /**
  * Check Tx queue flags are set for raw vectorized Tx.
  *
- * @param priv
- *   Pointer to private structure.
  * @param dev
- *   Pointer to rte_eth_dev structure.
+ *   Pointer to Ethernet device.
  *
  * @return
  *   1 if supported, negative errno value if not.
  */
 int __attribute__((cold))
-priv_check_raw_vec_tx_support(__rte_unused struct priv *priv,
-                             struct rte_eth_dev *dev)
+mlx5_check_raw_vec_tx_support(struct rte_eth_dev *dev)
 {
        uint64_t offloads = dev->data->dev_conf.txmode.offloads;
 
@@ -246,21 +264,20 @@ priv_check_raw_vec_tx_support(__rte_unused struct priv *priv,
 /**
  * Check a device can support vectorized TX.
  *
- * @param priv
- *   Pointer to private structure.
  * @param dev
- *   Pointer to rte_eth_dev structure.
+ *   Pointer to Ethernet device.
  *
  * @return
  *   1 if supported, negative errno value if not.
  */
 int __attribute__((cold))
-priv_check_vec_tx_support(struct priv *priv, struct rte_eth_dev *dev)
+mlx5_check_vec_tx_support(struct rte_eth_dev *dev)
 {
+       struct priv *priv = dev->data->dev_private;
        uint64_t offloads = dev->data->dev_conf.txmode.offloads;
 
        if (!priv->config.tx_vec_en ||
-           priv->txqs_n > MLX5_VPMD_MIN_TXQS ||
+           priv->txqs_n > (unsigned int)priv->config.txqs_vec ||
            priv->config.mps != MLX5_MPW_ENHANCED ||
            offloads & ~MLX5_VEC_TX_OFFLOAD_CAP)
                return -ENOTSUP;
@@ -277,11 +294,13 @@ priv_check_vec_tx_support(struct priv *priv, struct rte_eth_dev *dev)
  *   1 if supported, negative errno value if not.
  */
 int __attribute__((cold))
-rxq_check_vec_support(struct mlx5_rxq_data *rxq)
+mlx5_rxq_check_vec_support(struct mlx5_rxq_data *rxq)
 {
        struct mlx5_rxq_ctrl *ctrl =
                container_of(rxq, struct mlx5_rxq_ctrl, rxq);
 
+       if (mlx5_mprq_enabled(ETH_DEV(ctrl->priv)))
+               return -ENOTSUP;
        if (!ctrl->priv->config.rx_vec_en || rxq->sges_n != 0)
                return -ENOTSUP;
        return 1;
@@ -290,26 +309,29 @@ rxq_check_vec_support(struct mlx5_rxq_data *rxq)
 /**
  * Check a device can support vectorized RX.
  *
- * @param priv
- *   Pointer to private structure.
+ * @param dev
+ *   Pointer to Ethernet device.
  *
  * @return
  *   1 if supported, negative errno value if not.
  */
 int __attribute__((cold))
-priv_check_vec_rx_support(struct priv *priv)
+mlx5_check_vec_rx_support(struct rte_eth_dev *dev)
 {
+       struct priv *priv = dev->data->dev_private;
        uint16_t i;
 
        if (!priv->config.rx_vec_en)
                return -ENOTSUP;
+       if (mlx5_mprq_enabled(dev))
+               return -ENOTSUP;
        /* All the configured queues should support. */
        for (i = 0; i < priv->rxqs_n; ++i) {
                struct mlx5_rxq_data *rxq = (*priv->rxqs)[i];
 
                if (!rxq)
                        continue;
-               if (rxq_check_vec_support(rxq) < 0)
+               if (mlx5_rxq_check_vec_support(rxq) < 0)
                        break;
        }
        if (i != priv->rxqs_n)