bnxt_en: Improve tx ring reservation logic.
authorMichael Chan <michael.chan@broadcom.com>
Mon, 28 Aug 2017 17:40:26 +0000 (13:40 -0400)
committerDavid S. Miller <davem@davemloft.net>
Mon, 28 Aug 2017 23:57:09 +0000 (16:57 -0700)
When the number of TX rings is changed (e.g. ethtool -L, enabling XDP TX
rings, etc), the current code tries to reserve the new number of TX rings
before closing and re-opening the NIC.  If we are unable to reserve the
new TX rings, we abort the operation and keep the current TX rings.

The problem is that the firmware will disable the current TX rings even
when it cannot reserve the new set of TX rings.  We fix it as follows:

1. Instead of reserving the new set of TX rings, just ask the firmware
to check if the new set of TX rings is available.  There is a flag in
the firmware message to do that.  If not available, abort and the
current TX rings will not be disabled.

2. Do the actual TX ring reservation in the path that opens the NIC.
We keep the number of TX rings currently successfully reserved.  If the
number of TX rings is different than the reserved TX rings, we call
firmware and reserve again.

Signed-off-by: Michael Chan <michael.chan@broadcom.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
drivers/net/ethernet/broadcom/bnxt/bnxt.c
drivers/net/ethernet/broadcom/bnxt/bnxt.h
drivers/net/ethernet/broadcom/bnxt/bnxt_ethtool.c
drivers/net/ethernet/broadcom/bnxt/bnxt_xdp.c

index 6e14fc4fe2c82262b96ffd7607e5299ee1e14a24..4b0a80721c898b16b6f8802927099eeb12e19219 100644 (file)
@@ -4461,9 +4461,33 @@ static int bnxt_hwrm_reserve_tx_rings(struct bnxt *bp, int *tx_rings)
        mutex_lock(&bp->hwrm_cmd_lock);
        rc = __bnxt_hwrm_get_tx_rings(bp, 0xffff, tx_rings);
        mutex_unlock(&bp->hwrm_cmd_lock);
+       if (!rc)
+               bp->tx_reserved_rings = *tx_rings;
        return rc;
 }
 
+static int bnxt_hwrm_check_tx_rings(struct bnxt *bp, int tx_rings)
+{
+       struct hwrm_func_cfg_input req = {0};
+       int rc;
+
+       if (bp->hwrm_spec_code < 0x10801)
+               return 0;
+
+       if (BNXT_VF(bp))
+               return 0;
+
+       bnxt_hwrm_cmd_hdr_init(bp, &req, HWRM_FUNC_CFG, -1, -1);
+       req.fid = cpu_to_le16(0xffff);
+       req.flags = cpu_to_le32(FUNC_CFG_REQ_FLAGS_TX_ASSETS_TEST);
+       req.enables = cpu_to_le32(FUNC_CFG_REQ_ENABLES_NUM_TX_RINGS);
+       req.num_tx_rings = cpu_to_le16(tx_rings);
+       rc = hwrm_send_message_silent(bp, &req, sizeof(req), HWRM_CMD_TIMEOUT);
+       if (rc)
+               return -ENOMEM;
+       return 0;
+}
+
 static void bnxt_hwrm_set_coal_params(struct bnxt *bp, u32 max_bufs,
        u32 buf_tmrs, u16 flags,
        struct hwrm_ring_cmpl_ring_cfg_aggint_params_input *req)
@@ -5115,6 +5139,15 @@ static int bnxt_init_chip(struct bnxt *bp, bool irq_re_init)
                                   rc);
                        goto err_out;
                }
+               if (bp->tx_reserved_rings != bp->tx_nr_rings) {
+                       int tx = bp->tx_nr_rings;
+
+                       if (bnxt_hwrm_reserve_tx_rings(bp, &tx) ||
+                           tx < bp->tx_nr_rings) {
+                               rc = -ENOMEM;
+                               goto err_out;
+                       }
+               }
        }
 
        rc = bnxt_hwrm_ring_alloc(bp);
@@ -6998,8 +7031,8 @@ static void bnxt_sp_task(struct work_struct *work)
 }
 
 /* Under rtnl_lock */
-int bnxt_reserve_rings(struct bnxt *bp, int tx, int rx, bool sh, int tcs,
-                      int tx_xdp)
+int bnxt_check_rings(struct bnxt *bp, int tx, int rx, bool sh, int tcs,
+                    int tx_xdp)
 {
        int max_rx, max_tx, tx_sets = 1;
        int tx_rings_needed;
@@ -7019,10 +7052,7 @@ int bnxt_reserve_rings(struct bnxt *bp, int tx, int rx, bool sh, int tcs,
        if (max_tx < tx_rings_needed)
                return -ENOMEM;
 
-       if (bnxt_hwrm_reserve_tx_rings(bp, &tx_rings_needed) ||
-           tx_rings_needed < (tx * tx_sets + tx_xdp))
-               return -ENOMEM;
-       return 0;
+       return bnxt_hwrm_check_tx_rings(bp, tx_rings_needed);
 }
 
 static void bnxt_unmap_bars(struct bnxt *bp, struct pci_dev *pdev)
@@ -7211,8 +7241,8 @@ int bnxt_setup_mq_tc(struct net_device *dev, u8 tc)
        if (bp->flags & BNXT_FLAG_SHARED_RINGS)
                sh = true;
 
-       rc = bnxt_reserve_rings(bp, bp->tx_nr_rings_per_tc, bp->rx_nr_rings,
-                               sh, tc, bp->tx_nr_rings_xdp);
+       rc = bnxt_check_rings(bp, bp->tx_nr_rings_per_tc, bp->rx_nr_rings,
+                             sh, tc, bp->tx_nr_rings_xdp);
        if (rc)
                return rc;
 
index 2d84d5719b701893e0f615fb7c542f31b5ba25a5..568516f9e36e7de330e1376470a8c612189eda92 100644 (file)
@@ -1118,6 +1118,7 @@ struct bnxt {
        int                     tx_nr_rings;
        int                     tx_nr_rings_per_tc;
        int                     tx_nr_rings_xdp;
+       int                     tx_reserved_rings;
 
        int                     tx_wake_thresh;
        int                     tx_push_thresh;
@@ -1346,8 +1347,8 @@ int bnxt_open_nic(struct bnxt *, bool, bool);
 int bnxt_half_open_nic(struct bnxt *bp);
 void bnxt_half_close_nic(struct bnxt *bp);
 int bnxt_close_nic(struct bnxt *, bool, bool);
-int bnxt_reserve_rings(struct bnxt *bp, int tx, int rx, bool sh, int tcs,
-                      int tx_xdp);
+int bnxt_check_rings(struct bnxt *bp, int tx, int rx, bool sh, int tcs,
+                    int tx_xdp);
 int bnxt_setup_mq_tc(struct net_device *dev, u8 tc);
 int bnxt_get_max_rings(struct bnxt *, int *, int *, bool);
 void bnxt_restore_pf_fw_resources(struct bnxt *bp);
index 08b870d7d4669d92c6957097afce56257f27f336..8eff05a3e0e4b748c3a0d35661ce7b1901ddef61 100644 (file)
@@ -435,8 +435,7 @@ static int bnxt_set_channels(struct net_device *dev,
                }
                tx_xdp = req_rx_rings;
        }
-       rc = bnxt_reserve_rings(bp, req_tx_rings, req_rx_rings, sh, tcs,
-                               tx_xdp);
+       rc = bnxt_check_rings(bp, req_tx_rings, req_rx_rings, sh, tcs, tx_xdp);
        if (rc) {
                netdev_warn(dev, "Unable to allocate the requested rings\n");
                return rc;
index 3961a680745483ff638fd9a9fc7f7725d87ef50b..d8f0c837b72cff8148b0acfab2d5e7fba592de45 100644 (file)
@@ -169,8 +169,8 @@ static int bnxt_xdp_set(struct bnxt *bp, struct bpf_prog *prog)
        tc = netdev_get_num_tc(dev);
        if (!tc)
                tc = 1;
-       rc = bnxt_reserve_rings(bp, bp->tx_nr_rings_per_tc, bp->rx_nr_rings,
-                               true, tc, tx_xdp);
+       rc = bnxt_check_rings(bp, bp->tx_nr_rings_per_tc, bp->rx_nr_rings,
+                             true, tc, tx_xdp);
        if (rc) {
                netdev_warn(dev, "Unable to reserve enough TX rings to support XDP.\n");
                return rc;