net/mlx5e: Allow concurrent creation of encap entries
authorVlad Buslov <vladbu@mellanox.com>
Thu, 8 Aug 2019 14:01:33 +0000 (17:01 +0300)
committerSaeed Mahameed <saeedm@mellanox.com>
Fri, 9 Aug 2019 21:54:10 +0000 (14:54 -0700)
Encap entries creation is fully synchronized by encap_tbl_lock. In order to
allow concurrent allocation of hardware resources used to offload
encapsulation, extend mlx5e_encap_entry with 'res_ready' completion. Move
call to mlx5e_tc_tun_create_header_ipv{4|6}() out of encap_tbl_lock
critical section. Modify code that attaches new flows to existing encap to
wait for 'res_ready' completion before using the entry. Insert encap entry
to table before provisioning it to hardware and modify all users of the
encap table to verify that encap was fully initialized by checking
completion result for non-zero value (and to wait for 'res_ready'
completion, if necessary).

Signed-off-by: Vlad Buslov <vladbu@mellanox.com>
Reviewed-by: Roi Dayan <roid@mellanox.com>
Signed-off-by: Saeed Mahameed <saeedm@mellanox.com>
drivers/net/ethernet/mellanox/mlx5/core/en_rep.h
drivers/net/ethernet/mellanox/mlx5/core/en_tc.c

index 2e970d0729bea40ae940b1e8450af8035683a163..8ac96727cad875a7de64b7f9b03164694f5a860b 100644 (file)
@@ -165,6 +165,8 @@ struct mlx5e_encap_entry {
        char *encap_header;
        int encap_size;
        refcount_t refcnt;
+       struct completion res_ready;
+       int compl_result;
 };
 
 struct mlx5e_rep_sq {
index c13db9bc1f9bdf8c8bae0f48b338738344eca161..5be3da62149948c069d9b057054ba96c338b17b2 100644 (file)
@@ -2904,8 +2904,18 @@ static int mlx5e_attach_encap(struct mlx5e_priv *priv,
        e = mlx5e_encap_get(priv, &key, hash_key);
 
        /* must verify if encap is valid or not */
-       if (e)
+       if (e) {
+               mutex_unlock(&esw->offloads.encap_tbl_lock);
+               wait_for_completion(&e->res_ready);
+
+               /* Protect against concurrent neigh update. */
+               mutex_lock(&esw->offloads.encap_tbl_lock);
+               if (e->compl_result) {
+                       err = -EREMOTEIO;
+                       goto out_err;
+               }
                goto attach_flow;
+       }
 
        e = kzalloc(sizeof(*e), GFP_KERNEL);
        if (!e) {
@@ -2914,22 +2924,32 @@ static int mlx5e_attach_encap(struct mlx5e_priv *priv,
        }
 
        refcount_set(&e->refcnt, 1);
+       init_completion(&e->res_ready);
+
        e->tun_info = tun_info;
        err = mlx5e_tc_tun_init_encap_attr(mirred_dev, priv, e, extack);
-       if (err)
+       if (err) {
+               kfree(e);
+               e = NULL;
                goto out_err;
+       }
 
        INIT_LIST_HEAD(&e->flows);
+       hash_add_rcu(esw->offloads.encap_tbl, &e->encap_hlist, hash_key);
+       mutex_unlock(&esw->offloads.encap_tbl_lock);
 
        if (family == AF_INET)
                err = mlx5e_tc_tun_create_header_ipv4(priv, mirred_dev, e);
        else if (family == AF_INET6)
                err = mlx5e_tc_tun_create_header_ipv6(priv, mirred_dev, e);
 
-       if (err)
+       /* Protect against concurrent neigh update. */
+       mutex_lock(&esw->offloads.encap_tbl_lock);
+       complete_all(&e->res_ready);
+       if (err) {
+               e->compl_result = err;
                goto out_err;
-
-       hash_add_rcu(esw->offloads.encap_tbl, &e->encap_hlist, hash_key);
+       }
 
 attach_flow:
        flow->encaps[out_index].e = e;
@@ -2949,7 +2969,8 @@ attach_flow:
 
 out_err:
        mutex_unlock(&esw->offloads.encap_tbl_lock);
-       kfree(e);
+       if (e)
+               mlx5e_encap_put(priv, e);
        return err;
 }