drm/etnaviv: mmu: stop using iommu map/unmap functions
authorLucas Stach <l.stach@pengutronix.de>
Thu, 7 Sep 2017 14:52:13 +0000 (16:52 +0200)
committerLucas Stach <l.stach@pengutronix.de>
Tue, 10 Oct 2017 09:36:30 +0000 (11:36 +0200)
This is a preparation to remove the etnaviv dependency on the IOMMU
subsystem by importing the relevant parts of the iommu map/unamp
functions into the driver.

Signed-off-by: Lucas Stach <l.stach@pengutronix.de>
Reviewed-By: Wladimir J. van der Laan <laanwj@gmail.com>
drivers/gpu/drm/etnaviv/etnaviv_mmu.c
drivers/gpu/drm/etnaviv/etnaviv_mmu.h

index f3ed07db9b2d529f817d3ec0d6c1e6d797ef118d..e7b8b7aff9c6e82e8653500a93b527208eaf9f0a 100644 (file)
 #include "etnaviv_iommu.h"
 #include "etnaviv_mmu.h"
 
+static void etnaviv_domain_unmap(struct iommu_domain *domain,
+                                unsigned long iova, size_t size)
+{
+       size_t unmapped_page, unmapped = 0;
+       size_t pgsize = SZ_4K;
+
+       if (!IS_ALIGNED(iova | size, pgsize)) {
+               pr_err("unaligned: iova 0x%lx size 0x%zx min_pagesz 0x%x\n",
+                      iova, size, pgsize);
+               return;
+       }
+
+       while (unmapped < size) {
+               unmapped_page = domain->ops->unmap(domain, iova, pgsize);
+               if (!unmapped_page)
+                       break;
+
+               iova += unmapped_page;
+               unmapped += unmapped_page;
+       }
+}
+
+static int etnaviv_domain_map(struct iommu_domain *domain, unsigned long iova,
+                    phys_addr_t paddr, size_t size, int prot)
+{
+       unsigned long orig_iova = iova;
+       size_t pgsize = SZ_4K;
+       size_t orig_size = size;
+       int ret = 0;
+
+       if (!IS_ALIGNED(iova | paddr | size, pgsize)) {
+               pr_err("unaligned: iova 0x%lx pa %pa size 0x%zx min_pagesz 0x%x\n",
+                      iova, &paddr, size, pgsize);
+               return -EINVAL;
+       }
+
+       while (size) {
+               ret = domain->ops->map(domain, iova, paddr, pgsize, prot);
+               if (ret)
+                       break;
+
+               iova += pgsize;
+               paddr += pgsize;
+               size -= pgsize;
+       }
+
+       /* unroll mapping in case something went wrong */
+       if (ret)
+               etnaviv_domain_unmap(domain, orig_iova, orig_size - size);
+
+       return ret;
+}
+
 int etnaviv_iommu_map(struct etnaviv_iommu *iommu, u32 iova,
                struct sg_table *sgt, unsigned len, int prot)
 {
@@ -40,7 +93,7 @@ int etnaviv_iommu_map(struct etnaviv_iommu *iommu, u32 iova,
 
                VERB("map[%d]: %08x %08x(%zx)", i, iova, pa, bytes);
 
-               ret = iommu_map(domain, da, pa, bytes, prot);
+               ret = etnaviv_domain_map(domain, da, pa, bytes, prot);
                if (ret)
                        goto fail;
 
@@ -55,14 +108,14 @@ fail:
        for_each_sg(sgt->sgl, sg, i, j) {
                size_t bytes = sg_dma_len(sg) + sg->offset;
 
-               iommu_unmap(domain, da, bytes);
+               etnaviv_domain_unmap(domain, da, bytes);
                da += bytes;
        }
        return ret;
 }
 
-int etnaviv_iommu_unmap(struct etnaviv_iommu *iommu, u32 iova,
-               struct sg_table *sgt, unsigned len)
+void etnaviv_iommu_unmap(struct etnaviv_iommu *iommu, u32 iova,
+                        struct sg_table *sgt, unsigned len)
 {
        struct iommu_domain *domain = iommu->domain;
        struct scatterlist *sg;
@@ -71,11 +124,8 @@ int etnaviv_iommu_unmap(struct etnaviv_iommu *iommu, u32 iova,
 
        for_each_sg(sgt->sgl, sg, sgt->nents, i) {
                size_t bytes = sg_dma_len(sg) + sg->offset;
-               size_t unmapped;
 
-               unmapped = iommu_unmap(domain, da, bytes);
-               if (unmapped < bytes)
-                       return unmapped;
+               etnaviv_domain_unmap(domain, da, bytes);
 
                VERB("unmap[%d]: %08x(%zx)", i, iova, bytes);
 
@@ -83,8 +133,6 @@ int etnaviv_iommu_unmap(struct etnaviv_iommu *iommu, u32 iova,
 
                da += bytes;
        }
-
-       return 0;
 }
 
 static void etnaviv_iommu_remove_mapping(struct etnaviv_iommu *mmu,
@@ -329,8 +377,8 @@ int etnaviv_iommu_get_suballoc_va(struct etnaviv_gpu *gpu, dma_addr_t paddr,
                        mutex_unlock(&mmu->lock);
                        return ret;
                }
-               ret = iommu_map(mmu->domain, vram_node->start, paddr, size,
-                               IOMMU_READ);
+               ret = etnaviv_domain_map(mmu->domain, vram_node->start, paddr,
+                                        size, IOMMU_READ);
                if (ret < 0) {
                        drm_mm_remove_node(vram_node);
                        mutex_unlock(&mmu->lock);
@@ -353,7 +401,7 @@ void etnaviv_iommu_put_suballoc_va(struct etnaviv_gpu *gpu,
 
        if (mmu->version == ETNAVIV_IOMMU_V2) {
                mutex_lock(&mmu->lock);
-               iommu_unmap(mmu->domain,iova, size);
+               etnaviv_domain_unmap(mmu->domain, iova, size);
                drm_mm_remove_node(vram_node);
                mutex_unlock(&mmu->lock);
        }
index 54be289e5981c65a9fc2e5a0c11e49071918a21a..6b291b6f6a45098f2953f8785839773100012c3f 100644 (file)
@@ -53,7 +53,7 @@ int etnaviv_iommu_attach(struct etnaviv_iommu *iommu, const char **names,
        int cnt);
 int etnaviv_iommu_map(struct etnaviv_iommu *iommu, u32 iova,
        struct sg_table *sgt, unsigned len, int prot);
-int etnaviv_iommu_unmap(struct etnaviv_iommu *iommu, u32 iova,
+void etnaviv_iommu_unmap(struct etnaviv_iommu *iommu, u32 iova,
        struct sg_table *sgt, unsigned len);
 int etnaviv_iommu_map_gem(struct etnaviv_iommu *mmu,
        struct etnaviv_gem_object *etnaviv_obj, u32 memory_base,