dma-mapping: clear harmful GFP_* flags in common code
authorChristoph Hellwig <hch@lst.de>
Fri, 22 Dec 2017 15:05:15 +0000 (16:05 +0100)
committerChristoph Hellwig <hch@lst.de>
Mon, 15 Jan 2018 08:34:55 +0000 (09:34 +0100)
Lift the code from x86 so that we behave consistently.  In the future we
should probably warn if any of these is set.

Signed-off-by: Christoph Hellwig <hch@lst.de>
Acked-by: Jesper Nilsson <jesper.nilsson@axis.com>
Acked-by: Geert Uytterhoeven <geert@linux-m68k.org> [m68k]
12 files changed:
arch/cris/arch-v32/drivers/pci/dma.c
arch/h8300/kernel/dma.c
arch/m68k/kernel/dma.c
arch/mips/cavium-octeon/dma-octeon.c
arch/mips/loongson64/common/dma-swiotlb.c
arch/mips/mm/dma-default.c
arch/mips/netlogic/common/nlm-dma.c
arch/mn10300/mm/dma-alloc.c
arch/nios2/mm/dma-mapping.c
arch/powerpc/kernel/dma.c
arch/x86/kernel/pci-dma.c
include/linux/dma-mapping.h

index dbbd3816cc0bd9285daadb1890621f51137a390b..8c3802244ef302257ba493bc2541948fc8ebae52 100644 (file)
@@ -22,9 +22,6 @@ static void *v32_dma_alloc(struct device *dev, size_t size,
 {
        void *ret;
 
-       /* ignore region specifiers */
-       gfp &= ~(__GFP_DMA | __GFP_HIGHMEM);
-
        if (dev == NULL || (dev->coherent_dma_mask < 0xffffffff))
                gfp |= GFP_DMA;
 
index 225dd0a188dc62f59ad1fb484cef657054f45e9a..d44ba5db4ac3fab9fc13e5dc14367e6f11755a97 100644 (file)
@@ -16,9 +16,6 @@ static void *dma_alloc(struct device *dev, size_t size,
 {
        void *ret;
 
-       /* ignore region specifiers */
-       gfp &= ~(__GFP_DMA | __GFP_HIGHMEM);
-
        if (dev == NULL || (*dev->dma_mask < 0xffffffff))
                gfp |= GFP_DMA;
        ret = (void *)__get_free_pages(gfp, get_order(size));
index 87ef73a9385672ba6af2b8af42fda3043e3d4eba..c01b9b8f97bf1b517e86483883cd63ed5f7dc253 100644 (file)
@@ -76,8 +76,6 @@ static void *m68k_dma_alloc(struct device *dev, size_t size,
                dma_addr_t *dma_handle, gfp_t gfp, unsigned long attrs)
 {
        void *ret;
-       /* ignore region specifiers */
-       gfp &= ~(__GFP_DMA | __GFP_HIGHMEM);
 
        if (dev == NULL || (*dev->dma_mask < 0xffffffff))
                gfp |= GFP_DMA;
index c64bd87f0b6ef06b5538459f32023cba29015289..5baf79fce643821b7272eb5893400d38f5217ced 100644 (file)
@@ -161,9 +161,6 @@ static void *octeon_dma_alloc_coherent(struct device *dev, size_t size,
 {
        void *ret;
 
-       /* ignore region specifiers */
-       gfp &= ~(__GFP_DMA | __GFP_DMA32 | __GFP_HIGHMEM);
-
        if (IS_ENABLED(CONFIG_ZONE_DMA) && dev == NULL)
                gfp |= __GFP_DMA;
        else if (IS_ENABLED(CONFIG_ZONE_DMA) &&
index ef07740cee61bed6df30c3751148ca636e218b03..15388c24a5046617290dfc0f144a9cc0cefa0036 100644 (file)
@@ -15,9 +15,6 @@ static void *loongson_dma_alloc_coherent(struct device *dev, size_t size,
 {
        void *ret;
 
-       /* ignore region specifiers */
-       gfp &= ~(__GFP_DMA | __GFP_DMA32 | __GFP_HIGHMEM);
-
        if ((IS_ENABLED(CONFIG_ISA) && dev == NULL) ||
            (IS_ENABLED(CONFIG_ZONE_DMA) &&
             dev->coherent_dma_mask < DMA_BIT_MASK(32)))
index e3e94d05f0fd77437a1746a5ca91a83706357167..237532e899194a029ccc7278a8e744fefcbadff5 100644 (file)
@@ -93,9 +93,6 @@ static gfp_t massage_gfp_flags(const struct device *dev, gfp_t gfp)
 {
        gfp_t dma_flag;
 
-       /* ignore region specifiers */
-       gfp &= ~(__GFP_DMA | __GFP_DMA32 | __GFP_HIGHMEM);
-
 #ifdef CONFIG_ISA
        if (dev == NULL)
                dma_flag = __GFP_DMA;
index 0ec9d9da6d51bddf440dfed4f19eb38559522c49..49c975b6aa288ca967a639ba22f42da78c788e3a 100644 (file)
@@ -47,9 +47,6 @@ static char *nlm_swiotlb;
 static void *nlm_dma_alloc_coherent(struct device *dev, size_t size,
        dma_addr_t *dma_handle, gfp_t gfp, unsigned long attrs)
 {
-       /* ignore region specifiers */
-       gfp &= ~(__GFP_DMA | __GFP_DMA32 | __GFP_HIGHMEM);
-
 #ifdef CONFIG_ZONE_DMA32
        if (dev->coherent_dma_mask <= DMA_BIT_MASK(32))
                gfp |= __GFP_DMA32;
index 86108d2496b35fa3727a6c9625b792fa47a21e90..e3910d4db102ba24d43a0da454dc3fe00ff2ec2e 100644 (file)
@@ -37,9 +37,6 @@ static void *mn10300_dma_alloc(struct device *dev, size_t size,
                goto done;
        }
 
-       /* ignore region specifiers */
-       gfp &= ~(__GFP_DMA | __GFP_HIGHMEM);
-
        if (dev == NULL || dev->coherent_dma_mask < 0xffffffff)
                gfp |= GFP_DMA;
 
index 7040c1adbb5efecf1e1de93d34c19c66e67f6fec..4be815519dd4e1c33ff303724451d27d5fc3721f 100644 (file)
@@ -63,9 +63,6 @@ static void *nios2_dma_alloc(struct device *dev, size_t size,
 {
        void *ret;
 
-       /* ignore region specifiers */
-       gfp &= ~(__GFP_DMA | __GFP_HIGHMEM);
-
        /* optimized page clearing */
        gfp |= __GFP_ZERO;
 
index 6d5d04ccf3b4dd9a4995313e4a684ecaca9a1cac..76079841d3d0be4038643345ddd8a8e4fd4757b1 100644 (file)
@@ -105,9 +105,6 @@ void *__dma_nommu_alloc_coherent(struct device *dev, size_t size,
        };
 #endif /* CONFIG_FSL_SOC */
 
-       /* ignore region specifiers */
-       flag  &= ~(__GFP_HIGHMEM);
-
        page = alloc_pages_node(node, flag, get_order(size));
        if (page == NULL)
                return NULL;
index 8439e6de61563abe4d58f189d2a5f82d05c1fb19..61a8f1cb382924c2cf6119472166827e93328764 100644 (file)
@@ -87,7 +87,6 @@ void *dma_generic_alloc_coherent(struct device *dev, size_t size,
 
        dma_mask = dma_alloc_coherent_mask(dev, flag);
 
-       flag &= ~__GFP_ZERO;
 again:
        page = NULL;
        /* CMA can be used only in the context which permits sleeping */
@@ -139,7 +138,6 @@ bool arch_dma_alloc_attrs(struct device **dev, gfp_t *gfp)
        if (!*dev)
                *dev = &x86_dma_fallback_dev;
 
-       *gfp &= ~(__GFP_DMA | __GFP_HIGHMEM | __GFP_DMA32);
        *gfp = dma_alloc_coherent_gfp_flags(*dev, *gfp);
 
        if (!is_device_dma_capable(*dev))
index 16add66d5b68b6fc0e0629574bbe77823290b858..d036e78b9ae9a057766aa4b4014fdb2409aa4d98 100644 (file)
@@ -518,6 +518,13 @@ static inline void *dma_alloc_attrs(struct device *dev, size_t size,
        if (dma_alloc_from_dev_coherent(dev, size, dma_handle, &cpu_addr))
                return cpu_addr;
 
+       /*
+        * Let the implementation decide on the zone to allocate from, and
+        * decide on the way of zeroing the memory given that the memory
+        * returned should always be zeroed.
+        */
+       flag &= ~(__GFP_DMA | __GFP_DMA32 | __GFP_HIGHMEM | __GFP_ZERO);
+
        if (!arch_dma_alloc_attrs(&dev, &flag))
                return NULL;
        if (!ops->alloc)