block: move bio_alloc_pages() to bcache
authorMing Lei <ming.lei@redhat.com>
Mon, 18 Dec 2017 12:22:10 +0000 (20:22 +0800)
committerJens Axboe <axboe@kernel.dk>
Sat, 6 Jan 2018 16:18:00 +0000 (09:18 -0700)
bcache is the only user of bio_alloc_pages(), so move this function into
bcache, and avoid it being misused in the future.

Also rename it to bch_bio_allo_pages() since it is bcache only.

Signed-off-by: Ming Lei <ming.lei@redhat.com>
Signed-off-by: Jens Axboe <axboe@kernel.dk>
block/bio.c
drivers/md/bcache/btree.c
drivers/md/bcache/debug.c
drivers/md/bcache/movinggc.c
drivers/md/bcache/request.c
drivers/md/bcache/util.c
drivers/md/bcache/util.h
drivers/md/bcache/writeback.c
include/linux/bio.h

index 8bfdea58159ba9ffd972dd95717e0eee99101e0a..fe1efbeaf4aa0fc063156aad9b18332b007f0af9 100644 (file)
@@ -968,34 +968,6 @@ void bio_advance(struct bio *bio, unsigned bytes)
 }
 EXPORT_SYMBOL(bio_advance);
 
-/**
- * bio_alloc_pages - allocates a single page for each bvec in a bio
- * @bio: bio to allocate pages for
- * @gfp_mask: flags for allocation
- *
- * Allocates pages up to @bio->bi_vcnt.
- *
- * Returns 0 on success, -ENOMEM on failure. On failure, any allocated pages are
- * freed.
- */
-int bio_alloc_pages(struct bio *bio, gfp_t gfp_mask)
-{
-       int i;
-       struct bio_vec *bv;
-
-       bio_for_each_segment_all(bv, bio, i) {
-               bv->bv_page = alloc_page(gfp_mask);
-               if (!bv->bv_page) {
-                       while (--bv >= bio->bi_io_vec)
-                               __free_page(bv->bv_page);
-                       return -ENOMEM;
-               }
-       }
-
-       return 0;
-}
-EXPORT_SYMBOL(bio_alloc_pages);
-
 /**
  * bio_copy_data - copy contents of data buffers from one chain of bios to
  * another
index 02a4cf646fdcee32a436c442adddfebb6f03a6c9..ebb1874218e79a77eba7943eb62f1045f08af932 100644 (file)
@@ -419,7 +419,7 @@ static void do_btree_node_write(struct btree *b)
        SET_PTR_OFFSET(&k.key, 0, PTR_OFFSET(&k.key, 0) +
                       bset_sector_offset(&b->keys, i));
 
-       if (!bio_alloc_pages(b->bio, __GFP_NOWARN|GFP_NOWAIT)) {
+       if (!bch_bio_alloc_pages(b->bio, __GFP_NOWARN|GFP_NOWAIT)) {
                int j;
                struct bio_vec *bv;
                void *base = (void *) ((unsigned long) i & ~(PAGE_SIZE - 1));
index c7a02c4900dab31b31150d94efcc109f2b50b737..879ab21074c64fc7c3369372dd24e4133fdd4c2b 100644 (file)
@@ -116,7 +116,7 @@ void bch_data_verify(struct cached_dev *dc, struct bio *bio)
                return;
        check->bi_opf = REQ_OP_READ;
 
-       if (bio_alloc_pages(check, GFP_NOIO))
+       if (bch_bio_alloc_pages(check, GFP_NOIO))
                goto out_put;
 
        submit_bio_wait(check);
index d50c1c97da68ea841a0196a7e92f3abd29d863f1..a24c3a95b2c0de85dd4582fadd12f719816c2038 100644 (file)
@@ -162,7 +162,7 @@ static void read_moving(struct cache_set *c)
                bio_set_op_attrs(bio, REQ_OP_READ, 0);
                bio->bi_end_io  = read_moving_endio;
 
-               if (bio_alloc_pages(bio, GFP_KERNEL))
+               if (bch_bio_alloc_pages(bio, GFP_KERNEL))
                        goto err;
 
                trace_bcache_gc_copy(&w->key);
index 643c3021624faa1fc6af0b84bdf49d07135d6238..c493fb947dc9ef0c2bbd45e5642dfa17354c19df 100644 (file)
@@ -841,7 +841,7 @@ static int cached_dev_cache_miss(struct btree *b, struct search *s,
        cache_bio->bi_private   = &s->cl;
 
        bch_bio_map(cache_bio, NULL);
-       if (bio_alloc_pages(cache_bio, __GFP_NOWARN|GFP_NOIO))
+       if (bch_bio_alloc_pages(cache_bio, __GFP_NOWARN|GFP_NOIO))
                goto out_put;
 
        if (reada)
index 61813d23001543932b05857b6f9143be908242b4..a23cd6a14b7427acd9644992d47ee209f8dad092 100644 (file)
@@ -283,6 +283,33 @@ start:             bv->bv_len      = min_t(size_t, PAGE_SIZE - bv->bv_offset,
        }
 }
 
+/**
+ * bch_bio_alloc_pages - allocates a single page for each bvec in a bio
+ * @bio: bio to allocate pages for
+ * @gfp_mask: flags for allocation
+ *
+ * Allocates pages up to @bio->bi_vcnt.
+ *
+ * Returns 0 on success, -ENOMEM on failure. On failure, any allocated pages are
+ * freed.
+ */
+int bch_bio_alloc_pages(struct bio *bio, gfp_t gfp_mask)
+{
+       int i;
+       struct bio_vec *bv;
+
+       bio_for_each_segment_all(bv, bio, i) {
+               bv->bv_page = alloc_page(gfp_mask);
+               if (!bv->bv_page) {
+                       while (--bv >= bio->bi_io_vec)
+                               __free_page(bv->bv_page);
+                       return -ENOMEM;
+               }
+       }
+
+       return 0;
+}
+
 /*
  * Portions Copyright (c) 1996-2001, PostgreSQL Global Development Group (Any
  * use permitted, subject to terms of PostgreSQL license; see.)
index ed5e8a412eb8e3582251495e137741fa6a665cf6..4df4c5c1cab2ea4ca7f76d9622392ae56de92435 100644 (file)
@@ -558,6 +558,7 @@ static inline unsigned fract_exp_two(unsigned x, unsigned fract_bits)
 }
 
 void bch_bio_map(struct bio *bio, void *base);
+int bch_bio_alloc_pages(struct bio *bio, gfp_t gfp_mask);
 
 static inline sector_t bdev_sectors(struct block_device *bdev)
 {
index 56a37884ca8b44725794c59fbe9197beb679314c..1ac2af6128b154f700fee5b6287ed4ed9338591e 100644 (file)
@@ -278,7 +278,7 @@ static void read_dirty(struct cached_dev *dc)
                bio_set_dev(&io->bio, PTR_CACHE(dc->disk.c, &w->key, 0)->bdev);
                io->bio.bi_end_io       = read_dirty_endio;
 
-               if (bio_alloc_pages(&io->bio, GFP_KERNEL))
+               if (bch_bio_alloc_pages(&io->bio, GFP_KERNEL))
                        goto err_free;
 
                trace_bcache_writeback(&w->key);
index 435ddf04e8897550324ed12ae49709720ce65322..367a979fd4a6f250c6778b0dfe29b6b6450ddc6d 100644 (file)
@@ -500,7 +500,6 @@ static inline void bio_flush_dcache_pages(struct bio *bi)
 #endif
 
 extern void bio_copy_data(struct bio *dst, struct bio *src);
-extern int bio_alloc_pages(struct bio *bio, gfp_t gfp);
 extern void bio_free_pages(struct bio *bio);
 
 extern struct bio *bio_copy_user_iov(struct request_queue *,