kvm: x86: mmu: Rename spte_is_locklessly_modifiable()
authorJunaid Shahid <junaids@google.com>
Wed, 7 Dec 2016 00:46:11 +0000 (16:46 -0800)
committerRadim Krčmář <rkrcmar@redhat.com>
Mon, 9 Jan 2017 13:46:06 +0000 (14:46 +0100)
This change renames spte_is_locklessly_modifiable() to
spte_can_locklessly_be_made_writable() to distinguish it from other
forms of lockless modifications. The full set of lockless modifications
is covered by spte_has_volatile_bits().

Signed-off-by: Junaid Shahid <junaids@google.com>
Reviewed-by: Paolo Bonzini <pbonzini@redhat.com>
Signed-off-by: Paolo Bonzini <pbonzini@redhat.com>
arch/x86/kvm/mmu.c

index 3f9fa39f1469d886bd6e867020b2fb9307fb2ec4..e923f393ac2629659aee7e0039d99d869412ed23 100644 (file)
@@ -474,7 +474,7 @@ retry:
 }
 #endif
 
-static bool spte_is_locklessly_modifiable(u64 spte)
+static bool spte_can_locklessly_be_made_writable(u64 spte)
 {
        return (spte & (SPTE_HOST_WRITEABLE | SPTE_MMU_WRITEABLE)) ==
                (SPTE_HOST_WRITEABLE | SPTE_MMU_WRITEABLE);
@@ -488,7 +488,7 @@ static bool spte_has_volatile_bits(u64 spte)
         * also, it can help us to get a stable is_writable_pte()
         * to ensure tlb flush is not missed.
         */
-       if (spte_is_locklessly_modifiable(spte))
+       if (spte_can_locklessly_be_made_writable(spte))
                return true;
 
        if (!shadow_accessed_mask)
@@ -557,7 +557,7 @@ static bool mmu_spte_update(u64 *sptep, u64 new_spte)
         * we always atomically update it, see the comments in
         * spte_has_volatile_bits().
         */
-       if (spte_is_locklessly_modifiable(old_spte) &&
+       if (spte_can_locklessly_be_made_writable(old_spte) &&
              !is_writable_pte(new_spte))
                ret = true;
 
@@ -1213,7 +1213,7 @@ static bool spte_write_protect(u64 *sptep, bool pt_protect)
        u64 spte = *sptep;
 
        if (!is_writable_pte(spte) &&
-             !(pt_protect && spte_is_locklessly_modifiable(spte)))
+             !(pt_protect && spte_can_locklessly_be_made_writable(spte)))
                return false;
 
        rmap_printk("rmap_write_protect: spte %p %llx\n", sptep, *sptep);
@@ -2975,7 +2975,7 @@ static bool fast_page_fault(struct kvm_vcpu *vcpu, gva_t gva, int level,
         * Currently, to simplify the code, only the spte write-protected
         * by dirty-log can be fast fixed.
         */
-       if (!spte_is_locklessly_modifiable(spte))
+       if (!spte_can_locklessly_be_made_writable(spte))
                goto exit;
 
        /*