kvm: search_memslots: add simple LRU memslot caching
authorIgor Mammedov <imammedo@redhat.com>
Mon, 1 Dec 2014 17:29:25 +0000 (17:29 +0000)
committerPaolo Bonzini <pbonzini@redhat.com>
Thu, 4 Dec 2014 14:29:10 +0000 (15:29 +0100)
In typical guest boot workload only 2-3 memslots are used
extensively, and at that it's mostly the same memslot
lookup operation.

Adding LRU cache improves average lookup time from
46 to 28 cycles (~40%) for this workload.

Signed-off-by: Igor Mammedov <imammedo@redhat.com>
Signed-off-by: Paolo Bonzini <pbonzini@redhat.com>
include/linux/kvm_host.h

index 231dd9472226639569f9f9cb7aefc26279bfbb01..1a371447fd45b8d390af0339fe86343311c2522c 100644 (file)
@@ -353,6 +353,7 @@ struct kvm_memslots {
        struct kvm_memory_slot memslots[KVM_MEM_SLOTS_NUM];
        /* The mapping table from slot id to the index in memslots[]. */
        short id_to_index[KVM_MEM_SLOTS_NUM];
+       atomic_t lru_slot;
 };
 
 struct kvm {
@@ -790,12 +791,19 @@ static inline void kvm_guest_exit(void)
 static inline struct kvm_memory_slot *
 search_memslots(struct kvm_memslots *slots, gfn_t gfn)
 {
-       struct kvm_memory_slot *memslot;
+       int slot = atomic_read(&slots->lru_slot);
+       struct kvm_memory_slot *memslot = &slots->memslots[slot];
+
+       if (gfn >= memslot->base_gfn &&
+           gfn < memslot->base_gfn + memslot->npages)
+               return memslot;
 
        kvm_for_each_memslot(memslot, slots)
                if (gfn >= memslot->base_gfn &&
-                     gfn < memslot->base_gfn + memslot->npages)
+                     gfn < memslot->base_gfn + memslot->npages) {
+                       atomic_set(&slots->lru_slot, memslot - slots->memslots);
                        return memslot;
+               }
 
        return NULL;
 }