spte 634 arch/s390/mm/pgtable.c pte_t spte, tpte; spte 640 arch/s390/mm/pgtable.c spte = *sptep; spte 641 arch/s390/mm/pgtable.c if (!(pte_val(spte) & _PAGE_INVALID) && spte 642 arch/s390/mm/pgtable.c !((pte_val(spte) & _PAGE_PROTECT) && spte 646 arch/s390/mm/pgtable.c pte_val(tpte) = (pte_val(spte) & PAGE_MASK) | spte 395 arch/x86/include/asm/kvm_host.h u64 *spte, const void *pte); spte 240 arch/x86/kvm/mmu.c #define for_each_shadow_entry_lockless(_vcpu, _addr, _walker, spte) \ spte 243 arch/x86/kvm/mmu.c ({ spte = mmu_spte_get_lockless(_walker.sptep); 1; }); \ spte 244 arch/x86/kvm/mmu.c __shadow_walk_next(&(_walker), spte)) spte 305 arch/x86/kvm/mmu.c static void mmu_spte_set(u64 *sptep, u64 spte); spte 306 arch/x86/kvm/mmu.c static bool is_executable_pte(u64 spte); spte 354 arch/x86/kvm/mmu.c static bool is_mmio_spte(u64 spte) spte 356 arch/x86/kvm/mmu.c return (spte & shadow_mmio_mask) == shadow_mmio_value; spte 375 arch/x86/kvm/mmu.c static inline bool spte_ad_enabled(u64 spte) spte 377 arch/x86/kvm/mmu.c MMU_WARN_ON(is_mmio_spte(spte)); spte 378 arch/x86/kvm/mmu.c return (spte & SPTE_SPECIAL_MASK) != SPTE_AD_DISABLED_MASK; spte 381 arch/x86/kvm/mmu.c static inline bool spte_ad_need_write_protect(u64 spte) spte 383 arch/x86/kvm/mmu.c MMU_WARN_ON(is_mmio_spte(spte)); spte 384 arch/x86/kvm/mmu.c return (spte & SPTE_SPECIAL_MASK) != SPTE_AD_ENABLED_MASK; spte 392 arch/x86/kvm/mmu.c static inline u64 spte_shadow_accessed_mask(u64 spte) spte 394 arch/x86/kvm/mmu.c MMU_WARN_ON(is_mmio_spte(spte)); spte 395 arch/x86/kvm/mmu.c return spte_ad_enabled(spte) ? shadow_accessed_mask : 0; spte 398 arch/x86/kvm/mmu.c static inline u64 spte_shadow_dirty_mask(u64 spte) spte 400 arch/x86/kvm/mmu.c MMU_WARN_ON(is_mmio_spte(spte)); spte 401 arch/x86/kvm/mmu.c return spte_ad_enabled(spte) ? shadow_dirty_mask : 0; spte 404 arch/x86/kvm/mmu.c static inline bool is_access_track_spte(u64 spte) spte 406 arch/x86/kvm/mmu.c return !spte_ad_enabled(spte) && (spte & shadow_acc_track_mask) == 0; spte 447 arch/x86/kvm/mmu.c static u64 get_mmio_spte_generation(u64 spte) spte 451 arch/x86/kvm/mmu.c gen = (spte & MMIO_SPTE_GEN_LOW_MASK) >> MMIO_SPTE_GEN_LOW_START; spte 452 arch/x86/kvm/mmu.c gen |= (spte & MMIO_SPTE_GEN_HIGH_MASK) >> MMIO_SPTE_GEN_HIGH_START; spte 473 arch/x86/kvm/mmu.c static gfn_t get_mmio_spte_gfn(u64 spte) spte 475 arch/x86/kvm/mmu.c u64 gpa = spte & shadow_nonpresent_or_rsvd_lower_gfn_mask; spte 477 arch/x86/kvm/mmu.c gpa |= (spte >> shadow_nonpresent_or_rsvd_mask_len) spte 483 arch/x86/kvm/mmu.c static unsigned get_mmio_spte_access(u64 spte) spte 485 arch/x86/kvm/mmu.c return spte & shadow_mmio_access_mask; spte 499 arch/x86/kvm/mmu.c static bool check_mmio_spte(struct kvm_vcpu *vcpu, u64 spte) spte 508 arch/x86/kvm/mmu.c spte_gen = get_mmio_spte_generation(spte); spte 510 arch/x86/kvm/mmu.c trace_check_mmio_spte(spte, kvm_gen, spte_gen); spte 628 arch/x86/kvm/mmu.c static bool is_executable_pte(u64 spte) spte 630 arch/x86/kvm/mmu.c return (spte & (shadow_x_mask | shadow_nx_mask)) == shadow_x_mask; spte 646 arch/x86/kvm/mmu.c static void __set_spte(u64 *sptep, u64 spte) spte 648 arch/x86/kvm/mmu.c WRITE_ONCE(*sptep, spte); spte 651 arch/x86/kvm/mmu.c static void __update_clear_spte_fast(u64 *sptep, u64 spte) spte 653 arch/x86/kvm/mmu.c WRITE_ONCE(*sptep, spte); spte 656 arch/x86/kvm/mmu.c static u64 __update_clear_spte_slow(u64 *sptep, u64 spte) spte 658 arch/x86/kvm/mmu.c return xchg(sptep, spte); spte 671 arch/x86/kvm/mmu.c u64 spte; spte 674 arch/x86/kvm/mmu.c static void count_spte_clear(u64 *sptep, u64 spte) spte 678 arch/x86/kvm/mmu.c if (is_shadow_present_pte(spte)) spte 686 arch/x86/kvm/mmu.c static void __set_spte(u64 *sptep, u64 spte) spte 691 arch/x86/kvm/mmu.c sspte = (union split_spte)spte; spte 705 arch/x86/kvm/mmu.c static void __update_clear_spte_fast(u64 *sptep, u64 spte) spte 710 arch/x86/kvm/mmu.c sspte = (union split_spte)spte; spte 721 arch/x86/kvm/mmu.c count_spte_clear(sptep, spte); spte 724 arch/x86/kvm/mmu.c static u64 __update_clear_spte_slow(u64 *sptep, u64 spte) spte 729 arch/x86/kvm/mmu.c sspte = (union split_spte)spte; spte 735 arch/x86/kvm/mmu.c count_spte_clear(sptep, spte); spte 737 arch/x86/kvm/mmu.c return orig.spte; spte 761 arch/x86/kvm/mmu.c union split_spte spte, *orig = (union split_spte *)sptep; spte 768 arch/x86/kvm/mmu.c spte.spte_low = orig->spte_low; spte 771 arch/x86/kvm/mmu.c spte.spte_high = orig->spte_high; spte 774 arch/x86/kvm/mmu.c if (unlikely(spte.spte_low != orig->spte_low || spte 778 arch/x86/kvm/mmu.c return spte.spte; spte 782 arch/x86/kvm/mmu.c static bool spte_can_locklessly_be_made_writable(u64 spte) spte 784 arch/x86/kvm/mmu.c return (spte & (SPTE_HOST_WRITEABLE | SPTE_MMU_WRITEABLE)) == spte 788 arch/x86/kvm/mmu.c static bool spte_has_volatile_bits(u64 spte) spte 790 arch/x86/kvm/mmu.c if (!is_shadow_present_pte(spte)) spte 799 arch/x86/kvm/mmu.c if (spte_can_locklessly_be_made_writable(spte) || spte 800 arch/x86/kvm/mmu.c is_access_track_spte(spte)) spte 803 arch/x86/kvm/mmu.c if (spte_ad_enabled(spte)) { spte 804 arch/x86/kvm/mmu.c if ((spte & shadow_accessed_mask) == 0 || spte 805 arch/x86/kvm/mmu.c (is_writable_pte(spte) && (spte & shadow_dirty_mask) == 0)) spte 812 arch/x86/kvm/mmu.c static bool is_accessed_spte(u64 spte) spte 814 arch/x86/kvm/mmu.c u64 accessed_mask = spte_shadow_accessed_mask(spte); spte 816 arch/x86/kvm/mmu.c return accessed_mask ? spte & accessed_mask spte 817 arch/x86/kvm/mmu.c : !is_access_track_spte(spte); spte 820 arch/x86/kvm/mmu.c static bool is_dirty_spte(u64 spte) spte 822 arch/x86/kvm/mmu.c u64 dirty_mask = spte_shadow_dirty_mask(spte); spte 824 arch/x86/kvm/mmu.c return dirty_mask ? spte & dirty_mask : spte & PT_WRITABLE_MASK; spte 962 arch/x86/kvm/mmu.c static u64 mark_spte_for_access_track(u64 spte) spte 964 arch/x86/kvm/mmu.c if (spte_ad_enabled(spte)) spte 965 arch/x86/kvm/mmu.c return spte & ~shadow_accessed_mask; spte 967 arch/x86/kvm/mmu.c if (is_access_track_spte(spte)) spte 968 arch/x86/kvm/mmu.c return spte; spte 975 arch/x86/kvm/mmu.c WARN_ONCE((spte & PT_WRITABLE_MASK) && spte 976 arch/x86/kvm/mmu.c !spte_can_locklessly_be_made_writable(spte), spte 979 arch/x86/kvm/mmu.c WARN_ONCE(spte & (shadow_acc_track_saved_bits_mask << spte 983 arch/x86/kvm/mmu.c spte |= (spte & shadow_acc_track_saved_bits_mask) << spte 985 arch/x86/kvm/mmu.c spte &= ~shadow_acc_track_mask; spte 987 arch/x86/kvm/mmu.c return spte; spte 991 arch/x86/kvm/mmu.c static u64 restore_acc_track_spte(u64 spte) spte 993 arch/x86/kvm/mmu.c u64 new_spte = spte; spte 994 arch/x86/kvm/mmu.c u64 saved_bits = (spte >> shadow_acc_track_saved_bits_shift) spte 997 arch/x86/kvm/mmu.c WARN_ON_ONCE(spte_ad_enabled(spte)); spte 998 arch/x86/kvm/mmu.c WARN_ON_ONCE(!is_access_track_spte(spte)); spte 1011 arch/x86/kvm/mmu.c u64 spte = mmu_spte_get_lockless(sptep); spte 1013 arch/x86/kvm/mmu.c if (!is_accessed_spte(spte)) spte 1016 arch/x86/kvm/mmu.c if (spte_ad_enabled(spte)) { spte 1024 arch/x86/kvm/mmu.c if (is_writable_pte(spte)) spte 1025 arch/x86/kvm/mmu.c kvm_set_pfn_dirty(spte_to_pfn(spte)); spte 1027 arch/x86/kvm/mmu.c spte = mark_spte_for_access_track(spte); spte 1028 arch/x86/kvm/mmu.c mmu_spte_update_no_track(sptep, spte); spte 1370 arch/x86/kvm/mmu.c static int pte_list_add(struct kvm_vcpu *vcpu, u64 *spte, spte 1377 arch/x86/kvm/mmu.c rmap_printk("pte_list_add: %p %llx 0->1\n", spte, *spte); spte 1378 arch/x86/kvm/mmu.c rmap_head->val = (unsigned long)spte; spte 1380 arch/x86/kvm/mmu.c rmap_printk("pte_list_add: %p %llx 1->many\n", spte, *spte); spte 1383 arch/x86/kvm/mmu.c desc->sptes[1] = spte; spte 1387 arch/x86/kvm/mmu.c rmap_printk("pte_list_add: %p %llx many->many\n", spte, *spte); spte 1399 arch/x86/kvm/mmu.c desc->sptes[i] = spte; spte 1427 arch/x86/kvm/mmu.c static void __pte_list_remove(u64 *spte, struct kvm_rmap_head *rmap_head) spte 1434 arch/x86/kvm/mmu.c pr_err("%s: %p 0->BUG\n", __func__, spte); spte 1437 arch/x86/kvm/mmu.c rmap_printk("%s: %p 1->0\n", __func__, spte); spte 1438 arch/x86/kvm/mmu.c if ((u64 *)rmap_head->val != spte) { spte 1439 arch/x86/kvm/mmu.c pr_err("%s: %p 1->BUG\n", __func__, spte); spte 1444 arch/x86/kvm/mmu.c rmap_printk("%s: %p many->many\n", __func__, spte); spte 1449 arch/x86/kvm/mmu.c if (desc->sptes[i] == spte) { spte 1458 arch/x86/kvm/mmu.c pr_err("%s: %p many->many\n", __func__, spte); spte 1497 arch/x86/kvm/mmu.c static int rmap_add(struct kvm_vcpu *vcpu, u64 *spte, gfn_t gfn) spte 1502 arch/x86/kvm/mmu.c sp = page_header(__pa(spte)); spte 1503 arch/x86/kvm/mmu.c kvm_mmu_page_set_gfn(sp, spte - sp->spt, gfn); spte 1505 arch/x86/kvm/mmu.c return pte_list_add(vcpu, spte, rmap_head); spte 1508 arch/x86/kvm/mmu.c static void rmap_remove(struct kvm *kvm, u64 *spte) spte 1514 arch/x86/kvm/mmu.c sp = page_header(__pa(spte)); spte 1515 arch/x86/kvm/mmu.c gfn = kvm_mmu_page_get_gfn(sp, spte - sp->spt); spte 1517 arch/x86/kvm/mmu.c __pte_list_remove(spte, rmap_head); spte 1641 arch/x86/kvm/mmu.c u64 spte = *sptep; spte 1643 arch/x86/kvm/mmu.c if (!is_writable_pte(spte) && spte 1644 arch/x86/kvm/mmu.c !(pt_protect && spte_can_locklessly_be_made_writable(spte))) spte 1650 arch/x86/kvm/mmu.c spte &= ~SPTE_MMU_WRITEABLE; spte 1651 arch/x86/kvm/mmu.c spte = spte & ~PT_WRITABLE_MASK; spte 1653 arch/x86/kvm/mmu.c return mmu_spte_update(sptep, spte); spte 1672 arch/x86/kvm/mmu.c u64 spte = *sptep; spte 1676 arch/x86/kvm/mmu.c MMU_WARN_ON(!spte_ad_enabled(spte)); spte 1677 arch/x86/kvm/mmu.c spte &= ~shadow_dirty_mask; spte 1678 arch/x86/kvm/mmu.c return mmu_spte_update(sptep, spte); spte 1714 arch/x86/kvm/mmu.c u64 spte = *sptep; spte 1723 arch/x86/kvm/mmu.c spte |= shadow_dirty_mask; spte 1725 arch/x86/kvm/mmu.c return mmu_spte_update(sptep, spte); spte 2088 arch/x86/kvm/mmu.c static void rmap_recycle(struct kvm_vcpu *vcpu, u64 *spte, gfn_t gfn) spte 2093 arch/x86/kvm/mmu.c sp = page_header(__pa(spte)); spte 2199 arch/x86/kvm/mmu.c static void mark_unsync(u64 *spte); spte 2210 arch/x86/kvm/mmu.c static void mark_unsync(u64 *spte) spte 2215 arch/x86/kvm/mmu.c sp = page_header(__pa(spte)); spte 2216 arch/x86/kvm/mmu.c index = spte - sp->spt; spte 2235 arch/x86/kvm/mmu.c struct kvm_mmu_page *sp, u64 *spte, spte 2543 arch/x86/kvm/mmu.c static void clear_sp_write_flooding_count(u64 *spte) spte 2545 arch/x86/kvm/mmu.c struct kvm_mmu_page *sp = page_header(__pa(spte)); spte 2687 arch/x86/kvm/mmu.c u64 spte) spte 2689 arch/x86/kvm/mmu.c if (is_last_spte(spte, iterator->level)) { spte 2694 arch/x86/kvm/mmu.c iterator->shadow_addr = spte & PT64_BASE_ADDR_MASK; spte 2706 arch/x86/kvm/mmu.c u64 spte; spte 2710 arch/x86/kvm/mmu.c spte = __pa(sp->spt) | shadow_present_mask | PT_WRITABLE_MASK | spte 2714 arch/x86/kvm/mmu.c spte |= SPTE_AD_DISABLED_MASK; spte 2716 arch/x86/kvm/mmu.c spte |= shadow_accessed_mask; spte 2718 arch/x86/kvm/mmu.c mmu_spte_set(sptep, spte); spte 2749 arch/x86/kvm/mmu.c u64 *spte) spte 2754 arch/x86/kvm/mmu.c pte = *spte; spte 2757 arch/x86/kvm/mmu.c drop_spte(kvm, spte); spte 2762 arch/x86/kvm/mmu.c drop_parent_pte(child, spte); spte 2768 arch/x86/kvm/mmu.c mmu_spte_clear_no_track(spte); spte 3054 arch/x86/kvm/mmu.c u64 spte = 0; spte 3063 arch/x86/kvm/mmu.c spte |= SPTE_AD_DISABLED_MASK; spte 3065 arch/x86/kvm/mmu.c spte |= SPTE_AD_WRPROT_ONLY_MASK; spte 3073 arch/x86/kvm/mmu.c spte |= shadow_present_mask; spte 3075 arch/x86/kvm/mmu.c spte |= spte_shadow_accessed_mask(spte); spte 3083 arch/x86/kvm/mmu.c spte |= shadow_x_mask; spte 3085 arch/x86/kvm/mmu.c spte |= shadow_nx_mask; spte 3088 arch/x86/kvm/mmu.c spte |= shadow_user_mask; spte 3091 arch/x86/kvm/mmu.c spte |= PT_PAGE_SIZE_MASK; spte 3093 arch/x86/kvm/mmu.c spte |= kvm_x86_ops->get_mt_mask(vcpu, gfn, spte 3097 arch/x86/kvm/mmu.c spte |= SPTE_HOST_WRITEABLE; spte 3102 arch/x86/kvm/mmu.c spte |= shadow_me_mask; spte 3104 arch/x86/kvm/mmu.c spte |= (u64)pfn << PAGE_SHIFT; spte 3118 arch/x86/kvm/mmu.c spte |= PT_WRITABLE_MASK | SPTE_MMU_WRITEABLE; spte 3134 arch/x86/kvm/mmu.c spte &= ~(PT_WRITABLE_MASK | SPTE_MMU_WRITEABLE); spte 3140 arch/x86/kvm/mmu.c spte |= spte_shadow_dirty_mask(spte); spte 3144 arch/x86/kvm/mmu.c spte = mark_spte_for_access_track(spte); spte 3147 arch/x86/kvm/mmu.c if (mmu_spte_update(sptep, spte)) spte 3262 arch/x86/kvm/mmu.c u64 *spte, *start = NULL; spte 3268 arch/x86/kvm/mmu.c spte = sp->spt + i; spte 3270 arch/x86/kvm/mmu.c for (i = 0; i < PTE_PREFETCH_NUM; i++, spte++) { spte 3271 arch/x86/kvm/mmu.c if (is_shadow_present_pte(*spte) || spte == sptep) { spte 3274 arch/x86/kvm/mmu.c if (direct_pte_prefetch_many(vcpu, sp, start, spte) < 0) spte 3278 arch/x86/kvm/mmu.c start = spte; spte 3306 arch/x86/kvm/mmu.c u64 spte = *it.sptep; spte 3310 arch/x86/kvm/mmu.c is_shadow_present_pte(spte) && spte 3311 arch/x86/kvm/mmu.c !is_large_pte(spte)) { spte 3519 arch/x86/kvm/mmu.c static bool is_access_allowed(u32 fault_err_code, u64 spte) spte 3522 arch/x86/kvm/mmu.c return is_executable_pte(spte); spte 3525 arch/x86/kvm/mmu.c return is_writable_pte(spte); spte 3528 arch/x86/kvm/mmu.c return spte & PT_PRESENT_MASK; spte 3542 arch/x86/kvm/mmu.c u64 spte = 0ull; spte 3556 arch/x86/kvm/mmu.c for_each_shadow_entry_lockless(vcpu, cr2_or_gpa, iterator, spte) spte 3557 arch/x86/kvm/mmu.c if (!is_shadow_present_pte(spte) || spte 3562 arch/x86/kvm/mmu.c if (!is_last_spte(spte, sp->role.level)) spte 3575 arch/x86/kvm/mmu.c if (is_access_allowed(error_code, spte)) { spte 3580 arch/x86/kvm/mmu.c new_spte = spte; spte 3582 arch/x86/kvm/mmu.c if (is_access_track_spte(spte)) spte 3591 arch/x86/kvm/mmu.c spte_can_locklessly_be_made_writable(spte)) spte 3611 arch/x86/kvm/mmu.c if (new_spte == spte || spte 3621 arch/x86/kvm/mmu.c iterator.sptep, spte, spte 3635 arch/x86/kvm/mmu.c spte, fault_handled); spte 4021 arch/x86/kvm/mmu.c static bool is_shadow_zero_bits_set(struct kvm_mmu *mmu, u64 spte, int level) spte 4023 arch/x86/kvm/mmu.c return __is_rsvd_bits_set(&mmu->shadow_zero_check, spte, level); spte 4046 arch/x86/kvm/mmu.c u64 sptes[PT64_ROOT_MAX_LEVEL], spte = 0ull; spte 4058 arch/x86/kvm/mmu.c __shadow_walk_next(&iterator, spte)) { spte 4059 arch/x86/kvm/mmu.c spte = mmu_spte_get_lockless(iterator.sptep); spte 4061 arch/x86/kvm/mmu.c sptes[leaf - 1] = spte; spte 4064 arch/x86/kvm/mmu.c if (!is_shadow_present_pte(spte)) spte 4067 arch/x86/kvm/mmu.c reserved |= is_shadow_zero_bits_set(vcpu->arch.mmu, spte, spte 4083 arch/x86/kvm/mmu.c *sptep = spte; spte 4089 arch/x86/kvm/mmu.c u64 spte; spte 4095 arch/x86/kvm/mmu.c reserved = walk_shadow_page_get_mmio_spte(vcpu, addr, &spte); spte 4099 arch/x86/kvm/mmu.c if (is_mmio_spte(spte)) { spte 4100 arch/x86/kvm/mmu.c gfn_t gfn = get_mmio_spte_gfn(spte); spte 4101 arch/x86/kvm/mmu.c unsigned access = get_mmio_spte_access(spte); spte 4103 arch/x86/kvm/mmu.c if (!check_mmio_spte(vcpu, spte)) spte 4144 arch/x86/kvm/mmu.c u64 spte; spte 4150 arch/x86/kvm/mmu.c for_each_shadow_entry_lockless(vcpu, addr, iterator, spte) { spte 4152 arch/x86/kvm/mmu.c if (!is_shadow_present_pte(spte)) spte 5304 arch/x86/kvm/mmu.c struct kvm_mmu_page *sp, u64 *spte, spte 5313 arch/x86/kvm/mmu.c vcpu->arch.mmu->update_pte(vcpu, sp, spte, new); spte 5403 arch/x86/kvm/mmu.c u64 *spte; spte 5427 arch/x86/kvm/mmu.c spte = &sp->spt[page_offset / sizeof(*spte)]; spte 5428 arch/x86/kvm/mmu.c return spte; spte 5438 arch/x86/kvm/mmu.c u64 entry, gentry, *spte; spte 5475 arch/x86/kvm/mmu.c spte = get_written_sptes(sp, gpa, &npte); spte 5476 arch/x86/kvm/mmu.c if (!spte) spte 5483 arch/x86/kvm/mmu.c entry = *spte; spte 5484 arch/x86/kvm/mmu.c mmu_page_zap_pte(vcpu->kvm, sp, spte); spte 5488 arch/x86/kvm/mmu.c mmu_pte_write_new_pte(vcpu, sp, spte, &gentry); spte 5489 arch/x86/kvm/mmu.c if (need_remote_flush(entry, *spte)) spte 5491 arch/x86/kvm/mmu.c ++spte; spte 308 arch/x86/kvm/mmutrace.h TP_PROTO(u64 spte, unsigned int kvm_gen, unsigned int spte_gen), spte 309 arch/x86/kvm/mmutrace.h TP_ARGS(spte, kvm_gen, spte_gen), spte 314 arch/x86/kvm/mmutrace.h __field(u64, spte) spte 320 arch/x86/kvm/mmutrace.h __entry->spte = spte; spte 323 arch/x86/kvm/mmutrace.h TP_printk("spte %llx kvm_gen %x spte-gen %x valid %d", __entry->spte, spte 336 arch/x86/kvm/mmutrace.h __field(u64, spte) spte 347 arch/x86/kvm/mmutrace.h __entry->spte = *sptep; spte 350 arch/x86/kvm/mmutrace.h __entry->r = shadow_present_mask || (__entry->spte & PT_PRESENT_MASK); spte 351 arch/x86/kvm/mmutrace.h __entry->x = is_executable_pte(__entry->spte); spte 352 arch/x86/kvm/mmutrace.h __entry->u = shadow_user_mask ? !!(__entry->spte & shadow_user_mask) : -1; spte 356 arch/x86/kvm/mmutrace.h __entry->gfn, __entry->spte, spte 358 arch/x86/kvm/mmutrace.h __entry->spte & PT_WRITABLE_MASK ? "w" : "-", spte 175 arch/x86/kvm/paging_tmpl.h struct kvm_mmu_page *sp, u64 *spte, spte 192 arch/x86/kvm/paging_tmpl.h drop_spte(vcpu->kvm, spte); spte 517 arch/x86/kvm/paging_tmpl.h u64 *spte, pt_element_t gpte, bool no_dirty_log) spte 523 arch/x86/kvm/paging_tmpl.h if (FNAME(prefetch_invalid_gpte)(vcpu, sp, spte, gpte)) spte 526 arch/x86/kvm/paging_tmpl.h pgprintk("%s: gpte %llx spte %p\n", __func__, (u64)gpte, spte); spte 540 arch/x86/kvm/paging_tmpl.h mmu_set_spte(vcpu, spte, pte_access, 0, PT_PAGE_TABLE_LEVEL, gfn, pfn, spte 548 arch/x86/kvm/paging_tmpl.h u64 *spte, const void *pte) spte 552 arch/x86/kvm/paging_tmpl.h FNAME(prefetch_gpte)(vcpu, sp, spte, gpte, false); spte 583 arch/x86/kvm/paging_tmpl.h u64 *spte; spte 595 arch/x86/kvm/paging_tmpl.h spte = sp->spt + i; spte 597 arch/x86/kvm/paging_tmpl.h for (i = 0; i < PTE_PREFETCH_NUM; i++, spte++) { spte 598 arch/x86/kvm/paging_tmpl.h if (spte == sptep) spte 601 arch/x86/kvm/paging_tmpl.h if (is_shadow_present_pte(*spte)) spte 604 arch/x86/kvm/paging_tmpl.h if (!FNAME(prefetch_gpte)(vcpu, sp, spte, gptep[i], true)) spte 448 drivers/gpu/drm/nouveau/nvkm/subdev/mmu/vmm.c bool spte = pgt->pte[ptei] & NVKM_VMM_PTE_SPTES; spte 451 drivers/gpu/drm/nouveau/nvkm/subdev/mmu/vmm.c if (spte != next) spte 455 drivers/gpu/drm/nouveau/nvkm/subdev/mmu/vmm.c if (!spte) { spte 4887 mm/hugetlb.c pte_t *spte = NULL; spte 4901 mm/hugetlb.c spte = huge_pte_offset(svma->vm_mm, saddr, spte 4903 mm/hugetlb.c if (spte) { spte 4904 mm/hugetlb.c get_page(virt_to_page(spte)); spte 4910 mm/hugetlb.c if (!spte) spte 4913 mm/hugetlb.c ptl = huge_pte_lock(hstate_vma(vma), mm, spte); spte 4916 mm/hugetlb.c (pmd_t *)((unsigned long)spte & PAGE_MASK)); spte 4919 mm/hugetlb.c put_page(virt_to_page(spte));