spte              634 arch/s390/mm/pgtable.c 	pte_t spte, tpte;
spte              640 arch/s390/mm/pgtable.c 	spte = *sptep;
spte              641 arch/s390/mm/pgtable.c 	if (!(pte_val(spte) & _PAGE_INVALID) &&
spte              642 arch/s390/mm/pgtable.c 	    !((pte_val(spte) & _PAGE_PROTECT) &&
spte              646 arch/s390/mm/pgtable.c 		pte_val(tpte) = (pte_val(spte) & PAGE_MASK) |
spte              395 arch/x86/include/asm/kvm_host.h 			   u64 *spte, const void *pte);
spte              240 arch/x86/kvm/mmu.c #define for_each_shadow_entry_lockless(_vcpu, _addr, _walker, spte)	\
spte              243 arch/x86/kvm/mmu.c 		({ spte = mmu_spte_get_lockless(_walker.sptep); 1; });	\
spte              244 arch/x86/kvm/mmu.c 	     __shadow_walk_next(&(_walker), spte))
spte              305 arch/x86/kvm/mmu.c static void mmu_spte_set(u64 *sptep, u64 spte);
spte              306 arch/x86/kvm/mmu.c static bool is_executable_pte(u64 spte);
spte              354 arch/x86/kvm/mmu.c static bool is_mmio_spte(u64 spte)
spte              356 arch/x86/kvm/mmu.c 	return (spte & shadow_mmio_mask) == shadow_mmio_value;
spte              375 arch/x86/kvm/mmu.c static inline bool spte_ad_enabled(u64 spte)
spte              377 arch/x86/kvm/mmu.c 	MMU_WARN_ON(is_mmio_spte(spte));
spte              378 arch/x86/kvm/mmu.c 	return (spte & SPTE_SPECIAL_MASK) != SPTE_AD_DISABLED_MASK;
spte              381 arch/x86/kvm/mmu.c static inline bool spte_ad_need_write_protect(u64 spte)
spte              383 arch/x86/kvm/mmu.c 	MMU_WARN_ON(is_mmio_spte(spte));
spte              384 arch/x86/kvm/mmu.c 	return (spte & SPTE_SPECIAL_MASK) != SPTE_AD_ENABLED_MASK;
spte              392 arch/x86/kvm/mmu.c static inline u64 spte_shadow_accessed_mask(u64 spte)
spte              394 arch/x86/kvm/mmu.c 	MMU_WARN_ON(is_mmio_spte(spte));
spte              395 arch/x86/kvm/mmu.c 	return spte_ad_enabled(spte) ? shadow_accessed_mask : 0;
spte              398 arch/x86/kvm/mmu.c static inline u64 spte_shadow_dirty_mask(u64 spte)
spte              400 arch/x86/kvm/mmu.c 	MMU_WARN_ON(is_mmio_spte(spte));
spte              401 arch/x86/kvm/mmu.c 	return spte_ad_enabled(spte) ? shadow_dirty_mask : 0;
spte              404 arch/x86/kvm/mmu.c static inline bool is_access_track_spte(u64 spte)
spte              406 arch/x86/kvm/mmu.c 	return !spte_ad_enabled(spte) && (spte & shadow_acc_track_mask) == 0;
spte              447 arch/x86/kvm/mmu.c static u64 get_mmio_spte_generation(u64 spte)
spte              451 arch/x86/kvm/mmu.c 	gen = (spte & MMIO_SPTE_GEN_LOW_MASK) >> MMIO_SPTE_GEN_LOW_START;
spte              452 arch/x86/kvm/mmu.c 	gen |= (spte & MMIO_SPTE_GEN_HIGH_MASK) >> MMIO_SPTE_GEN_HIGH_START;
spte              473 arch/x86/kvm/mmu.c static gfn_t get_mmio_spte_gfn(u64 spte)
spte              475 arch/x86/kvm/mmu.c 	u64 gpa = spte & shadow_nonpresent_or_rsvd_lower_gfn_mask;
spte              477 arch/x86/kvm/mmu.c 	gpa |= (spte >> shadow_nonpresent_or_rsvd_mask_len)
spte              483 arch/x86/kvm/mmu.c static unsigned get_mmio_spte_access(u64 spte)
spte              485 arch/x86/kvm/mmu.c 	return spte & shadow_mmio_access_mask;
spte              499 arch/x86/kvm/mmu.c static bool check_mmio_spte(struct kvm_vcpu *vcpu, u64 spte)
spte              508 arch/x86/kvm/mmu.c 	spte_gen = get_mmio_spte_generation(spte);
spte              510 arch/x86/kvm/mmu.c 	trace_check_mmio_spte(spte, kvm_gen, spte_gen);
spte              628 arch/x86/kvm/mmu.c static bool is_executable_pte(u64 spte)
spte              630 arch/x86/kvm/mmu.c 	return (spte & (shadow_x_mask | shadow_nx_mask)) == shadow_x_mask;
spte              646 arch/x86/kvm/mmu.c static void __set_spte(u64 *sptep, u64 spte)
spte              648 arch/x86/kvm/mmu.c 	WRITE_ONCE(*sptep, spte);
spte              651 arch/x86/kvm/mmu.c static void __update_clear_spte_fast(u64 *sptep, u64 spte)
spte              653 arch/x86/kvm/mmu.c 	WRITE_ONCE(*sptep, spte);
spte              656 arch/x86/kvm/mmu.c static u64 __update_clear_spte_slow(u64 *sptep, u64 spte)
spte              658 arch/x86/kvm/mmu.c 	return xchg(sptep, spte);
spte              671 arch/x86/kvm/mmu.c 	u64 spte;
spte              674 arch/x86/kvm/mmu.c static void count_spte_clear(u64 *sptep, u64 spte)
spte              678 arch/x86/kvm/mmu.c 	if (is_shadow_present_pte(spte))
spte              686 arch/x86/kvm/mmu.c static void __set_spte(u64 *sptep, u64 spte)
spte              691 arch/x86/kvm/mmu.c 	sspte = (union split_spte)spte;
spte              705 arch/x86/kvm/mmu.c static void __update_clear_spte_fast(u64 *sptep, u64 spte)
spte              710 arch/x86/kvm/mmu.c 	sspte = (union split_spte)spte;
spte              721 arch/x86/kvm/mmu.c 	count_spte_clear(sptep, spte);
spte              724 arch/x86/kvm/mmu.c static u64 __update_clear_spte_slow(u64 *sptep, u64 spte)
spte              729 arch/x86/kvm/mmu.c 	sspte = (union split_spte)spte;
spte              735 arch/x86/kvm/mmu.c 	count_spte_clear(sptep, spte);
spte              737 arch/x86/kvm/mmu.c 	return orig.spte;
spte              761 arch/x86/kvm/mmu.c 	union split_spte spte, *orig = (union split_spte *)sptep;
spte              768 arch/x86/kvm/mmu.c 	spte.spte_low = orig->spte_low;
spte              771 arch/x86/kvm/mmu.c 	spte.spte_high = orig->spte_high;
spte              774 arch/x86/kvm/mmu.c 	if (unlikely(spte.spte_low != orig->spte_low ||
spte              778 arch/x86/kvm/mmu.c 	return spte.spte;
spte              782 arch/x86/kvm/mmu.c static bool spte_can_locklessly_be_made_writable(u64 spte)
spte              784 arch/x86/kvm/mmu.c 	return (spte & (SPTE_HOST_WRITEABLE | SPTE_MMU_WRITEABLE)) ==
spte              788 arch/x86/kvm/mmu.c static bool spte_has_volatile_bits(u64 spte)
spte              790 arch/x86/kvm/mmu.c 	if (!is_shadow_present_pte(spte))
spte              799 arch/x86/kvm/mmu.c 	if (spte_can_locklessly_be_made_writable(spte) ||
spte              800 arch/x86/kvm/mmu.c 	    is_access_track_spte(spte))
spte              803 arch/x86/kvm/mmu.c 	if (spte_ad_enabled(spte)) {
spte              804 arch/x86/kvm/mmu.c 		if ((spte & shadow_accessed_mask) == 0 ||
spte              805 arch/x86/kvm/mmu.c 	    	    (is_writable_pte(spte) && (spte & shadow_dirty_mask) == 0))
spte              812 arch/x86/kvm/mmu.c static bool is_accessed_spte(u64 spte)
spte              814 arch/x86/kvm/mmu.c 	u64 accessed_mask = spte_shadow_accessed_mask(spte);
spte              816 arch/x86/kvm/mmu.c 	return accessed_mask ? spte & accessed_mask
spte              817 arch/x86/kvm/mmu.c 			     : !is_access_track_spte(spte);
spte              820 arch/x86/kvm/mmu.c static bool is_dirty_spte(u64 spte)
spte              822 arch/x86/kvm/mmu.c 	u64 dirty_mask = spte_shadow_dirty_mask(spte);
spte              824 arch/x86/kvm/mmu.c 	return dirty_mask ? spte & dirty_mask : spte & PT_WRITABLE_MASK;
spte              962 arch/x86/kvm/mmu.c static u64 mark_spte_for_access_track(u64 spte)
spte              964 arch/x86/kvm/mmu.c 	if (spte_ad_enabled(spte))
spte              965 arch/x86/kvm/mmu.c 		return spte & ~shadow_accessed_mask;
spte              967 arch/x86/kvm/mmu.c 	if (is_access_track_spte(spte))
spte              968 arch/x86/kvm/mmu.c 		return spte;
spte              975 arch/x86/kvm/mmu.c 	WARN_ONCE((spte & PT_WRITABLE_MASK) &&
spte              976 arch/x86/kvm/mmu.c 		  !spte_can_locklessly_be_made_writable(spte),
spte              979 arch/x86/kvm/mmu.c 	WARN_ONCE(spte & (shadow_acc_track_saved_bits_mask <<
spte              983 arch/x86/kvm/mmu.c 	spte |= (spte & shadow_acc_track_saved_bits_mask) <<
spte              985 arch/x86/kvm/mmu.c 	spte &= ~shadow_acc_track_mask;
spte              987 arch/x86/kvm/mmu.c 	return spte;
spte              991 arch/x86/kvm/mmu.c static u64 restore_acc_track_spte(u64 spte)
spte              993 arch/x86/kvm/mmu.c 	u64 new_spte = spte;
spte              994 arch/x86/kvm/mmu.c 	u64 saved_bits = (spte >> shadow_acc_track_saved_bits_shift)
spte              997 arch/x86/kvm/mmu.c 	WARN_ON_ONCE(spte_ad_enabled(spte));
spte              998 arch/x86/kvm/mmu.c 	WARN_ON_ONCE(!is_access_track_spte(spte));
spte             1011 arch/x86/kvm/mmu.c 	u64 spte = mmu_spte_get_lockless(sptep);
spte             1013 arch/x86/kvm/mmu.c 	if (!is_accessed_spte(spte))
spte             1016 arch/x86/kvm/mmu.c 	if (spte_ad_enabled(spte)) {
spte             1024 arch/x86/kvm/mmu.c 		if (is_writable_pte(spte))
spte             1025 arch/x86/kvm/mmu.c 			kvm_set_pfn_dirty(spte_to_pfn(spte));
spte             1027 arch/x86/kvm/mmu.c 		spte = mark_spte_for_access_track(spte);
spte             1028 arch/x86/kvm/mmu.c 		mmu_spte_update_no_track(sptep, spte);
spte             1370 arch/x86/kvm/mmu.c static int pte_list_add(struct kvm_vcpu *vcpu, u64 *spte,
spte             1377 arch/x86/kvm/mmu.c 		rmap_printk("pte_list_add: %p %llx 0->1\n", spte, *spte);
spte             1378 arch/x86/kvm/mmu.c 		rmap_head->val = (unsigned long)spte;
spte             1380 arch/x86/kvm/mmu.c 		rmap_printk("pte_list_add: %p %llx 1->many\n", spte, *spte);
spte             1383 arch/x86/kvm/mmu.c 		desc->sptes[1] = spte;
spte             1387 arch/x86/kvm/mmu.c 		rmap_printk("pte_list_add: %p %llx many->many\n", spte, *spte);
spte             1399 arch/x86/kvm/mmu.c 		desc->sptes[i] = spte;
spte             1427 arch/x86/kvm/mmu.c static void __pte_list_remove(u64 *spte, struct kvm_rmap_head *rmap_head)
spte             1434 arch/x86/kvm/mmu.c 		pr_err("%s: %p 0->BUG\n", __func__, spte);
spte             1437 arch/x86/kvm/mmu.c 		rmap_printk("%s:  %p 1->0\n", __func__, spte);
spte             1438 arch/x86/kvm/mmu.c 		if ((u64 *)rmap_head->val != spte) {
spte             1439 arch/x86/kvm/mmu.c 			pr_err("%s:  %p 1->BUG\n", __func__, spte);
spte             1444 arch/x86/kvm/mmu.c 		rmap_printk("%s:  %p many->many\n", __func__, spte);
spte             1449 arch/x86/kvm/mmu.c 				if (desc->sptes[i] == spte) {
spte             1458 arch/x86/kvm/mmu.c 		pr_err("%s: %p many->many\n", __func__, spte);
spte             1497 arch/x86/kvm/mmu.c static int rmap_add(struct kvm_vcpu *vcpu, u64 *spte, gfn_t gfn)
spte             1502 arch/x86/kvm/mmu.c 	sp = page_header(__pa(spte));
spte             1503 arch/x86/kvm/mmu.c 	kvm_mmu_page_set_gfn(sp, spte - sp->spt, gfn);
spte             1505 arch/x86/kvm/mmu.c 	return pte_list_add(vcpu, spte, rmap_head);
spte             1508 arch/x86/kvm/mmu.c static void rmap_remove(struct kvm *kvm, u64 *spte)
spte             1514 arch/x86/kvm/mmu.c 	sp = page_header(__pa(spte));
spte             1515 arch/x86/kvm/mmu.c 	gfn = kvm_mmu_page_get_gfn(sp, spte - sp->spt);
spte             1517 arch/x86/kvm/mmu.c 	__pte_list_remove(spte, rmap_head);
spte             1641 arch/x86/kvm/mmu.c 	u64 spte = *sptep;
spte             1643 arch/x86/kvm/mmu.c 	if (!is_writable_pte(spte) &&
spte             1644 arch/x86/kvm/mmu.c 	      !(pt_protect && spte_can_locklessly_be_made_writable(spte)))
spte             1650 arch/x86/kvm/mmu.c 		spte &= ~SPTE_MMU_WRITEABLE;
spte             1651 arch/x86/kvm/mmu.c 	spte = spte & ~PT_WRITABLE_MASK;
spte             1653 arch/x86/kvm/mmu.c 	return mmu_spte_update(sptep, spte);
spte             1672 arch/x86/kvm/mmu.c 	u64 spte = *sptep;
spte             1676 arch/x86/kvm/mmu.c 	MMU_WARN_ON(!spte_ad_enabled(spte));
spte             1677 arch/x86/kvm/mmu.c 	spte &= ~shadow_dirty_mask;
spte             1678 arch/x86/kvm/mmu.c 	return mmu_spte_update(sptep, spte);
spte             1714 arch/x86/kvm/mmu.c 	u64 spte = *sptep;
spte             1723 arch/x86/kvm/mmu.c 	spte |= shadow_dirty_mask;
spte             1725 arch/x86/kvm/mmu.c 	return mmu_spte_update(sptep, spte);
spte             2088 arch/x86/kvm/mmu.c static void rmap_recycle(struct kvm_vcpu *vcpu, u64 *spte, gfn_t gfn)
spte             2093 arch/x86/kvm/mmu.c 	sp = page_header(__pa(spte));
spte             2199 arch/x86/kvm/mmu.c static void mark_unsync(u64 *spte);
spte             2210 arch/x86/kvm/mmu.c static void mark_unsync(u64 *spte)
spte             2215 arch/x86/kvm/mmu.c 	sp = page_header(__pa(spte));
spte             2216 arch/x86/kvm/mmu.c 	index = spte - sp->spt;
spte             2235 arch/x86/kvm/mmu.c 				 struct kvm_mmu_page *sp, u64 *spte,
spte             2543 arch/x86/kvm/mmu.c static void clear_sp_write_flooding_count(u64 *spte)
spte             2545 arch/x86/kvm/mmu.c 	struct kvm_mmu_page *sp =  page_header(__pa(spte));
spte             2687 arch/x86/kvm/mmu.c 			       u64 spte)
spte             2689 arch/x86/kvm/mmu.c 	if (is_last_spte(spte, iterator->level)) {
spte             2694 arch/x86/kvm/mmu.c 	iterator->shadow_addr = spte & PT64_BASE_ADDR_MASK;
spte             2706 arch/x86/kvm/mmu.c 	u64 spte;
spte             2710 arch/x86/kvm/mmu.c 	spte = __pa(sp->spt) | shadow_present_mask | PT_WRITABLE_MASK |
spte             2714 arch/x86/kvm/mmu.c 		spte |= SPTE_AD_DISABLED_MASK;
spte             2716 arch/x86/kvm/mmu.c 		spte |= shadow_accessed_mask;
spte             2718 arch/x86/kvm/mmu.c 	mmu_spte_set(sptep, spte);
spte             2749 arch/x86/kvm/mmu.c 			     u64 *spte)
spte             2754 arch/x86/kvm/mmu.c 	pte = *spte;
spte             2757 arch/x86/kvm/mmu.c 			drop_spte(kvm, spte);
spte             2762 arch/x86/kvm/mmu.c 			drop_parent_pte(child, spte);
spte             2768 arch/x86/kvm/mmu.c 		mmu_spte_clear_no_track(spte);
spte             3054 arch/x86/kvm/mmu.c 	u64 spte = 0;
spte             3063 arch/x86/kvm/mmu.c 		spte |= SPTE_AD_DISABLED_MASK;
spte             3065 arch/x86/kvm/mmu.c 		spte |= SPTE_AD_WRPROT_ONLY_MASK;
spte             3073 arch/x86/kvm/mmu.c 	spte |= shadow_present_mask;
spte             3075 arch/x86/kvm/mmu.c 		spte |= spte_shadow_accessed_mask(spte);
spte             3083 arch/x86/kvm/mmu.c 		spte |= shadow_x_mask;
spte             3085 arch/x86/kvm/mmu.c 		spte |= shadow_nx_mask;
spte             3088 arch/x86/kvm/mmu.c 		spte |= shadow_user_mask;
spte             3091 arch/x86/kvm/mmu.c 		spte |= PT_PAGE_SIZE_MASK;
spte             3093 arch/x86/kvm/mmu.c 		spte |= kvm_x86_ops->get_mt_mask(vcpu, gfn,
spte             3097 arch/x86/kvm/mmu.c 		spte |= SPTE_HOST_WRITEABLE;
spte             3102 arch/x86/kvm/mmu.c 		spte |= shadow_me_mask;
spte             3104 arch/x86/kvm/mmu.c 	spte |= (u64)pfn << PAGE_SHIFT;
spte             3118 arch/x86/kvm/mmu.c 		spte |= PT_WRITABLE_MASK | SPTE_MMU_WRITEABLE;
spte             3134 arch/x86/kvm/mmu.c 			spte &= ~(PT_WRITABLE_MASK | SPTE_MMU_WRITEABLE);
spte             3140 arch/x86/kvm/mmu.c 		spte |= spte_shadow_dirty_mask(spte);
spte             3144 arch/x86/kvm/mmu.c 		spte = mark_spte_for_access_track(spte);
spte             3147 arch/x86/kvm/mmu.c 	if (mmu_spte_update(sptep, spte))
spte             3262 arch/x86/kvm/mmu.c 	u64 *spte, *start = NULL;
spte             3268 arch/x86/kvm/mmu.c 	spte = sp->spt + i;
spte             3270 arch/x86/kvm/mmu.c 	for (i = 0; i < PTE_PREFETCH_NUM; i++, spte++) {
spte             3271 arch/x86/kvm/mmu.c 		if (is_shadow_present_pte(*spte) || spte == sptep) {
spte             3274 arch/x86/kvm/mmu.c 			if (direct_pte_prefetch_many(vcpu, sp, start, spte) < 0)
spte             3278 arch/x86/kvm/mmu.c 			start = spte;
spte             3306 arch/x86/kvm/mmu.c 	u64 spte = *it.sptep;
spte             3310 arch/x86/kvm/mmu.c 	    is_shadow_present_pte(spte) &&
spte             3311 arch/x86/kvm/mmu.c 	    !is_large_pte(spte)) {
spte             3519 arch/x86/kvm/mmu.c static bool is_access_allowed(u32 fault_err_code, u64 spte)
spte             3522 arch/x86/kvm/mmu.c 		return is_executable_pte(spte);
spte             3525 arch/x86/kvm/mmu.c 		return is_writable_pte(spte);
spte             3528 arch/x86/kvm/mmu.c 	return spte & PT_PRESENT_MASK;
spte             3542 arch/x86/kvm/mmu.c 	u64 spte = 0ull;
spte             3556 arch/x86/kvm/mmu.c 		for_each_shadow_entry_lockless(vcpu, cr2_or_gpa, iterator, spte)
spte             3557 arch/x86/kvm/mmu.c 			if (!is_shadow_present_pte(spte) ||
spte             3562 arch/x86/kvm/mmu.c 		if (!is_last_spte(spte, sp->role.level))
spte             3575 arch/x86/kvm/mmu.c 		if (is_access_allowed(error_code, spte)) {
spte             3580 arch/x86/kvm/mmu.c 		new_spte = spte;
spte             3582 arch/x86/kvm/mmu.c 		if (is_access_track_spte(spte))
spte             3591 arch/x86/kvm/mmu.c 		    spte_can_locklessly_be_made_writable(spte))
spte             3611 arch/x86/kvm/mmu.c 		if (new_spte == spte ||
spte             3621 arch/x86/kvm/mmu.c 							iterator.sptep, spte,
spte             3635 arch/x86/kvm/mmu.c 			      spte, fault_handled);
spte             4021 arch/x86/kvm/mmu.c static bool is_shadow_zero_bits_set(struct kvm_mmu *mmu, u64 spte, int level)
spte             4023 arch/x86/kvm/mmu.c 	return __is_rsvd_bits_set(&mmu->shadow_zero_check, spte, level);
spte             4046 arch/x86/kvm/mmu.c 	u64 sptes[PT64_ROOT_MAX_LEVEL], spte = 0ull;
spte             4058 arch/x86/kvm/mmu.c 	     __shadow_walk_next(&iterator, spte)) {
spte             4059 arch/x86/kvm/mmu.c 		spte = mmu_spte_get_lockless(iterator.sptep);
spte             4061 arch/x86/kvm/mmu.c 		sptes[leaf - 1] = spte;
spte             4064 arch/x86/kvm/mmu.c 		if (!is_shadow_present_pte(spte))
spte             4067 arch/x86/kvm/mmu.c 		reserved |= is_shadow_zero_bits_set(vcpu->arch.mmu, spte,
spte             4083 arch/x86/kvm/mmu.c 	*sptep = spte;
spte             4089 arch/x86/kvm/mmu.c 	u64 spte;
spte             4095 arch/x86/kvm/mmu.c 	reserved = walk_shadow_page_get_mmio_spte(vcpu, addr, &spte);
spte             4099 arch/x86/kvm/mmu.c 	if (is_mmio_spte(spte)) {
spte             4100 arch/x86/kvm/mmu.c 		gfn_t gfn = get_mmio_spte_gfn(spte);
spte             4101 arch/x86/kvm/mmu.c 		unsigned access = get_mmio_spte_access(spte);
spte             4103 arch/x86/kvm/mmu.c 		if (!check_mmio_spte(vcpu, spte))
spte             4144 arch/x86/kvm/mmu.c 	u64 spte;
spte             4150 arch/x86/kvm/mmu.c 	for_each_shadow_entry_lockless(vcpu, addr, iterator, spte) {
spte             4152 arch/x86/kvm/mmu.c 		if (!is_shadow_present_pte(spte))
spte             5304 arch/x86/kvm/mmu.c 				  struct kvm_mmu_page *sp, u64 *spte,
spte             5313 arch/x86/kvm/mmu.c 	vcpu->arch.mmu->update_pte(vcpu, sp, spte, new);
spte             5403 arch/x86/kvm/mmu.c 	u64 *spte;
spte             5427 arch/x86/kvm/mmu.c 	spte = &sp->spt[page_offset / sizeof(*spte)];
spte             5428 arch/x86/kvm/mmu.c 	return spte;
spte             5438 arch/x86/kvm/mmu.c 	u64 entry, gentry, *spte;
spte             5475 arch/x86/kvm/mmu.c 		spte = get_written_sptes(sp, gpa, &npte);
spte             5476 arch/x86/kvm/mmu.c 		if (!spte)
spte             5483 arch/x86/kvm/mmu.c 			entry = *spte;
spte             5484 arch/x86/kvm/mmu.c 			mmu_page_zap_pte(vcpu->kvm, sp, spte);
spte             5488 arch/x86/kvm/mmu.c 				mmu_pte_write_new_pte(vcpu, sp, spte, &gentry);
spte             5489 arch/x86/kvm/mmu.c 			if (need_remote_flush(entry, *spte))
spte             5491 arch/x86/kvm/mmu.c 			++spte;
spte              308 arch/x86/kvm/mmutrace.h 	TP_PROTO(u64 spte, unsigned int kvm_gen, unsigned int spte_gen),
spte              309 arch/x86/kvm/mmutrace.h 	TP_ARGS(spte, kvm_gen, spte_gen),
spte              314 arch/x86/kvm/mmutrace.h 		__field(u64, spte)
spte              320 arch/x86/kvm/mmutrace.h 		__entry->spte = spte;
spte              323 arch/x86/kvm/mmutrace.h 	TP_printk("spte %llx kvm_gen %x spte-gen %x valid %d", __entry->spte,
spte              336 arch/x86/kvm/mmutrace.h 		__field(u64, spte)
spte              347 arch/x86/kvm/mmutrace.h 		__entry->spte = *sptep;
spte              350 arch/x86/kvm/mmutrace.h 		__entry->r = shadow_present_mask || (__entry->spte & PT_PRESENT_MASK);
spte              351 arch/x86/kvm/mmutrace.h 		__entry->x = is_executable_pte(__entry->spte);
spte              352 arch/x86/kvm/mmutrace.h 		__entry->u = shadow_user_mask ? !!(__entry->spte & shadow_user_mask) : -1;
spte              356 arch/x86/kvm/mmutrace.h 		  __entry->gfn, __entry->spte,
spte              358 arch/x86/kvm/mmutrace.h 		  __entry->spte & PT_WRITABLE_MASK ? "w" : "-",
spte              175 arch/x86/kvm/paging_tmpl.h 				  struct kvm_mmu_page *sp, u64 *spte,
spte              192 arch/x86/kvm/paging_tmpl.h 	drop_spte(vcpu->kvm, spte);
spte              517 arch/x86/kvm/paging_tmpl.h 		     u64 *spte, pt_element_t gpte, bool no_dirty_log)
spte              523 arch/x86/kvm/paging_tmpl.h 	if (FNAME(prefetch_invalid_gpte)(vcpu, sp, spte, gpte))
spte              526 arch/x86/kvm/paging_tmpl.h 	pgprintk("%s: gpte %llx spte %p\n", __func__, (u64)gpte, spte);
spte              540 arch/x86/kvm/paging_tmpl.h 	mmu_set_spte(vcpu, spte, pte_access, 0, PT_PAGE_TABLE_LEVEL, gfn, pfn,
spte              548 arch/x86/kvm/paging_tmpl.h 			      u64 *spte, const void *pte)
spte              552 arch/x86/kvm/paging_tmpl.h 	FNAME(prefetch_gpte)(vcpu, sp, spte, gpte, false);
spte              583 arch/x86/kvm/paging_tmpl.h 	u64 *spte;
spte              595 arch/x86/kvm/paging_tmpl.h 	spte = sp->spt + i;
spte              597 arch/x86/kvm/paging_tmpl.h 	for (i = 0; i < PTE_PREFETCH_NUM; i++, spte++) {
spte              598 arch/x86/kvm/paging_tmpl.h 		if (spte == sptep)
spte              601 arch/x86/kvm/paging_tmpl.h 		if (is_shadow_present_pte(*spte))
spte              604 arch/x86/kvm/paging_tmpl.h 		if (!FNAME(prefetch_gpte)(vcpu, sp, spte, gptep[i], true))
spte              448 drivers/gpu/drm/nouveau/nvkm/subdev/mmu/vmm.c 			bool spte = pgt->pte[ptei] & NVKM_VMM_PTE_SPTES;
spte              451 drivers/gpu/drm/nouveau/nvkm/subdev/mmu/vmm.c 				if (spte != next)
spte              455 drivers/gpu/drm/nouveau/nvkm/subdev/mmu/vmm.c 			if (!spte) {
spte             4887 mm/hugetlb.c   	pte_t *spte = NULL;
spte             4901 mm/hugetlb.c   			spte = huge_pte_offset(svma->vm_mm, saddr,
spte             4903 mm/hugetlb.c   			if (spte) {
spte             4904 mm/hugetlb.c   				get_page(virt_to_page(spte));
spte             4910 mm/hugetlb.c   	if (!spte)
spte             4913 mm/hugetlb.c   	ptl = huge_pte_lock(hstate_vma(vma), mm, spte);
spte             4916 mm/hugetlb.c   				(pmd_t *)((unsigned long)spte & PAGE_MASK));
spte             4919 mm/hugetlb.c   		put_page(virt_to_page(spte));