vpfn               43 arch/x86/mm/hugetlbpage.c 	page = &pte_page(*pte)[vpfn % (HPAGE_SIZE/PAGE_SIZE)];
vpfn              182 drivers/vfio/vfio_iommu_type1.c 	struct vfio_pfn *vpfn;
vpfn              186 drivers/vfio/vfio_iommu_type1.c 		vpfn = rb_entry(node, struct vfio_pfn, node);
vpfn              188 drivers/vfio/vfio_iommu_type1.c 		if (iova < vpfn->iova)
vpfn              190 drivers/vfio/vfio_iommu_type1.c 		else if (iova > vpfn->iova)
vpfn              193 drivers/vfio/vfio_iommu_type1.c 			return vpfn;
vpfn              202 drivers/vfio/vfio_iommu_type1.c 	struct vfio_pfn *vpfn;
vpfn              207 drivers/vfio/vfio_iommu_type1.c 		vpfn = rb_entry(parent, struct vfio_pfn, node);
vpfn              209 drivers/vfio/vfio_iommu_type1.c 		if (new->iova < vpfn->iova)
vpfn              227 drivers/vfio/vfio_iommu_type1.c 	struct vfio_pfn *vpfn;
vpfn              229 drivers/vfio/vfio_iommu_type1.c 	vpfn = kzalloc(sizeof(*vpfn), GFP_KERNEL);
vpfn              230 drivers/vfio/vfio_iommu_type1.c 	if (!vpfn)
vpfn              233 drivers/vfio/vfio_iommu_type1.c 	vpfn->iova = iova;
vpfn              234 drivers/vfio/vfio_iommu_type1.c 	vpfn->pfn = pfn;
vpfn              235 drivers/vfio/vfio_iommu_type1.c 	atomic_set(&vpfn->ref_count, 1);
vpfn              236 drivers/vfio/vfio_iommu_type1.c 	vfio_link_pfn(dma, vpfn);
vpfn              241 drivers/vfio/vfio_iommu_type1.c 				      struct vfio_pfn *vpfn)
vpfn              243 drivers/vfio/vfio_iommu_type1.c 	vfio_unlink_pfn(dma, vpfn);
vpfn              244 drivers/vfio/vfio_iommu_type1.c 	kfree(vpfn);
vpfn              250 drivers/vfio/vfio_iommu_type1.c 	struct vfio_pfn *vpfn = vfio_find_vpfn(dma, iova);
vpfn              252 drivers/vfio/vfio_iommu_type1.c 	if (vpfn)
vpfn              253 drivers/vfio/vfio_iommu_type1.c 		atomic_inc(&vpfn->ref_count);
vpfn              254 drivers/vfio/vfio_iommu_type1.c 	return vpfn;
vpfn              257 drivers/vfio/vfio_iommu_type1.c static int vfio_iova_put_vfio_pfn(struct vfio_dma *dma, struct vfio_pfn *vpfn)
vpfn              261 drivers/vfio/vfio_iommu_type1.c 	if (atomic_dec_and_test(&vpfn->ref_count)) {
vpfn              262 drivers/vfio/vfio_iommu_type1.c 		ret = put_pfn(vpfn->pfn, dma->prot);
vpfn              263 drivers/vfio/vfio_iommu_type1.c 		vfio_remove_from_pfn_list(dma, vpfn);
vpfn              528 drivers/vfio/vfio_iommu_type1.c 	struct vfio_pfn *vpfn = vfio_find_vpfn(dma, iova);
vpfn              530 drivers/vfio/vfio_iommu_type1.c 	if (!vpfn)
vpfn              533 drivers/vfio/vfio_iommu_type1.c 	unlocked = vfio_iova_put_vfio_pfn(dma, vpfn);
vpfn              576 drivers/vfio/vfio_iommu_type1.c 		struct vfio_pfn *vpfn;
vpfn              590 drivers/vfio/vfio_iommu_type1.c 		vpfn = vfio_iova_get_vfio_pfn(dma, iova);
vpfn              591 drivers/vfio/vfio_iommu_type1.c 		if (vpfn) {
vpfn              592 drivers/vfio/vfio_iommu_type1.c 			phys_pfn[i] = vpfn->pfn;
vpfn             1875 drivers/vfio/vfio_iommu_type1.c 			struct vfio_pfn *vpfn = rb_entry(p, struct vfio_pfn,
vpfn             1878 drivers/vfio/vfio_iommu_type1.c 			if (!is_invalid_reserved_pfn(vpfn->pfn))