dst_pte 92 include/linux/hugetlb.h int hugetlb_mcopy_atomic_pte(struct mm_struct *dst_mm, pte_t *dst_pte, dst_pte 186 include/linux/hugetlb.h #define hugetlb_mcopy_atomic_pte(dst_mm, dst_pte, dst_vma, dst_addr, \ dst_pte 136 include/linux/shmem_fs.h #define shmem_mcopy_atomic_pte(dst_mm, dst_pte, dst_vma, dst_addr, \ dst_pte 3422 mm/hugetlb.c pte_t *src_pte, *dst_pte, entry, dst_entry; dst_pte 3445 mm/hugetlb.c dst_pte = huge_pte_alloc(dst, addr, sz); dst_pte 3446 mm/hugetlb.c if (!dst_pte) { dst_pte 3460 mm/hugetlb.c dst_entry = huge_ptep_get(dst_pte); dst_pte 3461 mm/hugetlb.c if ((dst_pte == src_pte) || !huge_pte_none(dst_entry)) dst_pte 3464 mm/hugetlb.c dst_ptl = huge_pte_lock(h, dst, dst_pte); dst_pte 3468 mm/hugetlb.c dst_entry = huge_ptep_get(dst_pte); dst_pte 3490 mm/hugetlb.c set_huge_swap_pte_at(dst, addr, dst_pte, entry, sz); dst_pte 3506 mm/hugetlb.c set_huge_pte_at(dst, addr, dst_pte, entry); dst_pte 4261 mm/hugetlb.c pte_t *dst_pte, dst_pte 4329 mm/hugetlb.c ptl = huge_pte_lockptr(h, dst_mm, dst_pte); dst_pte 4347 mm/hugetlb.c if (!huge_pte_none(huge_ptep_get(dst_pte))) dst_pte 4362 mm/hugetlb.c set_huge_pte_at(dst_mm, dst_addr, dst_pte, _dst_pte); dst_pte 4364 mm/hugetlb.c (void)huge_ptep_set_access_flags(dst_vma, dst_addr, dst_pte, _dst_pte, dst_pte 4369 mm/hugetlb.c update_mmu_cache(dst_vma, dst_addr, dst_pte); dst_pte 679 mm/memory.c pte_t *dst_pte, pte_t *src_pte, struct vm_area_struct *vma, dst_pte 780 mm/memory.c set_pte_at(dst_mm, addr, dst_pte, pte); dst_pte 789 mm/memory.c pte_t *src_pte, *dst_pte; dst_pte 798 mm/memory.c dst_pte = pte_alloc_map_lock(dst_mm, dst_pmd, addr, &dst_ptl); dst_pte 799 mm/memory.c if (!dst_pte) dst_pte 805 mm/memory.c orig_dst_pte = dst_pte; dst_pte 823 mm/memory.c entry.val = copy_one_pte(dst_mm, src_mm, dst_pte, src_pte, dst_pte 828 mm/memory.c } while (dst_pte++, src_pte++, addr += PAGE_SIZE, addr != end); dst_pte 2325 mm/shmem.c pte_t _dst_pte, *dst_pte; dst_pte 2396 mm/shmem.c dst_pte = pte_offset_map_lock(dst_mm, dst_pmd, dst_addr, &ptl); dst_pte 2404 mm/shmem.c if (!pte_none(*dst_pte)) dst_pte 2417 mm/shmem.c set_pte_at(dst_mm, dst_addr, dst_pte, _dst_pte); dst_pte 2420 mm/shmem.c update_mmu_cache(dst_vma, dst_addr, dst_pte); dst_pte 2421 mm/shmem.c pte_unmap_unlock(dst_pte, ptl); dst_pte 2427 mm/shmem.c pte_unmap_unlock(dst_pte, ptl); dst_pte 29 mm/userfaultfd.c pte_t _dst_pte, *dst_pte; dst_pte 76 mm/userfaultfd.c dst_pte = pte_offset_map_lock(dst_mm, dst_pmd, dst_addr, &ptl); dst_pte 87 mm/userfaultfd.c if (!pte_none(*dst_pte)) dst_pte 95 mm/userfaultfd.c set_pte_at(dst_mm, dst_addr, dst_pte, _dst_pte); dst_pte 98 mm/userfaultfd.c update_mmu_cache(dst_vma, dst_addr, dst_pte); dst_pte 100 mm/userfaultfd.c pte_unmap_unlock(dst_pte, ptl); dst_pte 105 mm/userfaultfd.c pte_unmap_unlock(dst_pte, ptl); dst_pte 117 mm/userfaultfd.c pte_t _dst_pte, *dst_pte; dst_pte 125 mm/userfaultfd.c dst_pte = pte_offset_map_lock(dst_mm, dst_pmd, dst_addr, &ptl); dst_pte 136 mm/userfaultfd.c if (!pte_none(*dst_pte)) dst_pte 138 mm/userfaultfd.c set_pte_at(dst_mm, dst_addr, dst_pte, _dst_pte); dst_pte 140 mm/userfaultfd.c update_mmu_cache(dst_vma, dst_addr, dst_pte); dst_pte 143 mm/userfaultfd.c pte_unmap_unlock(dst_pte, ptl); dst_pte 183 mm/userfaultfd.c pte_t *dst_pte; dst_pte 276 mm/userfaultfd.c dst_pte = huge_pte_alloc(dst_mm, dst_addr, huge_page_size(h)); dst_pte 277 mm/userfaultfd.c if (!dst_pte) { dst_pte 283 mm/userfaultfd.c dst_pteval = huge_ptep_get(dst_pte); dst_pte 289 mm/userfaultfd.c err = hugetlb_mcopy_atomic_pte(dst_mm, dst_pte, dst_vma,