gpummu             38 drivers/gpu/drm/msm/msm_gpummu.c 	struct msm_gpummu *gpummu = to_msm_gpummu(mmu);
gpummu             52 drivers/gpu/drm/msm/msm_gpummu.c 			gpummu->table[idx] = addr | prot_bits;
gpummu             58 drivers/gpu/drm/msm/msm_gpummu.c 	gpu_write(gpummu->gpu, REG_A2XX_MH_MMU_INVALIDATE,
gpummu             66 drivers/gpu/drm/msm/msm_gpummu.c 	struct msm_gpummu *gpummu = to_msm_gpummu(mmu);
gpummu             71 drivers/gpu/drm/msm/msm_gpummu.c                 gpummu->table[idx] = 0;
gpummu             73 drivers/gpu/drm/msm/msm_gpummu.c 	gpu_write(gpummu->gpu, REG_A2XX_MH_MMU_INVALIDATE,
gpummu             81 drivers/gpu/drm/msm/msm_gpummu.c 	struct msm_gpummu *gpummu = to_msm_gpummu(mmu);
gpummu             83 drivers/gpu/drm/msm/msm_gpummu.c 	dma_free_attrs(mmu->dev, TABLE_SIZE, gpummu->table, gpummu->pt_base,
gpummu             86 drivers/gpu/drm/msm/msm_gpummu.c 	kfree(gpummu);
gpummu             99 drivers/gpu/drm/msm/msm_gpummu.c 	struct msm_gpummu *gpummu;
gpummu            101 drivers/gpu/drm/msm/msm_gpummu.c 	gpummu = kzalloc(sizeof(*gpummu), GFP_KERNEL);
gpummu            102 drivers/gpu/drm/msm/msm_gpummu.c 	if (!gpummu)
gpummu            105 drivers/gpu/drm/msm/msm_gpummu.c 	gpummu->table = dma_alloc_attrs(dev, TABLE_SIZE + 32, &gpummu->pt_base,
gpummu            107 drivers/gpu/drm/msm/msm_gpummu.c 	if (!gpummu->table) {
gpummu            108 drivers/gpu/drm/msm/msm_gpummu.c 		kfree(gpummu);
gpummu            112 drivers/gpu/drm/msm/msm_gpummu.c 	gpummu->gpu = gpu;
gpummu            113 drivers/gpu/drm/msm/msm_gpummu.c 	msm_mmu_init(&gpummu->base, dev, &funcs);
gpummu            115 drivers/gpu/drm/msm/msm_gpummu.c 	return &gpummu->base;