gpummu 38 drivers/gpu/drm/msm/msm_gpummu.c struct msm_gpummu *gpummu = to_msm_gpummu(mmu); gpummu 52 drivers/gpu/drm/msm/msm_gpummu.c gpummu->table[idx] = addr | prot_bits; gpummu 58 drivers/gpu/drm/msm/msm_gpummu.c gpu_write(gpummu->gpu, REG_A2XX_MH_MMU_INVALIDATE, gpummu 66 drivers/gpu/drm/msm/msm_gpummu.c struct msm_gpummu *gpummu = to_msm_gpummu(mmu); gpummu 71 drivers/gpu/drm/msm/msm_gpummu.c gpummu->table[idx] = 0; gpummu 73 drivers/gpu/drm/msm/msm_gpummu.c gpu_write(gpummu->gpu, REG_A2XX_MH_MMU_INVALIDATE, gpummu 81 drivers/gpu/drm/msm/msm_gpummu.c struct msm_gpummu *gpummu = to_msm_gpummu(mmu); gpummu 83 drivers/gpu/drm/msm/msm_gpummu.c dma_free_attrs(mmu->dev, TABLE_SIZE, gpummu->table, gpummu->pt_base, gpummu 86 drivers/gpu/drm/msm/msm_gpummu.c kfree(gpummu); gpummu 99 drivers/gpu/drm/msm/msm_gpummu.c struct msm_gpummu *gpummu; gpummu 101 drivers/gpu/drm/msm/msm_gpummu.c gpummu = kzalloc(sizeof(*gpummu), GFP_KERNEL); gpummu 102 drivers/gpu/drm/msm/msm_gpummu.c if (!gpummu) gpummu 105 drivers/gpu/drm/msm/msm_gpummu.c gpummu->table = dma_alloc_attrs(dev, TABLE_SIZE + 32, &gpummu->pt_base, gpummu 107 drivers/gpu/drm/msm/msm_gpummu.c if (!gpummu->table) { gpummu 108 drivers/gpu/drm/msm/msm_gpummu.c kfree(gpummu); gpummu 112 drivers/gpu/drm/msm/msm_gpummu.c gpummu->gpu = gpu; gpummu 113 drivers/gpu/drm/msm/msm_gpummu.c msm_mmu_init(&gpummu->base, dev, &funcs); gpummu 115 drivers/gpu/drm/msm/msm_gpummu.c return &gpummu->base;