nvbo 612 drivers/gpu/drm/nouveau/dispnv04/crtc.c ret = nouveau_bo_pin(nvfb->nvbo, TTM_PL_FLAG_VRAM, false); nvbo 616 drivers/gpu/drm/nouveau/dispnv04/crtc.c nouveau_bo_ref(nvfb->nvbo, &disp->image[nv_crtc->index]); nvbo 755 drivers/gpu/drm/nouveau/dispnv04/crtc.c nouveau_bo_unmap(nv_crtc->cursor.nvbo); nvbo 756 drivers/gpu/drm/nouveau/dispnv04/crtc.c nouveau_bo_unpin(nv_crtc->cursor.nvbo); nvbo 757 drivers/gpu/drm/nouveau/dispnv04/crtc.c nouveau_bo_ref(NULL, &nv_crtc->cursor.nvbo); nvbo 848 drivers/gpu/drm/nouveau/dispnv04/crtc.c nv_crtc->fb.offset = fb->nvbo->bo.offset; nvbo 1011 drivers/gpu/drm/nouveau/dispnv04/crtc.c nv11_cursor_upload(dev, cursor, nv_crtc->cursor.nvbo); nvbo 1013 drivers/gpu/drm/nouveau/dispnv04/crtc.c nv04_cursor_upload(dev, cursor, nv_crtc->cursor.nvbo); nvbo 1016 drivers/gpu/drm/nouveau/dispnv04/crtc.c nv_crtc->cursor.offset = nv_crtc->cursor.nvbo->bo.offset; nvbo 1146 drivers/gpu/drm/nouveau/dispnv04/crtc.c struct nouveau_bo *old_bo = nouveau_framebuffer(crtc->primary->fb)->nvbo; nvbo 1147 drivers/gpu/drm/nouveau/dispnv04/crtc.c struct nouveau_bo *new_bo = nouveau_framebuffer(fb)->nvbo; nvbo 1321 drivers/gpu/drm/nouveau/dispnv04/crtc.c &nv_crtc->cursor.nvbo); nvbo 1323 drivers/gpu/drm/nouveau/dispnv04/crtc.c ret = nouveau_bo_pin(nv_crtc->cursor.nvbo, TTM_PL_FLAG_VRAM, false); nvbo 1325 drivers/gpu/drm/nouveau/dispnv04/crtc.c ret = nouveau_bo_map(nv_crtc->cursor.nvbo); nvbo 1327 drivers/gpu/drm/nouveau/dispnv04/crtc.c nouveau_bo_unpin(nv_crtc->cursor.nvbo); nvbo 1330 drivers/gpu/drm/nouveau/dispnv04/crtc.c nouveau_bo_ref(NULL, &nv_crtc->cursor.nvbo); nvbo 58 drivers/gpu/drm/nouveau/dispnv04/disp.c if (!nouveau_fb || !nouveau_fb->nvbo) nvbo 61 drivers/gpu/drm/nouveau/dispnv04/disp.c nouveau_bo_unpin(nouveau_fb->nvbo); nvbo 66 drivers/gpu/drm/nouveau/dispnv04/disp.c if (nv_crtc->cursor.nvbo) { nvbo 68 drivers/gpu/drm/nouveau/dispnv04/disp.c nouveau_bo_unmap(nv_crtc->cursor.nvbo); nvbo 69 drivers/gpu/drm/nouveau/dispnv04/disp.c nouveau_bo_unpin(nv_crtc->cursor.nvbo); nvbo 110 drivers/gpu/drm/nouveau/dispnv04/disp.c if (!nouveau_fb || !nouveau_fb->nvbo) nvbo 113 drivers/gpu/drm/nouveau/dispnv04/disp.c ret = nouveau_bo_pin(nouveau_fb->nvbo, TTM_PL_FLAG_VRAM, true); nvbo 120 drivers/gpu/drm/nouveau/dispnv04/disp.c if (!nv_crtc->cursor.nvbo) nvbo 123 drivers/gpu/drm/nouveau/dispnv04/disp.c ret = nouveau_bo_pin(nv_crtc->cursor.nvbo, TTM_PL_FLAG_VRAM, true); nvbo 125 drivers/gpu/drm/nouveau/dispnv04/disp.c ret = nouveau_bo_map(nv_crtc->cursor.nvbo); nvbo 150 drivers/gpu/drm/nouveau/dispnv04/disp.c if (!nv_crtc->cursor.nvbo) nvbo 154 drivers/gpu/drm/nouveau/dispnv04/disp.c nv_crtc->cursor.set_offset(nv_crtc, nv_crtc->cursor.nvbo->bo.offset); nvbo 143 drivers/gpu/drm/nouveau/dispnv04/overlay.c ret = nouveau_bo_pin(nv_fb->nvbo, TTM_PL_FLAG_VRAM, false); nvbo 147 drivers/gpu/drm/nouveau/dispnv04/overlay.c nv_plane->cur = nv_fb->nvbo; nvbo 153 drivers/gpu/drm/nouveau/dispnv04/overlay.c nvif_wr32(dev, NV_PVIDEO_OFFSET_BUFF(flip), nv_fb->nvbo->bo.offset); nvbo 175 drivers/gpu/drm/nouveau/dispnv04/overlay.c nv_fb->nvbo->bo.offset + fb->offsets[1]); nvbo 387 drivers/gpu/drm/nouveau/dispnv04/overlay.c ret = nouveau_bo_pin(nv_fb->nvbo, TTM_PL_FLAG_VRAM, false); nvbo 391 drivers/gpu/drm/nouveau/dispnv04/overlay.c nv_plane->cur = nv_fb->nvbo; nvbo 399 drivers/gpu/drm/nouveau/dispnv04/overlay.c nv_fb->nvbo->bo.offset); nvbo 46 drivers/gpu/drm/nouveau/dispnv50/wndw.c const u8 kind = fb->nvbo->kind; nvbo 246 drivers/gpu/drm/nouveau/dispnv50/wndw.c asyw->image.kind = fb->nvbo->kind; nvbo 258 drivers/gpu/drm/nouveau/dispnv50/wndw.c asyw->image.blockh = fb->nvbo->mode >> 4; nvbo 260 drivers/gpu/drm/nouveau/dispnv50/wndw.c asyw->image.blockh = fb->nvbo->mode; nvbo 474 drivers/gpu/drm/nouveau/dispnv50/wndw.c nouveau_bo_unpin(fb->nvbo); nvbo 492 drivers/gpu/drm/nouveau/dispnv50/wndw.c ret = nouveau_bo_pin(fb->nvbo, TTM_PL_FLAG_VRAM, true); nvbo 499 drivers/gpu/drm/nouveau/dispnv50/wndw.c nouveau_bo_unpin(fb->nvbo); nvbo 506 drivers/gpu/drm/nouveau/dispnv50/wndw.c asyw->state.fence = dma_resv_get_excl_rcu(fb->nvbo->bo.base.resv); nvbo 507 drivers/gpu/drm/nouveau/dispnv50/wndw.c asyw->image.offset[0] = fb->nvbo->bo.offset; nvbo 137 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_bo *nvbo = nouveau_bo(bo); nvbo 139 drivers/gpu/drm/nouveau/nouveau_bo.c WARN_ON(nvbo->pin_refcnt > 0); nvbo 140 drivers/gpu/drm/nouveau/nouveau_bo.c nv10_bo_put_tile_region(dev, nvbo->tile, NULL); nvbo 149 drivers/gpu/drm/nouveau/nouveau_bo.c kfree(nvbo); nvbo 161 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_fixup_align(struct nouveau_bo *nvbo, u32 flags, nvbo 164 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev); nvbo 168 drivers/gpu/drm/nouveau/nouveau_bo.c if (nvbo->mode) { nvbo 171 drivers/gpu/drm/nouveau/nouveau_bo.c *size = roundup_64(*size, 64 * nvbo->mode); nvbo 175 drivers/gpu/drm/nouveau/nouveau_bo.c *size = roundup_64(*size, 64 * nvbo->mode); nvbo 179 drivers/gpu/drm/nouveau/nouveau_bo.c *size = roundup_64(*size, 64 * nvbo->mode); nvbo 183 drivers/gpu/drm/nouveau/nouveau_bo.c *size = roundup_64(*size, 32 * nvbo->mode); nvbo 187 drivers/gpu/drm/nouveau/nouveau_bo.c *size = roundup_64(*size, (1 << nvbo->page)); nvbo 188 drivers/gpu/drm/nouveau/nouveau_bo.c *align = max((1 << nvbo->page), *align); nvbo 199 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_bo *nvbo; nvbo 209 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo = kzalloc(sizeof(struct nouveau_bo), GFP_KERNEL); nvbo 210 drivers/gpu/drm/nouveau/nouveau_bo.c if (!nvbo) nvbo 212 drivers/gpu/drm/nouveau/nouveau_bo.c INIT_LIST_HEAD(&nvbo->head); nvbo 213 drivers/gpu/drm/nouveau/nouveau_bo.c INIT_LIST_HEAD(&nvbo->entry); nvbo 214 drivers/gpu/drm/nouveau/nouveau_bo.c INIT_LIST_HEAD(&nvbo->vma_list); nvbo 215 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->bo.bdev = &drm->ttm.bdev; nvbo 226 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->force_coherent = true; nvbo 230 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->kind = (tile_flags & 0x0000ff00) >> 8; nvbo 231 drivers/gpu/drm/nouveau/nouveau_bo.c if (!nvif_mmu_kind_valid(mmu, nvbo->kind)) { nvbo 232 drivers/gpu/drm/nouveau/nouveau_bo.c kfree(nvbo); nvbo 236 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->comp = mmu->kind[nvbo->kind] != nvbo->kind; nvbo 239 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->kind = (tile_flags & 0x00007f00) >> 8; nvbo 240 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->comp = (tile_flags & 0x00030000) >> 16; nvbo 241 drivers/gpu/drm/nouveau/nouveau_bo.c if (!nvif_mmu_kind_valid(mmu, nvbo->kind)) { nvbo 242 drivers/gpu/drm/nouveau/nouveau_bo.c kfree(nvbo); nvbo 246 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->zeta = (tile_flags & 0x00000007); nvbo 248 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->mode = tile_mode; nvbo 249 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->contig = !(tile_flags & NOUVEAU_GEM_TILE_NONCONTIG); nvbo 271 drivers/gpu/drm/nouveau/nouveau_bo.c if (pi < 0 || !nvbo->comp || vmm->page[i].comp) nvbo 283 drivers/gpu/drm/nouveau/nouveau_bo.c if (nvbo->comp && !vmm->page[pi].comp) { nvbo 285 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->kind = mmu->kind[nvbo->kind]; nvbo 286 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->comp = 0; nvbo 288 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->page = vmm->page[pi].shift; nvbo 290 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_fixup_align(nvbo, flags, align, size); nvbo 292 drivers/gpu/drm/nouveau/nouveau_bo.c return nvbo; nvbo 296 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_init(struct nouveau_bo *nvbo, u64 size, int align, u32 flags, nvbo 303 drivers/gpu/drm/nouveau/nouveau_bo.c acc_size = ttm_bo_dma_acc_size(nvbo->bo.bdev, size, sizeof(*nvbo)); nvbo 305 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->bo.mem.num_pages = size >> PAGE_SHIFT; nvbo 306 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_placement_set(nvbo, flags, 0); nvbo 308 drivers/gpu/drm/nouveau/nouveau_bo.c ret = ttm_bo_init(nvbo->bo.bdev, &nvbo->bo, size, type, nvbo 309 drivers/gpu/drm/nouveau/nouveau_bo.c &nvbo->placement, align >> PAGE_SHIFT, false, nvbo 325 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_bo *nvbo; nvbo 328 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo = nouveau_bo_alloc(cli, &size, &align, flags, tile_mode, nvbo 330 drivers/gpu/drm/nouveau/nouveau_bo.c if (IS_ERR(nvbo)) nvbo 331 drivers/gpu/drm/nouveau/nouveau_bo.c return PTR_ERR(nvbo); nvbo 333 drivers/gpu/drm/nouveau/nouveau_bo.c ret = nouveau_bo_init(nvbo, size, align, flags, sg, robj); nvbo 337 drivers/gpu/drm/nouveau/nouveau_bo.c *pnvbo = nvbo; nvbo 355 drivers/gpu/drm/nouveau/nouveau_bo.c set_placement_range(struct nouveau_bo *nvbo, uint32_t type) nvbo 357 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev); nvbo 362 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->mode && (type & TTM_PL_FLAG_VRAM) && nvbo 363 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->bo.mem.num_pages < vram_pages / 4) { nvbo 370 drivers/gpu/drm/nouveau/nouveau_bo.c if (nvbo->zeta) { nvbo 377 drivers/gpu/drm/nouveau/nouveau_bo.c for (i = 0; i < nvbo->placement.num_placement; ++i) { nvbo 378 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->placements[i].fpfn = fpfn; nvbo 379 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->placements[i].lpfn = lpfn; nvbo 381 drivers/gpu/drm/nouveau/nouveau_bo.c for (i = 0; i < nvbo->placement.num_busy_placement; ++i) { nvbo 382 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->busy_placements[i].fpfn = fpfn; nvbo 383 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->busy_placements[i].lpfn = lpfn; nvbo 389 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_placement_set(struct nouveau_bo *nvbo, uint32_t type, uint32_t busy) nvbo 391 drivers/gpu/drm/nouveau/nouveau_bo.c struct ttm_placement *pl = &nvbo->placement; nvbo 392 drivers/gpu/drm/nouveau/nouveau_bo.c uint32_t flags = (nvbo->force_coherent ? TTM_PL_FLAG_UNCACHED : nvbo 394 drivers/gpu/drm/nouveau/nouveau_bo.c (nvbo->pin_refcnt ? TTM_PL_FLAG_NO_EVICT : 0); nvbo 396 drivers/gpu/drm/nouveau/nouveau_bo.c pl->placement = nvbo->placements; nvbo 397 drivers/gpu/drm/nouveau/nouveau_bo.c set_placement_list(nvbo->placements, &pl->num_placement, nvbo 400 drivers/gpu/drm/nouveau/nouveau_bo.c pl->busy_placement = nvbo->busy_placements; nvbo 401 drivers/gpu/drm/nouveau/nouveau_bo.c set_placement_list(nvbo->busy_placements, &pl->num_busy_placement, nvbo 404 drivers/gpu/drm/nouveau/nouveau_bo.c set_placement_range(nvbo, type); nvbo 408 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_pin(struct nouveau_bo *nvbo, uint32_t memtype, bool contig) nvbo 410 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev); nvbo 411 drivers/gpu/drm/nouveau/nouveau_bo.c struct ttm_buffer_object *bo = &nvbo->bo; nvbo 421 drivers/gpu/drm/nouveau/nouveau_bo.c if (!nvbo->contig) { nvbo 422 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->contig = true; nvbo 428 drivers/gpu/drm/nouveau/nouveau_bo.c if (nvbo->pin_refcnt) { nvbo 435 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->pin_refcnt++; nvbo 440 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_placement_set(nvbo, TTM_PL_FLAG_TT, 0); nvbo 441 drivers/gpu/drm/nouveau/nouveau_bo.c ret = nouveau_bo_validate(nvbo, false, false); nvbo 446 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->pin_refcnt++; nvbo 447 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_placement_set(nvbo, memtype, 0); nvbo 453 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->pin_refcnt--; nvbo 454 drivers/gpu/drm/nouveau/nouveau_bo.c ret = nouveau_bo_validate(nvbo, false, false); nvbo 457 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->pin_refcnt++; nvbo 472 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->contig = false; nvbo 478 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_unpin(struct nouveau_bo *nvbo) nvbo 480 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev); nvbo 481 drivers/gpu/drm/nouveau/nouveau_bo.c struct ttm_buffer_object *bo = &nvbo->bo; nvbo 488 drivers/gpu/drm/nouveau/nouveau_bo.c ref = --nvbo->pin_refcnt; nvbo 493 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_placement_set(nvbo, bo->mem.placement, 0); nvbo 495 drivers/gpu/drm/nouveau/nouveau_bo.c ret = nouveau_bo_validate(nvbo, false, false); nvbo 515 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_map(struct nouveau_bo *nvbo) nvbo 519 drivers/gpu/drm/nouveau/nouveau_bo.c ret = ttm_bo_reserve(&nvbo->bo, false, false, NULL); nvbo 523 drivers/gpu/drm/nouveau/nouveau_bo.c ret = ttm_bo_kmap(&nvbo->bo, 0, nvbo->bo.mem.num_pages, &nvbo->kmap); nvbo 525 drivers/gpu/drm/nouveau/nouveau_bo.c ttm_bo_unreserve(&nvbo->bo); nvbo 530 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_unmap(struct nouveau_bo *nvbo) nvbo 532 drivers/gpu/drm/nouveau/nouveau_bo.c if (!nvbo) nvbo 535 drivers/gpu/drm/nouveau/nouveau_bo.c ttm_bo_kunmap(&nvbo->kmap); nvbo 539 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_sync_for_device(struct nouveau_bo *nvbo) nvbo 541 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev); nvbo 542 drivers/gpu/drm/nouveau/nouveau_bo.c struct ttm_dma_tt *ttm_dma = (struct ttm_dma_tt *)nvbo->bo.ttm; nvbo 549 drivers/gpu/drm/nouveau/nouveau_bo.c if (nvbo->force_coherent) nvbo 559 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_sync_for_cpu(struct nouveau_bo *nvbo) nvbo 561 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev); nvbo 562 drivers/gpu/drm/nouveau/nouveau_bo.c struct ttm_dma_tt *ttm_dma = (struct ttm_dma_tt *)nvbo->bo.ttm; nvbo 569 drivers/gpu/drm/nouveau/nouveau_bo.c if (nvbo->force_coherent) nvbo 578 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_validate(struct nouveau_bo *nvbo, bool interruptible, nvbo 584 drivers/gpu/drm/nouveau/nouveau_bo.c ret = ttm_bo_validate(&nvbo->bo, &nvbo->placement, &ctx); nvbo 588 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_sync_for_device(nvbo); nvbo 594 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_wr16(struct nouveau_bo *nvbo, unsigned index, u16 val) nvbo 597 drivers/gpu/drm/nouveau/nouveau_bo.c u16 *mem = ttm_kmap_obj_virtual(&nvbo->kmap, &is_iomem); nvbo 608 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_rd32(struct nouveau_bo *nvbo, unsigned index) nvbo 611 drivers/gpu/drm/nouveau/nouveau_bo.c u32 *mem = ttm_kmap_obj_virtual(&nvbo->kmap, &is_iomem); nvbo 622 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_wr32(struct nouveau_bo *nvbo, unsigned index, u32 val) nvbo 625 drivers/gpu/drm/nouveau/nouveau_bo.c u32 *mem = ttm_kmap_obj_virtual(&nvbo->kmap, &is_iomem); nvbo 722 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_bo *nvbo = nouveau_bo(bo); nvbo 726 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_placement_set(nvbo, TTM_PL_FLAG_TT, nvbo 730 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_placement_set(nvbo, TTM_PL_FLAG_SYSTEM, 0); nvbo 734 drivers/gpu/drm/nouveau/nouveau_bo.c *pl = nvbo->placement; nvbo 1308 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_bo *nvbo = nouveau_bo(bo); nvbo 1316 drivers/gpu/drm/nouveau/nouveau_bo.c mem->mem.page == nvbo->page) { nvbo 1317 drivers/gpu/drm/nouveau/nouveau_bo.c list_for_each_entry(vma, &nvbo->vma_list, head) { nvbo 1321 drivers/gpu/drm/nouveau/nouveau_bo.c list_for_each_entry(vma, &nvbo->vma_list, head) { nvbo 1334 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_bo *nvbo = nouveau_bo(bo); nvbo 1343 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->mode, nvbo->zeta); nvbo 1368 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_bo *nvbo = nouveau_bo(bo); nvbo 1377 drivers/gpu/drm/nouveau/nouveau_bo.c if (nvbo->pin_refcnt) nvbo 1378 drivers/gpu/drm/nouveau/nouveau_bo.c NV_WARN(drm, "Moving pinned object %p!\n", nvbo); nvbo 1422 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_vm_cleanup(bo, new_tile, &nvbo->tile); nvbo 1431 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_bo *nvbo = nouveau_bo(bo); nvbo 1433 drivers/gpu/drm/nouveau/nouveau_bo.c return drm_vma_node_verify_access(&nvbo->bo.base.vma_node, nvbo 1541 drivers/gpu/drm/nouveau/nouveau_bo.c struct nouveau_bo *nvbo = nouveau_bo(bo); nvbo 1551 drivers/gpu/drm/nouveau/nouveau_bo.c !nvbo->kind) nvbo 1555 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_placement_set(nvbo, TTM_PL_TT, 0); nvbo 1557 drivers/gpu/drm/nouveau/nouveau_bo.c ret = nouveau_bo_validate(nvbo, false, false); nvbo 1569 drivers/gpu/drm/nouveau/nouveau_bo.c for (i = 0; i < nvbo->placement.num_placement; ++i) { nvbo 1570 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->placements[i].fpfn = 0; nvbo 1571 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->placements[i].lpfn = mappable; nvbo 1574 drivers/gpu/drm/nouveau/nouveau_bo.c for (i = 0; i < nvbo->placement.num_busy_placement; ++i) { nvbo 1575 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->busy_placements[i].fpfn = 0; nvbo 1576 drivers/gpu/drm/nouveau/nouveau_bo.c nvbo->busy_placements[i].lpfn = mappable; nvbo 1579 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_placement_set(nvbo, TTM_PL_FLAG_VRAM, 0); nvbo 1580 drivers/gpu/drm/nouveau/nouveau_bo.c return nouveau_bo_validate(nvbo, false, false); nvbo 1685 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_fence(struct nouveau_bo *nvbo, struct nouveau_fence *fence, bool exclusive) nvbo 1687 drivers/gpu/drm/nouveau/nouveau_bo.c struct dma_resv *resv = nvbo->bo.base.resv; nvbo 93 drivers/gpu/drm/nouveau/nouveau_bo.h void nouveau_bo_sync_for_device(struct nouveau_bo *nvbo); nvbo 94 drivers/gpu/drm/nouveau/nouveau_bo.h void nouveau_bo_sync_for_cpu(struct nouveau_bo *nvbo); nvbo 98 drivers/gpu/drm/nouveau/nouveau_bo.h nvbo_kmap_obj_iovirtual(struct nouveau_bo *nvbo) nvbo 102 drivers/gpu/drm/nouveau/nouveau_bo.h &nvbo->kmap, &is_iomem); nvbo 56 drivers/gpu/drm/nouveau/nouveau_crtc.h struct nouveau_bo *nvbo; nvbo 205 drivers/gpu/drm/nouveau/nouveau_display.c if (fb->nvbo) nvbo 206 drivers/gpu/drm/nouveau/nouveau_display.c drm_gem_object_put_unlocked(&fb->nvbo->bo.base); nvbo 219 drivers/gpu/drm/nouveau/nouveau_display.c return drm_gem_handle_create(file_priv, &fb->nvbo->bo.base, handle); nvbo 230 drivers/gpu/drm/nouveau/nouveau_display.c struct nouveau_bo *nvbo, nvbo 261 drivers/gpu/drm/nouveau/nouveau_display.c fb->nvbo = nvbo; nvbo 275 drivers/gpu/drm/nouveau/nouveau_display.c struct nouveau_bo *nvbo; nvbo 282 drivers/gpu/drm/nouveau/nouveau_display.c nvbo = nouveau_gem_object(gem); nvbo 284 drivers/gpu/drm/nouveau/nouveau_display.c ret = nouveau_framebuffer_new(dev, mode_cmd, nvbo, &fb); nvbo 13 drivers/gpu/drm/nouveau/nouveau_display.h struct nouveau_bo *nvbo; nvbo 317 drivers/gpu/drm/nouveau/nouveau_fbcon.c struct nouveau_bo *nvbo; nvbo 332 drivers/gpu/drm/nouveau/nouveau_fbcon.c 0, 0x0000, &nvbo); nvbo 338 drivers/gpu/drm/nouveau/nouveau_fbcon.c ret = nouveau_framebuffer_new(dev, &mode_cmd, nvbo, &fb); nvbo 342 drivers/gpu/drm/nouveau/nouveau_fbcon.c ret = nouveau_bo_pin(nvbo, TTM_PL_FLAG_VRAM, false); nvbo 348 drivers/gpu/drm/nouveau/nouveau_fbcon.c ret = nouveau_bo_map(nvbo); nvbo 356 drivers/gpu/drm/nouveau/nouveau_fbcon.c ret = nouveau_vma_new(nvbo, chan->vmm, &fb->vma); nvbo 379 drivers/gpu/drm/nouveau/nouveau_fbcon.c info->fix.smem_start = fb->nvbo->bo.mem.bus.base + nvbo 380 drivers/gpu/drm/nouveau/nouveau_fbcon.c fb->nvbo->bo.mem.bus.offset; nvbo 381 drivers/gpu/drm/nouveau/nouveau_fbcon.c info->fix.smem_len = fb->nvbo->bo.mem.num_pages << PAGE_SHIFT; nvbo 383 drivers/gpu/drm/nouveau/nouveau_fbcon.c info->screen_base = nvbo_kmap_obj_iovirtual(fb->nvbo); nvbo 384 drivers/gpu/drm/nouveau/nouveau_fbcon.c info->screen_size = fb->nvbo->bo.mem.num_pages << PAGE_SHIFT; nvbo 396 drivers/gpu/drm/nouveau/nouveau_fbcon.c fb->base.width, fb->base.height, fb->nvbo->bo.offset, nvbo); nvbo 404 drivers/gpu/drm/nouveau/nouveau_fbcon.c nouveau_bo_unmap(fb->nvbo); nvbo 406 drivers/gpu/drm/nouveau/nouveau_fbcon.c nouveau_bo_unpin(fb->nvbo); nvbo 408 drivers/gpu/drm/nouveau/nouveau_fbcon.c nouveau_bo_ref(NULL, &fb->nvbo); nvbo 421 drivers/gpu/drm/nouveau/nouveau_fbcon.c if (nouveau_fb && nouveau_fb->nvbo) { nvbo 423 drivers/gpu/drm/nouveau/nouveau_fbcon.c nouveau_bo_unmap(nouveau_fb->nvbo); nvbo 424 drivers/gpu/drm/nouveau/nouveau_fbcon.c nouveau_bo_unpin(nouveau_fb->nvbo); nvbo 333 drivers/gpu/drm/nouveau/nouveau_fence.c nouveau_fence_sync(struct nouveau_bo *nvbo, struct nouveau_channel *chan, bool exclusive, bool intr) nvbo 337 drivers/gpu/drm/nouveau/nouveau_fence.c struct dma_resv *resv = nvbo->bo.base.resv; nvbo 42 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo = nouveau_gem_object(gem); nvbo 43 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev); nvbo 52 drivers/gpu/drm/nouveau/nouveau_gem.c drm_prime_gem_destroy(gem, nvbo->bo.sg); nvbo 54 drivers/gpu/drm/nouveau/nouveau_gem.c ttm_bo_put(&nvbo->bo); nvbo 64 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo = nouveau_gem_object(gem); nvbo 65 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev); nvbo 74 drivers/gpu/drm/nouveau/nouveau_gem.c ret = ttm_bo_reserve(&nvbo->bo, false, false, NULL); nvbo 82 drivers/gpu/drm/nouveau/nouveau_gem.c ret = nouveau_vma_new(nvbo, vmm, &vma); nvbo 86 drivers/gpu/drm/nouveau/nouveau_gem.c ttm_bo_unreserve(&nvbo->bo); nvbo 112 drivers/gpu/drm/nouveau/nouveau_gem.c nouveau_gem_object_unmap(struct nouveau_bo *nvbo, struct nouveau_vma *vma) nvbo 139 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo = nouveau_gem_object(gem); nvbo 140 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev); nvbo 149 drivers/gpu/drm/nouveau/nouveau_gem.c ret = ttm_bo_reserve(&nvbo->bo, false, false, NULL); nvbo 153 drivers/gpu/drm/nouveau/nouveau_gem.c vma = nouveau_vma_find(nvbo, vmm); nvbo 158 drivers/gpu/drm/nouveau/nouveau_gem.c nouveau_gem_object_unmap(nvbo, vma); nvbo 164 drivers/gpu/drm/nouveau/nouveau_gem.c ttm_bo_unreserve(&nvbo->bo); nvbo 173 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo; nvbo 187 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo = nouveau_bo_alloc(cli, &size, &align, flags, tile_mode, nvbo 189 drivers/gpu/drm/nouveau/nouveau_gem.c if (IS_ERR(nvbo)) nvbo 190 drivers/gpu/drm/nouveau/nouveau_gem.c return PTR_ERR(nvbo); nvbo 194 drivers/gpu/drm/nouveau/nouveau_gem.c ret = drm_gem_object_init(drm->dev, &nvbo->bo.base, size); nvbo 196 drivers/gpu/drm/nouveau/nouveau_gem.c nouveau_bo_ref(NULL, &nvbo); nvbo 200 drivers/gpu/drm/nouveau/nouveau_gem.c ret = nouveau_bo_init(nvbo, size, align, flags, NULL, NULL); nvbo 202 drivers/gpu/drm/nouveau/nouveau_gem.c nouveau_bo_ref(NULL, &nvbo); nvbo 210 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo->valid_domains = NOUVEAU_GEM_DOMAIN_VRAM | nvbo 213 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo->valid_domains &= domain; nvbo 215 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo->bo.persistent_swap_storage = nvbo->bo.base.filp; nvbo 216 drivers/gpu/drm/nouveau/nouveau_gem.c *pnvbo = nvbo; nvbo 225 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo = nouveau_gem_object(gem); nvbo 229 drivers/gpu/drm/nouveau/nouveau_gem.c if (is_power_of_2(nvbo->valid_domains)) nvbo 230 drivers/gpu/drm/nouveau/nouveau_gem.c rep->domain = nvbo->valid_domains; nvbo 231 drivers/gpu/drm/nouveau/nouveau_gem.c else if (nvbo->bo.mem.mem_type == TTM_PL_TT) nvbo 235 drivers/gpu/drm/nouveau/nouveau_gem.c rep->offset = nvbo->bo.offset; nvbo 237 drivers/gpu/drm/nouveau/nouveau_gem.c vma = nouveau_vma_find(nvbo, vmm); nvbo 244 drivers/gpu/drm/nouveau/nouveau_gem.c rep->size = nvbo->bo.mem.num_pages << PAGE_SHIFT; nvbo 245 drivers/gpu/drm/nouveau/nouveau_gem.c rep->map_handle = drm_vma_node_offset_addr(&nvbo->bo.base.vma_node); nvbo 246 drivers/gpu/drm/nouveau/nouveau_gem.c rep->tile_mode = nvbo->mode; nvbo 247 drivers/gpu/drm/nouveau/nouveau_gem.c rep->tile_flags = nvbo->contig ? 0 : NOUVEAU_GEM_TILE_NONCONTIG; nvbo 249 drivers/gpu/drm/nouveau/nouveau_gem.c rep->tile_flags |= nvbo->kind << 8; nvbo 252 drivers/gpu/drm/nouveau/nouveau_gem.c rep->tile_flags |= nvbo->kind << 8 | nvbo->comp << 16; nvbo 254 drivers/gpu/drm/nouveau/nouveau_gem.c rep->tile_flags |= nvbo->zeta; nvbo 264 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo = NULL; nvbo 269 drivers/gpu/drm/nouveau/nouveau_gem.c req->info.tile_flags, &nvbo); nvbo 273 drivers/gpu/drm/nouveau/nouveau_gem.c ret = drm_gem_handle_create(file_priv, &nvbo->bo.base, nvbo 276 drivers/gpu/drm/nouveau/nouveau_gem.c ret = nouveau_gem_info(file_priv, &nvbo->bo.base, &req->info); nvbo 282 drivers/gpu/drm/nouveau/nouveau_gem.c drm_gem_object_put_unlocked(&nvbo->bo.base); nvbo 290 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo = nouveau_gem_object(gem); nvbo 291 drivers/gpu/drm/nouveau/nouveau_gem.c struct ttm_buffer_object *bo = &nvbo->bo; nvbo 292 drivers/gpu/drm/nouveau/nouveau_gem.c uint32_t domains = valid_domains & nvbo->valid_domains & nvbo 319 drivers/gpu/drm/nouveau/nouveau_gem.c nouveau_bo_placement_set(nvbo, pref_flags, valid_flags); nvbo 334 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo; nvbo 338 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo = list_entry(op->list.next, struct nouveau_bo, entry); nvbo 339 drivers/gpu/drm/nouveau/nouveau_gem.c b = &pbbo[nvbo->pbbo_index]; nvbo 342 drivers/gpu/drm/nouveau/nouveau_gem.c nouveau_bo_fence(nvbo, fence, !!b->write_domains); nvbo 353 drivers/gpu/drm/nouveau/nouveau_gem.c if (unlikely(nvbo->validate_mapped)) { nvbo 354 drivers/gpu/drm/nouveau/nouveau_gem.c ttm_bo_kunmap(&nvbo->kmap); nvbo 355 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo->validate_mapped = false; nvbo 358 drivers/gpu/drm/nouveau/nouveau_gem.c list_del(&nvbo->entry); nvbo 359 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo->reserved_by = NULL; nvbo 360 drivers/gpu/drm/nouveau/nouveau_gem.c ttm_bo_unreserve(&nvbo->bo); nvbo 361 drivers/gpu/drm/nouveau/nouveau_gem.c drm_gem_object_put_unlocked(&nvbo->bo.base); nvbo 397 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo; nvbo 405 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo = nouveau_gem_object(gem); nvbo 406 drivers/gpu/drm/nouveau/nouveau_gem.c if (nvbo == res_bo) { nvbo 412 drivers/gpu/drm/nouveau/nouveau_gem.c if (nvbo->reserved_by && nvbo->reserved_by == file_priv) { nvbo 420 drivers/gpu/drm/nouveau/nouveau_gem.c ret = ttm_bo_reserve(&nvbo->bo, true, false, &op->ticket); nvbo 427 drivers/gpu/drm/nouveau/nouveau_gem.c ret = ttm_bo_reserve_slowpath(&nvbo->bo, true, nvbo 430 drivers/gpu/drm/nouveau/nouveau_gem.c res_bo = nvbo; nvbo 441 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_vma *vma = nouveau_vma_find(nvbo, vmm); nvbo 450 drivers/gpu/drm/nouveau/nouveau_gem.c b->user_priv = (uint64_t)(unsigned long)nvbo; nvbo 453 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo->reserved_by = file_priv; nvbo 454 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo->pbbo_index = i; nvbo 457 drivers/gpu/drm/nouveau/nouveau_gem.c list_add_tail(&nvbo->entry, &both_list); nvbo 460 drivers/gpu/drm/nouveau/nouveau_gem.c list_add_tail(&nvbo->entry, &vram_list); nvbo 463 drivers/gpu/drm/nouveau/nouveau_gem.c list_add_tail(&nvbo->entry, &gart_list); nvbo 467 drivers/gpu/drm/nouveau/nouveau_gem.c list_add_tail(&nvbo->entry, &both_list); nvbo 471 drivers/gpu/drm/nouveau/nouveau_gem.c if (nvbo == res_bo) nvbo 493 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo; nvbo 496 drivers/gpu/drm/nouveau/nouveau_gem.c list_for_each_entry(nvbo, list, entry) { nvbo 497 drivers/gpu/drm/nouveau/nouveau_gem.c struct drm_nouveau_gem_pushbuf_bo *b = &pbbo[nvbo->pbbo_index]; nvbo 499 drivers/gpu/drm/nouveau/nouveau_gem.c ret = nouveau_gem_set_domain(&nvbo->bo.base, b->read_domains, nvbo 507 drivers/gpu/drm/nouveau/nouveau_gem.c ret = nouveau_bo_validate(nvbo, true, false); nvbo 514 drivers/gpu/drm/nouveau/nouveau_gem.c ret = nouveau_fence_sync(nvbo, chan, !!b->write_domains, true); nvbo 522 drivers/gpu/drm/nouveau/nouveau_gem.c if (nvbo->bo.offset == b->presumed.offset && nvbo 523 drivers/gpu/drm/nouveau/nouveau_gem.c ((nvbo->bo.mem.mem_type == TTM_PL_VRAM && nvbo 525 drivers/gpu/drm/nouveau/nouveau_gem.c (nvbo->bo.mem.mem_type == TTM_PL_TT && nvbo 529 drivers/gpu/drm/nouveau/nouveau_gem.c if (nvbo->bo.mem.mem_type == TTM_PL_TT) nvbo 533 drivers/gpu/drm/nouveau/nouveau_gem.c b->presumed.offset = nvbo->bo.offset; nvbo 537 drivers/gpu/drm/nouveau/nouveau_gem.c if (copy_to_user(&upbbo[nvbo->pbbo_index].presumed, nvbo 621 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo; nvbo 639 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo = (void *)(unsigned long)bo[r->reloc_bo_index].user_priv; nvbo 642 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo->bo.mem.num_pages << PAGE_SHIFT)) { nvbo 648 drivers/gpu/drm/nouveau/nouveau_gem.c if (!nvbo->kmap.virtual) { nvbo 649 drivers/gpu/drm/nouveau/nouveau_gem.c ret = ttm_bo_kmap(&nvbo->bo, 0, nvbo->bo.mem.num_pages, nvbo 650 drivers/gpu/drm/nouveau/nouveau_gem.c &nvbo->kmap); nvbo 655 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo->validate_mapped = true; nvbo 673 drivers/gpu/drm/nouveau/nouveau_gem.c ret = ttm_bo_wait(&nvbo->bo, false, false); nvbo 679 drivers/gpu/drm/nouveau/nouveau_gem.c nouveau_bo_wr32(nvbo, r->reloc_bo_offset >> 2, data); nvbo 798 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo = (void *)(unsigned long) nvbo 801 drivers/gpu/drm/nouveau/nouveau_gem.c OUT_RING(chan, (nvbo->bo.offset + push[i].offset) | 2); nvbo 812 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo = (void *)(unsigned long) nvbo 819 drivers/gpu/drm/nouveau/nouveau_gem.c if (!nvbo->kmap.virtual) { nvbo 820 drivers/gpu/drm/nouveau/nouveau_gem.c ret = ttm_bo_kmap(&nvbo->bo, 0, nvbo 821 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo->bo.mem. nvbo 823 drivers/gpu/drm/nouveau/nouveau_gem.c &nvbo->kmap); nvbo 828 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo->validate_mapped = true; nvbo 831 drivers/gpu/drm/nouveau/nouveau_gem.c nouveau_bo_wr32(nvbo, (push[i].offset + nvbo 836 drivers/gpu/drm/nouveau/nouveau_gem.c (nvbo->bo.offset + push[i].offset)); nvbo 881 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo; nvbo 890 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo = nouveau_gem_object(gem); nvbo 892 drivers/gpu/drm/nouveau/nouveau_gem.c lret = dma_resv_wait_timeout_rcu(nvbo->bo.base.resv, write, true, nvbo 901 drivers/gpu/drm/nouveau/nouveau_gem.c nouveau_bo_sync_for_cpu(nvbo); nvbo 913 drivers/gpu/drm/nouveau/nouveau_gem.c struct nouveau_bo *nvbo; nvbo 918 drivers/gpu/drm/nouveau/nouveau_gem.c nvbo = nouveau_gem_object(gem); nvbo 920 drivers/gpu/drm/nouveau/nouveau_gem.c nouveau_bo_sync_for_device(nvbo); nvbo 32 drivers/gpu/drm/nouveau/nouveau_prime.c struct nouveau_bo *nvbo = nouveau_gem_object(obj); nvbo 33 drivers/gpu/drm/nouveau/nouveau_prime.c int npages = nvbo->bo.num_pages; nvbo 35 drivers/gpu/drm/nouveau/nouveau_prime.c return drm_prime_pages_to_sg(nvbo->bo.ttm->pages, npages); nvbo 40 drivers/gpu/drm/nouveau/nouveau_prime.c struct nouveau_bo *nvbo = nouveau_gem_object(obj); nvbo 43 drivers/gpu/drm/nouveau/nouveau_prime.c ret = ttm_bo_kmap(&nvbo->bo, 0, nvbo->bo.num_pages, nvbo 44 drivers/gpu/drm/nouveau/nouveau_prime.c &nvbo->dma_buf_vmap); nvbo 48 drivers/gpu/drm/nouveau/nouveau_prime.c return nvbo->dma_buf_vmap.virtual; nvbo 53 drivers/gpu/drm/nouveau/nouveau_prime.c struct nouveau_bo *nvbo = nouveau_gem_object(obj); nvbo 55 drivers/gpu/drm/nouveau/nouveau_prime.c ttm_bo_kunmap(&nvbo->dma_buf_vmap); nvbo 64 drivers/gpu/drm/nouveau/nouveau_prime.c struct nouveau_bo *nvbo; nvbo 74 drivers/gpu/drm/nouveau/nouveau_prime.c nvbo = nouveau_bo_alloc(&drm->client, &size, &align, flags, 0, 0); nvbo 75 drivers/gpu/drm/nouveau/nouveau_prime.c if (IS_ERR(nvbo)) { nvbo 76 drivers/gpu/drm/nouveau/nouveau_prime.c obj = ERR_CAST(nvbo); nvbo 80 drivers/gpu/drm/nouveau/nouveau_prime.c nvbo->valid_domains = NOUVEAU_GEM_DOMAIN_GART; nvbo 84 drivers/gpu/drm/nouveau/nouveau_prime.c ret = drm_gem_object_init(dev, &nvbo->bo.base, size); nvbo 86 drivers/gpu/drm/nouveau/nouveau_prime.c nouveau_bo_ref(NULL, &nvbo); nvbo 91 drivers/gpu/drm/nouveau/nouveau_prime.c ret = nouveau_bo_init(nvbo, size, align, flags, sg, robj); nvbo 93 drivers/gpu/drm/nouveau/nouveau_prime.c nouveau_bo_ref(NULL, &nvbo); nvbo 98 drivers/gpu/drm/nouveau/nouveau_prime.c obj = &nvbo->bo.base; nvbo 107 drivers/gpu/drm/nouveau/nouveau_prime.c struct nouveau_bo *nvbo = nouveau_gem_object(obj); nvbo 111 drivers/gpu/drm/nouveau/nouveau_prime.c ret = nouveau_bo_pin(nvbo, TTM_PL_FLAG_TT, false); nvbo 120 drivers/gpu/drm/nouveau/nouveau_prime.c struct nouveau_bo *nvbo = nouveau_gem_object(obj); nvbo 122 drivers/gpu/drm/nouveau/nouveau_prime.c nouveau_bo_unpin(nvbo); nvbo 64 drivers/gpu/drm/nouveau/nouveau_ttm.c struct nouveau_bo *nvbo = nouveau_bo(bo); nvbo 71 drivers/gpu/drm/nouveau/nouveau_ttm.c ret = nouveau_mem_new(&drm->master, nvbo->kind, nvbo->comp, reg); nvbo 75 drivers/gpu/drm/nouveau/nouveau_ttm.c ret = nouveau_mem_vram(reg, nvbo->contig, nvbo->page); nvbo 102 drivers/gpu/drm/nouveau/nouveau_ttm.c struct nouveau_bo *nvbo = nouveau_bo(bo); nvbo 106 drivers/gpu/drm/nouveau/nouveau_ttm.c ret = nouveau_mem_new(&drm->master, nvbo->kind, nvbo->comp, reg); nvbo 128 drivers/gpu/drm/nouveau/nouveau_ttm.c struct nouveau_bo *nvbo = nouveau_bo(bo); nvbo 133 drivers/gpu/drm/nouveau/nouveau_ttm.c ret = nouveau_mem_new(&drm->master, nvbo->kind, nvbo->comp, reg); nvbo 49 drivers/gpu/drm/nouveau/nouveau_vmm.c nouveau_vma_find(struct nouveau_bo *nvbo, struct nouveau_vmm *vmm) nvbo 53 drivers/gpu/drm/nouveau/nouveau_vmm.c list_for_each_entry(vma, &nvbo->vma_list, head) { nvbo 77 drivers/gpu/drm/nouveau/nouveau_vmm.c nouveau_vma_new(struct nouveau_bo *nvbo, struct nouveau_vmm *vmm, nvbo 80 drivers/gpu/drm/nouveau/nouveau_vmm.c struct nouveau_mem *mem = nouveau_mem(&nvbo->bo.mem); nvbo 85 drivers/gpu/drm/nouveau/nouveau_vmm.c if ((vma = *pvma = nouveau_vma_find(nvbo, vmm))) { nvbo 97 drivers/gpu/drm/nouveau/nouveau_vmm.c list_add_tail(&vma->head, &nvbo->vma_list); nvbo 99 drivers/gpu/drm/nouveau/nouveau_vmm.c if (nvbo->bo.mem.mem_type != TTM_PL_SYSTEM && nvbo 100 drivers/gpu/drm/nouveau/nouveau_vmm.c mem->mem.page == nvbo->page) {