nvbo              612 drivers/gpu/drm/nouveau/dispnv04/crtc.c 	ret = nouveau_bo_pin(nvfb->nvbo, TTM_PL_FLAG_VRAM, false);
nvbo              616 drivers/gpu/drm/nouveau/dispnv04/crtc.c 		nouveau_bo_ref(nvfb->nvbo, &disp->image[nv_crtc->index]);
nvbo              755 drivers/gpu/drm/nouveau/dispnv04/crtc.c 	nouveau_bo_unmap(nv_crtc->cursor.nvbo);
nvbo              756 drivers/gpu/drm/nouveau/dispnv04/crtc.c 	nouveau_bo_unpin(nv_crtc->cursor.nvbo);
nvbo              757 drivers/gpu/drm/nouveau/dispnv04/crtc.c 	nouveau_bo_ref(NULL, &nv_crtc->cursor.nvbo);
nvbo              848 drivers/gpu/drm/nouveau/dispnv04/crtc.c 	nv_crtc->fb.offset = fb->nvbo->bo.offset;
nvbo             1011 drivers/gpu/drm/nouveau/dispnv04/crtc.c 		nv11_cursor_upload(dev, cursor, nv_crtc->cursor.nvbo);
nvbo             1013 drivers/gpu/drm/nouveau/dispnv04/crtc.c 		nv04_cursor_upload(dev, cursor, nv_crtc->cursor.nvbo);
nvbo             1016 drivers/gpu/drm/nouveau/dispnv04/crtc.c 	nv_crtc->cursor.offset = nv_crtc->cursor.nvbo->bo.offset;
nvbo             1146 drivers/gpu/drm/nouveau/dispnv04/crtc.c 	struct nouveau_bo *old_bo = nouveau_framebuffer(crtc->primary->fb)->nvbo;
nvbo             1147 drivers/gpu/drm/nouveau/dispnv04/crtc.c 	struct nouveau_bo *new_bo = nouveau_framebuffer(fb)->nvbo;
nvbo             1321 drivers/gpu/drm/nouveau/dispnv04/crtc.c 			     &nv_crtc->cursor.nvbo);
nvbo             1323 drivers/gpu/drm/nouveau/dispnv04/crtc.c 		ret = nouveau_bo_pin(nv_crtc->cursor.nvbo, TTM_PL_FLAG_VRAM, false);
nvbo             1325 drivers/gpu/drm/nouveau/dispnv04/crtc.c 			ret = nouveau_bo_map(nv_crtc->cursor.nvbo);
nvbo             1327 drivers/gpu/drm/nouveau/dispnv04/crtc.c 				nouveau_bo_unpin(nv_crtc->cursor.nvbo);
nvbo             1330 drivers/gpu/drm/nouveau/dispnv04/crtc.c 			nouveau_bo_ref(NULL, &nv_crtc->cursor.nvbo);
nvbo               58 drivers/gpu/drm/nouveau/dispnv04/disp.c 		if (!nouveau_fb || !nouveau_fb->nvbo)
nvbo               61 drivers/gpu/drm/nouveau/dispnv04/disp.c 		nouveau_bo_unpin(nouveau_fb->nvbo);
nvbo               66 drivers/gpu/drm/nouveau/dispnv04/disp.c 		if (nv_crtc->cursor.nvbo) {
nvbo               68 drivers/gpu/drm/nouveau/dispnv04/disp.c 				nouveau_bo_unmap(nv_crtc->cursor.nvbo);
nvbo               69 drivers/gpu/drm/nouveau/dispnv04/disp.c 			nouveau_bo_unpin(nv_crtc->cursor.nvbo);
nvbo              110 drivers/gpu/drm/nouveau/dispnv04/disp.c 		if (!nouveau_fb || !nouveau_fb->nvbo)
nvbo              113 drivers/gpu/drm/nouveau/dispnv04/disp.c 		ret = nouveau_bo_pin(nouveau_fb->nvbo, TTM_PL_FLAG_VRAM, true);
nvbo              120 drivers/gpu/drm/nouveau/dispnv04/disp.c 		if (!nv_crtc->cursor.nvbo)
nvbo              123 drivers/gpu/drm/nouveau/dispnv04/disp.c 		ret = nouveau_bo_pin(nv_crtc->cursor.nvbo, TTM_PL_FLAG_VRAM, true);
nvbo              125 drivers/gpu/drm/nouveau/dispnv04/disp.c 			ret = nouveau_bo_map(nv_crtc->cursor.nvbo);
nvbo              150 drivers/gpu/drm/nouveau/dispnv04/disp.c 		if (!nv_crtc->cursor.nvbo)
nvbo              154 drivers/gpu/drm/nouveau/dispnv04/disp.c 			nv_crtc->cursor.set_offset(nv_crtc, nv_crtc->cursor.nvbo->bo.offset);
nvbo              143 drivers/gpu/drm/nouveau/dispnv04/overlay.c 	ret = nouveau_bo_pin(nv_fb->nvbo, TTM_PL_FLAG_VRAM, false);
nvbo              147 drivers/gpu/drm/nouveau/dispnv04/overlay.c 	nv_plane->cur = nv_fb->nvbo;
nvbo              153 drivers/gpu/drm/nouveau/dispnv04/overlay.c 	nvif_wr32(dev, NV_PVIDEO_OFFSET_BUFF(flip), nv_fb->nvbo->bo.offset);
nvbo              175 drivers/gpu/drm/nouveau/dispnv04/overlay.c 			nv_fb->nvbo->bo.offset + fb->offsets[1]);
nvbo              387 drivers/gpu/drm/nouveau/dispnv04/overlay.c 	ret = nouveau_bo_pin(nv_fb->nvbo, TTM_PL_FLAG_VRAM, false);
nvbo              391 drivers/gpu/drm/nouveau/dispnv04/overlay.c 	nv_plane->cur = nv_fb->nvbo;
nvbo              399 drivers/gpu/drm/nouveau/dispnv04/overlay.c 			  nv_fb->nvbo->bo.offset);
nvbo               46 drivers/gpu/drm/nouveau/dispnv50/wndw.c 	const u8    kind = fb->nvbo->kind;
nvbo              246 drivers/gpu/drm/nouveau/dispnv50/wndw.c 		asyw->image.kind = fb->nvbo->kind;
nvbo              258 drivers/gpu/drm/nouveau/dispnv50/wndw.c 				asyw->image.blockh = fb->nvbo->mode >> 4;
nvbo              260 drivers/gpu/drm/nouveau/dispnv50/wndw.c 				asyw->image.blockh = fb->nvbo->mode;
nvbo              474 drivers/gpu/drm/nouveau/dispnv50/wndw.c 	nouveau_bo_unpin(fb->nvbo);
nvbo              492 drivers/gpu/drm/nouveau/dispnv50/wndw.c 	ret = nouveau_bo_pin(fb->nvbo, TTM_PL_FLAG_VRAM, true);
nvbo              499 drivers/gpu/drm/nouveau/dispnv50/wndw.c 			nouveau_bo_unpin(fb->nvbo);
nvbo              506 drivers/gpu/drm/nouveau/dispnv50/wndw.c 	asyw->state.fence = dma_resv_get_excl_rcu(fb->nvbo->bo.base.resv);
nvbo              507 drivers/gpu/drm/nouveau/dispnv50/wndw.c 	asyw->image.offset[0] = fb->nvbo->bo.offset;
nvbo              137 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_bo *nvbo = nouveau_bo(bo);
nvbo              139 drivers/gpu/drm/nouveau/nouveau_bo.c 	WARN_ON(nvbo->pin_refcnt > 0);
nvbo              140 drivers/gpu/drm/nouveau/nouveau_bo.c 	nv10_bo_put_tile_region(dev, nvbo->tile, NULL);
nvbo              149 drivers/gpu/drm/nouveau/nouveau_bo.c 	kfree(nvbo);
nvbo              161 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_fixup_align(struct nouveau_bo *nvbo, u32 flags,
nvbo              164 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev);
nvbo              168 drivers/gpu/drm/nouveau/nouveau_bo.c 		if (nvbo->mode) {
nvbo              171 drivers/gpu/drm/nouveau/nouveau_bo.c 				*size = roundup_64(*size, 64 * nvbo->mode);
nvbo              175 drivers/gpu/drm/nouveau/nouveau_bo.c 				*size = roundup_64(*size, 64 * nvbo->mode);
nvbo              179 drivers/gpu/drm/nouveau/nouveau_bo.c 				*size = roundup_64(*size, 64 * nvbo->mode);
nvbo              183 drivers/gpu/drm/nouveau/nouveau_bo.c 				*size = roundup_64(*size, 32 * nvbo->mode);
nvbo              187 drivers/gpu/drm/nouveau/nouveau_bo.c 		*size = roundup_64(*size, (1 << nvbo->page));
nvbo              188 drivers/gpu/drm/nouveau/nouveau_bo.c 		*align = max((1 <<  nvbo->page), *align);
nvbo              199 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_bo *nvbo;
nvbo              209 drivers/gpu/drm/nouveau/nouveau_bo.c 	nvbo = kzalloc(sizeof(struct nouveau_bo), GFP_KERNEL);
nvbo              210 drivers/gpu/drm/nouveau/nouveau_bo.c 	if (!nvbo)
nvbo              212 drivers/gpu/drm/nouveau/nouveau_bo.c 	INIT_LIST_HEAD(&nvbo->head);
nvbo              213 drivers/gpu/drm/nouveau/nouveau_bo.c 	INIT_LIST_HEAD(&nvbo->entry);
nvbo              214 drivers/gpu/drm/nouveau/nouveau_bo.c 	INIT_LIST_HEAD(&nvbo->vma_list);
nvbo              215 drivers/gpu/drm/nouveau/nouveau_bo.c 	nvbo->bo.bdev = &drm->ttm.bdev;
nvbo              226 drivers/gpu/drm/nouveau/nouveau_bo.c 			nvbo->force_coherent = true;
nvbo              230 drivers/gpu/drm/nouveau/nouveau_bo.c 		nvbo->kind = (tile_flags & 0x0000ff00) >> 8;
nvbo              231 drivers/gpu/drm/nouveau/nouveau_bo.c 		if (!nvif_mmu_kind_valid(mmu, nvbo->kind)) {
nvbo              232 drivers/gpu/drm/nouveau/nouveau_bo.c 			kfree(nvbo);
nvbo              236 drivers/gpu/drm/nouveau/nouveau_bo.c 		nvbo->comp = mmu->kind[nvbo->kind] != nvbo->kind;
nvbo              239 drivers/gpu/drm/nouveau/nouveau_bo.c 		nvbo->kind = (tile_flags & 0x00007f00) >> 8;
nvbo              240 drivers/gpu/drm/nouveau/nouveau_bo.c 		nvbo->comp = (tile_flags & 0x00030000) >> 16;
nvbo              241 drivers/gpu/drm/nouveau/nouveau_bo.c 		if (!nvif_mmu_kind_valid(mmu, nvbo->kind)) {
nvbo              242 drivers/gpu/drm/nouveau/nouveau_bo.c 			kfree(nvbo);
nvbo              246 drivers/gpu/drm/nouveau/nouveau_bo.c 		nvbo->zeta = (tile_flags & 0x00000007);
nvbo              248 drivers/gpu/drm/nouveau/nouveau_bo.c 	nvbo->mode = tile_mode;
nvbo              249 drivers/gpu/drm/nouveau/nouveau_bo.c 	nvbo->contig = !(tile_flags & NOUVEAU_GEM_TILE_NONCONTIG);
nvbo              271 drivers/gpu/drm/nouveau/nouveau_bo.c 		if (pi < 0 || !nvbo->comp || vmm->page[i].comp)
nvbo              283 drivers/gpu/drm/nouveau/nouveau_bo.c 	if (nvbo->comp && !vmm->page[pi].comp) {
nvbo              285 drivers/gpu/drm/nouveau/nouveau_bo.c 			nvbo->kind = mmu->kind[nvbo->kind];
nvbo              286 drivers/gpu/drm/nouveau/nouveau_bo.c 		nvbo->comp = 0;
nvbo              288 drivers/gpu/drm/nouveau/nouveau_bo.c 	nvbo->page = vmm->page[pi].shift;
nvbo              290 drivers/gpu/drm/nouveau/nouveau_bo.c 	nouveau_bo_fixup_align(nvbo, flags, align, size);
nvbo              292 drivers/gpu/drm/nouveau/nouveau_bo.c 	return nvbo;
nvbo              296 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_init(struct nouveau_bo *nvbo, u64 size, int align, u32 flags,
nvbo              303 drivers/gpu/drm/nouveau/nouveau_bo.c 	acc_size = ttm_bo_dma_acc_size(nvbo->bo.bdev, size, sizeof(*nvbo));
nvbo              305 drivers/gpu/drm/nouveau/nouveau_bo.c 	nvbo->bo.mem.num_pages = size >> PAGE_SHIFT;
nvbo              306 drivers/gpu/drm/nouveau/nouveau_bo.c 	nouveau_bo_placement_set(nvbo, flags, 0);
nvbo              308 drivers/gpu/drm/nouveau/nouveau_bo.c 	ret = ttm_bo_init(nvbo->bo.bdev, &nvbo->bo, size, type,
nvbo              309 drivers/gpu/drm/nouveau/nouveau_bo.c 			  &nvbo->placement, align >> PAGE_SHIFT, false,
nvbo              325 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_bo *nvbo;
nvbo              328 drivers/gpu/drm/nouveau/nouveau_bo.c 	nvbo = nouveau_bo_alloc(cli, &size, &align, flags, tile_mode,
nvbo              330 drivers/gpu/drm/nouveau/nouveau_bo.c 	if (IS_ERR(nvbo))
nvbo              331 drivers/gpu/drm/nouveau/nouveau_bo.c 		return PTR_ERR(nvbo);
nvbo              333 drivers/gpu/drm/nouveau/nouveau_bo.c 	ret = nouveau_bo_init(nvbo, size, align, flags, sg, robj);
nvbo              337 drivers/gpu/drm/nouveau/nouveau_bo.c 	*pnvbo = nvbo;
nvbo              355 drivers/gpu/drm/nouveau/nouveau_bo.c set_placement_range(struct nouveau_bo *nvbo, uint32_t type)
nvbo              357 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev);
nvbo              362 drivers/gpu/drm/nouveau/nouveau_bo.c 	    nvbo->mode && (type & TTM_PL_FLAG_VRAM) &&
nvbo              363 drivers/gpu/drm/nouveau/nouveau_bo.c 	    nvbo->bo.mem.num_pages < vram_pages / 4) {
nvbo              370 drivers/gpu/drm/nouveau/nouveau_bo.c 		if (nvbo->zeta) {
nvbo              377 drivers/gpu/drm/nouveau/nouveau_bo.c 		for (i = 0; i < nvbo->placement.num_placement; ++i) {
nvbo              378 drivers/gpu/drm/nouveau/nouveau_bo.c 			nvbo->placements[i].fpfn = fpfn;
nvbo              379 drivers/gpu/drm/nouveau/nouveau_bo.c 			nvbo->placements[i].lpfn = lpfn;
nvbo              381 drivers/gpu/drm/nouveau/nouveau_bo.c 		for (i = 0; i < nvbo->placement.num_busy_placement; ++i) {
nvbo              382 drivers/gpu/drm/nouveau/nouveau_bo.c 			nvbo->busy_placements[i].fpfn = fpfn;
nvbo              383 drivers/gpu/drm/nouveau/nouveau_bo.c 			nvbo->busy_placements[i].lpfn = lpfn;
nvbo              389 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_placement_set(struct nouveau_bo *nvbo, uint32_t type, uint32_t busy)
nvbo              391 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct ttm_placement *pl = &nvbo->placement;
nvbo              392 drivers/gpu/drm/nouveau/nouveau_bo.c 	uint32_t flags = (nvbo->force_coherent ? TTM_PL_FLAG_UNCACHED :
nvbo              394 drivers/gpu/drm/nouveau/nouveau_bo.c 			 (nvbo->pin_refcnt ? TTM_PL_FLAG_NO_EVICT : 0);
nvbo              396 drivers/gpu/drm/nouveau/nouveau_bo.c 	pl->placement = nvbo->placements;
nvbo              397 drivers/gpu/drm/nouveau/nouveau_bo.c 	set_placement_list(nvbo->placements, &pl->num_placement,
nvbo              400 drivers/gpu/drm/nouveau/nouveau_bo.c 	pl->busy_placement = nvbo->busy_placements;
nvbo              401 drivers/gpu/drm/nouveau/nouveau_bo.c 	set_placement_list(nvbo->busy_placements, &pl->num_busy_placement,
nvbo              404 drivers/gpu/drm/nouveau/nouveau_bo.c 	set_placement_range(nvbo, type);
nvbo              408 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_pin(struct nouveau_bo *nvbo, uint32_t memtype, bool contig)
nvbo              410 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev);
nvbo              411 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct ttm_buffer_object *bo = &nvbo->bo;
nvbo              421 drivers/gpu/drm/nouveau/nouveau_bo.c 		if (!nvbo->contig) {
nvbo              422 drivers/gpu/drm/nouveau/nouveau_bo.c 			nvbo->contig = true;
nvbo              428 drivers/gpu/drm/nouveau/nouveau_bo.c 	if (nvbo->pin_refcnt) {
nvbo              435 drivers/gpu/drm/nouveau/nouveau_bo.c 		nvbo->pin_refcnt++;
nvbo              440 drivers/gpu/drm/nouveau/nouveau_bo.c 		nouveau_bo_placement_set(nvbo, TTM_PL_FLAG_TT, 0);
nvbo              441 drivers/gpu/drm/nouveau/nouveau_bo.c 		ret = nouveau_bo_validate(nvbo, false, false);
nvbo              446 drivers/gpu/drm/nouveau/nouveau_bo.c 	nvbo->pin_refcnt++;
nvbo              447 drivers/gpu/drm/nouveau/nouveau_bo.c 	nouveau_bo_placement_set(nvbo, memtype, 0);
nvbo              453 drivers/gpu/drm/nouveau/nouveau_bo.c 	nvbo->pin_refcnt--;
nvbo              454 drivers/gpu/drm/nouveau/nouveau_bo.c 	ret = nouveau_bo_validate(nvbo, false, false);
nvbo              457 drivers/gpu/drm/nouveau/nouveau_bo.c 	nvbo->pin_refcnt++;
nvbo              472 drivers/gpu/drm/nouveau/nouveau_bo.c 		nvbo->contig = false;
nvbo              478 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_unpin(struct nouveau_bo *nvbo)
nvbo              480 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev);
nvbo              481 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct ttm_buffer_object *bo = &nvbo->bo;
nvbo              488 drivers/gpu/drm/nouveau/nouveau_bo.c 	ref = --nvbo->pin_refcnt;
nvbo              493 drivers/gpu/drm/nouveau/nouveau_bo.c 	nouveau_bo_placement_set(nvbo, bo->mem.placement, 0);
nvbo              495 drivers/gpu/drm/nouveau/nouveau_bo.c 	ret = nouveau_bo_validate(nvbo, false, false);
nvbo              515 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_map(struct nouveau_bo *nvbo)
nvbo              519 drivers/gpu/drm/nouveau/nouveau_bo.c 	ret = ttm_bo_reserve(&nvbo->bo, false, false, NULL);
nvbo              523 drivers/gpu/drm/nouveau/nouveau_bo.c 	ret = ttm_bo_kmap(&nvbo->bo, 0, nvbo->bo.mem.num_pages, &nvbo->kmap);
nvbo              525 drivers/gpu/drm/nouveau/nouveau_bo.c 	ttm_bo_unreserve(&nvbo->bo);
nvbo              530 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_unmap(struct nouveau_bo *nvbo)
nvbo              532 drivers/gpu/drm/nouveau/nouveau_bo.c 	if (!nvbo)
nvbo              535 drivers/gpu/drm/nouveau/nouveau_bo.c 	ttm_bo_kunmap(&nvbo->kmap);
nvbo              539 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_sync_for_device(struct nouveau_bo *nvbo)
nvbo              541 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev);
nvbo              542 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct ttm_dma_tt *ttm_dma = (struct ttm_dma_tt *)nvbo->bo.ttm;
nvbo              549 drivers/gpu/drm/nouveau/nouveau_bo.c 	if (nvbo->force_coherent)
nvbo              559 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_sync_for_cpu(struct nouveau_bo *nvbo)
nvbo              561 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev);
nvbo              562 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct ttm_dma_tt *ttm_dma = (struct ttm_dma_tt *)nvbo->bo.ttm;
nvbo              569 drivers/gpu/drm/nouveau/nouveau_bo.c 	if (nvbo->force_coherent)
nvbo              578 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_validate(struct nouveau_bo *nvbo, bool interruptible,
nvbo              584 drivers/gpu/drm/nouveau/nouveau_bo.c 	ret = ttm_bo_validate(&nvbo->bo, &nvbo->placement, &ctx);
nvbo              588 drivers/gpu/drm/nouveau/nouveau_bo.c 	nouveau_bo_sync_for_device(nvbo);
nvbo              594 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_wr16(struct nouveau_bo *nvbo, unsigned index, u16 val)
nvbo              597 drivers/gpu/drm/nouveau/nouveau_bo.c 	u16 *mem = ttm_kmap_obj_virtual(&nvbo->kmap, &is_iomem);
nvbo              608 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_rd32(struct nouveau_bo *nvbo, unsigned index)
nvbo              611 drivers/gpu/drm/nouveau/nouveau_bo.c 	u32 *mem = ttm_kmap_obj_virtual(&nvbo->kmap, &is_iomem);
nvbo              622 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_wr32(struct nouveau_bo *nvbo, unsigned index, u32 val)
nvbo              625 drivers/gpu/drm/nouveau/nouveau_bo.c 	u32 *mem = ttm_kmap_obj_virtual(&nvbo->kmap, &is_iomem);
nvbo              722 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_bo *nvbo = nouveau_bo(bo);
nvbo              726 drivers/gpu/drm/nouveau/nouveau_bo.c 		nouveau_bo_placement_set(nvbo, TTM_PL_FLAG_TT,
nvbo              730 drivers/gpu/drm/nouveau/nouveau_bo.c 		nouveau_bo_placement_set(nvbo, TTM_PL_FLAG_SYSTEM, 0);
nvbo              734 drivers/gpu/drm/nouveau/nouveau_bo.c 	*pl = nvbo->placement;
nvbo             1308 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_bo *nvbo = nouveau_bo(bo);
nvbo             1316 drivers/gpu/drm/nouveau/nouveau_bo.c 	    mem->mem.page == nvbo->page) {
nvbo             1317 drivers/gpu/drm/nouveau/nouveau_bo.c 		list_for_each_entry(vma, &nvbo->vma_list, head) {
nvbo             1321 drivers/gpu/drm/nouveau/nouveau_bo.c 		list_for_each_entry(vma, &nvbo->vma_list, head) {
nvbo             1334 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_bo *nvbo = nouveau_bo(bo);
nvbo             1343 drivers/gpu/drm/nouveau/nouveau_bo.c 					       nvbo->mode, nvbo->zeta);
nvbo             1368 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_bo *nvbo = nouveau_bo(bo);
nvbo             1377 drivers/gpu/drm/nouveau/nouveau_bo.c 	if (nvbo->pin_refcnt)
nvbo             1378 drivers/gpu/drm/nouveau/nouveau_bo.c 		NV_WARN(drm, "Moving pinned object %p!\n", nvbo);
nvbo             1422 drivers/gpu/drm/nouveau/nouveau_bo.c 			nouveau_bo_vm_cleanup(bo, new_tile, &nvbo->tile);
nvbo             1431 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_bo *nvbo = nouveau_bo(bo);
nvbo             1433 drivers/gpu/drm/nouveau/nouveau_bo.c 	return drm_vma_node_verify_access(&nvbo->bo.base.vma_node,
nvbo             1541 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct nouveau_bo *nvbo = nouveau_bo(bo);
nvbo             1551 drivers/gpu/drm/nouveau/nouveau_bo.c 		    !nvbo->kind)
nvbo             1555 drivers/gpu/drm/nouveau/nouveau_bo.c 			nouveau_bo_placement_set(nvbo, TTM_PL_TT, 0);
nvbo             1557 drivers/gpu/drm/nouveau/nouveau_bo.c 			ret = nouveau_bo_validate(nvbo, false, false);
nvbo             1569 drivers/gpu/drm/nouveau/nouveau_bo.c 	for (i = 0; i < nvbo->placement.num_placement; ++i) {
nvbo             1570 drivers/gpu/drm/nouveau/nouveau_bo.c 		nvbo->placements[i].fpfn = 0;
nvbo             1571 drivers/gpu/drm/nouveau/nouveau_bo.c 		nvbo->placements[i].lpfn = mappable;
nvbo             1574 drivers/gpu/drm/nouveau/nouveau_bo.c 	for (i = 0; i < nvbo->placement.num_busy_placement; ++i) {
nvbo             1575 drivers/gpu/drm/nouveau/nouveau_bo.c 		nvbo->busy_placements[i].fpfn = 0;
nvbo             1576 drivers/gpu/drm/nouveau/nouveau_bo.c 		nvbo->busy_placements[i].lpfn = mappable;
nvbo             1579 drivers/gpu/drm/nouveau/nouveau_bo.c 	nouveau_bo_placement_set(nvbo, TTM_PL_FLAG_VRAM, 0);
nvbo             1580 drivers/gpu/drm/nouveau/nouveau_bo.c 	return nouveau_bo_validate(nvbo, false, false);
nvbo             1685 drivers/gpu/drm/nouveau/nouveau_bo.c nouveau_bo_fence(struct nouveau_bo *nvbo, struct nouveau_fence *fence, bool exclusive)
nvbo             1687 drivers/gpu/drm/nouveau/nouveau_bo.c 	struct dma_resv *resv = nvbo->bo.base.resv;
nvbo               93 drivers/gpu/drm/nouveau/nouveau_bo.h void nouveau_bo_sync_for_device(struct nouveau_bo *nvbo);
nvbo               94 drivers/gpu/drm/nouveau/nouveau_bo.h void nouveau_bo_sync_for_cpu(struct nouveau_bo *nvbo);
nvbo               98 drivers/gpu/drm/nouveau/nouveau_bo.h nvbo_kmap_obj_iovirtual(struct nouveau_bo *nvbo)
nvbo              102 drivers/gpu/drm/nouveau/nouveau_bo.h 						&nvbo->kmap, &is_iomem);
nvbo               56 drivers/gpu/drm/nouveau/nouveau_crtc.h 		struct nouveau_bo *nvbo;
nvbo              205 drivers/gpu/drm/nouveau/nouveau_display.c 	if (fb->nvbo)
nvbo              206 drivers/gpu/drm/nouveau/nouveau_display.c 		drm_gem_object_put_unlocked(&fb->nvbo->bo.base);
nvbo              219 drivers/gpu/drm/nouveau/nouveau_display.c 	return drm_gem_handle_create(file_priv, &fb->nvbo->bo.base, handle);
nvbo              230 drivers/gpu/drm/nouveau/nouveau_display.c 			struct nouveau_bo *nvbo,
nvbo              261 drivers/gpu/drm/nouveau/nouveau_display.c 	fb->nvbo = nvbo;
nvbo              275 drivers/gpu/drm/nouveau/nouveau_display.c 	struct nouveau_bo *nvbo;
nvbo              282 drivers/gpu/drm/nouveau/nouveau_display.c 	nvbo = nouveau_gem_object(gem);
nvbo              284 drivers/gpu/drm/nouveau/nouveau_display.c 	ret = nouveau_framebuffer_new(dev, mode_cmd, nvbo, &fb);
nvbo               13 drivers/gpu/drm/nouveau/nouveau_display.h 	struct nouveau_bo *nvbo;
nvbo              317 drivers/gpu/drm/nouveau/nouveau_fbcon.c 	struct nouveau_bo *nvbo;
nvbo              332 drivers/gpu/drm/nouveau/nouveau_fbcon.c 			      0, 0x0000, &nvbo);
nvbo              338 drivers/gpu/drm/nouveau/nouveau_fbcon.c 	ret = nouveau_framebuffer_new(dev, &mode_cmd, nvbo, &fb);
nvbo              342 drivers/gpu/drm/nouveau/nouveau_fbcon.c 	ret = nouveau_bo_pin(nvbo, TTM_PL_FLAG_VRAM, false);
nvbo              348 drivers/gpu/drm/nouveau/nouveau_fbcon.c 	ret = nouveau_bo_map(nvbo);
nvbo              356 drivers/gpu/drm/nouveau/nouveau_fbcon.c 		ret = nouveau_vma_new(nvbo, chan->vmm, &fb->vma);
nvbo              379 drivers/gpu/drm/nouveau/nouveau_fbcon.c 	info->fix.smem_start = fb->nvbo->bo.mem.bus.base +
nvbo              380 drivers/gpu/drm/nouveau/nouveau_fbcon.c 			       fb->nvbo->bo.mem.bus.offset;
nvbo              381 drivers/gpu/drm/nouveau/nouveau_fbcon.c 	info->fix.smem_len = fb->nvbo->bo.mem.num_pages << PAGE_SHIFT;
nvbo              383 drivers/gpu/drm/nouveau/nouveau_fbcon.c 	info->screen_base = nvbo_kmap_obj_iovirtual(fb->nvbo);
nvbo              384 drivers/gpu/drm/nouveau/nouveau_fbcon.c 	info->screen_size = fb->nvbo->bo.mem.num_pages << PAGE_SHIFT;
nvbo              396 drivers/gpu/drm/nouveau/nouveau_fbcon.c 		fb->base.width, fb->base.height, fb->nvbo->bo.offset, nvbo);
nvbo              404 drivers/gpu/drm/nouveau/nouveau_fbcon.c 	nouveau_bo_unmap(fb->nvbo);
nvbo              406 drivers/gpu/drm/nouveau/nouveau_fbcon.c 	nouveau_bo_unpin(fb->nvbo);
nvbo              408 drivers/gpu/drm/nouveau/nouveau_fbcon.c 	nouveau_bo_ref(NULL, &fb->nvbo);
nvbo              421 drivers/gpu/drm/nouveau/nouveau_fbcon.c 	if (nouveau_fb && nouveau_fb->nvbo) {
nvbo              423 drivers/gpu/drm/nouveau/nouveau_fbcon.c 		nouveau_bo_unmap(nouveau_fb->nvbo);
nvbo              424 drivers/gpu/drm/nouveau/nouveau_fbcon.c 		nouveau_bo_unpin(nouveau_fb->nvbo);
nvbo              333 drivers/gpu/drm/nouveau/nouveau_fence.c nouveau_fence_sync(struct nouveau_bo *nvbo, struct nouveau_channel *chan, bool exclusive, bool intr)
nvbo              337 drivers/gpu/drm/nouveau/nouveau_fence.c 	struct dma_resv *resv = nvbo->bo.base.resv;
nvbo               42 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_bo *nvbo = nouveau_gem_object(gem);
nvbo               43 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev);
nvbo               52 drivers/gpu/drm/nouveau/nouveau_gem.c 		drm_prime_gem_destroy(gem, nvbo->bo.sg);
nvbo               54 drivers/gpu/drm/nouveau/nouveau_gem.c 	ttm_bo_put(&nvbo->bo);
nvbo               64 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_bo *nvbo = nouveau_gem_object(gem);
nvbo               65 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev);
nvbo               74 drivers/gpu/drm/nouveau/nouveau_gem.c 	ret = ttm_bo_reserve(&nvbo->bo, false, false, NULL);
nvbo               82 drivers/gpu/drm/nouveau/nouveau_gem.c 	ret = nouveau_vma_new(nvbo, vmm, &vma);
nvbo               86 drivers/gpu/drm/nouveau/nouveau_gem.c 	ttm_bo_unreserve(&nvbo->bo);
nvbo              112 drivers/gpu/drm/nouveau/nouveau_gem.c nouveau_gem_object_unmap(struct nouveau_bo *nvbo, struct nouveau_vma *vma)
nvbo              139 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_bo *nvbo = nouveau_gem_object(gem);
nvbo              140 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev);
nvbo              149 drivers/gpu/drm/nouveau/nouveau_gem.c 	ret = ttm_bo_reserve(&nvbo->bo, false, false, NULL);
nvbo              153 drivers/gpu/drm/nouveau/nouveau_gem.c 	vma = nouveau_vma_find(nvbo, vmm);
nvbo              158 drivers/gpu/drm/nouveau/nouveau_gem.c 				nouveau_gem_object_unmap(nvbo, vma);
nvbo              164 drivers/gpu/drm/nouveau/nouveau_gem.c 	ttm_bo_unreserve(&nvbo->bo);
nvbo              173 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_bo *nvbo;
nvbo              187 drivers/gpu/drm/nouveau/nouveau_gem.c 	nvbo = nouveau_bo_alloc(cli, &size, &align, flags, tile_mode,
nvbo              189 drivers/gpu/drm/nouveau/nouveau_gem.c 	if (IS_ERR(nvbo))
nvbo              190 drivers/gpu/drm/nouveau/nouveau_gem.c 		return PTR_ERR(nvbo);
nvbo              194 drivers/gpu/drm/nouveau/nouveau_gem.c 	ret = drm_gem_object_init(drm->dev, &nvbo->bo.base, size);
nvbo              196 drivers/gpu/drm/nouveau/nouveau_gem.c 		nouveau_bo_ref(NULL, &nvbo);
nvbo              200 drivers/gpu/drm/nouveau/nouveau_gem.c 	ret = nouveau_bo_init(nvbo, size, align, flags, NULL, NULL);
nvbo              202 drivers/gpu/drm/nouveau/nouveau_gem.c 		nouveau_bo_ref(NULL, &nvbo);
nvbo              210 drivers/gpu/drm/nouveau/nouveau_gem.c 	nvbo->valid_domains = NOUVEAU_GEM_DOMAIN_VRAM |
nvbo              213 drivers/gpu/drm/nouveau/nouveau_gem.c 		nvbo->valid_domains &= domain;
nvbo              215 drivers/gpu/drm/nouveau/nouveau_gem.c 	nvbo->bo.persistent_swap_storage = nvbo->bo.base.filp;
nvbo              216 drivers/gpu/drm/nouveau/nouveau_gem.c 	*pnvbo = nvbo;
nvbo              225 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_bo *nvbo = nouveau_gem_object(gem);
nvbo              229 drivers/gpu/drm/nouveau/nouveau_gem.c 	if (is_power_of_2(nvbo->valid_domains))
nvbo              230 drivers/gpu/drm/nouveau/nouveau_gem.c 		rep->domain = nvbo->valid_domains;
nvbo              231 drivers/gpu/drm/nouveau/nouveau_gem.c 	else if (nvbo->bo.mem.mem_type == TTM_PL_TT)
nvbo              235 drivers/gpu/drm/nouveau/nouveau_gem.c 	rep->offset = nvbo->bo.offset;
nvbo              237 drivers/gpu/drm/nouveau/nouveau_gem.c 		vma = nouveau_vma_find(nvbo, vmm);
nvbo              244 drivers/gpu/drm/nouveau/nouveau_gem.c 	rep->size = nvbo->bo.mem.num_pages << PAGE_SHIFT;
nvbo              245 drivers/gpu/drm/nouveau/nouveau_gem.c 	rep->map_handle = drm_vma_node_offset_addr(&nvbo->bo.base.vma_node);
nvbo              246 drivers/gpu/drm/nouveau/nouveau_gem.c 	rep->tile_mode = nvbo->mode;
nvbo              247 drivers/gpu/drm/nouveau/nouveau_gem.c 	rep->tile_flags = nvbo->contig ? 0 : NOUVEAU_GEM_TILE_NONCONTIG;
nvbo              249 drivers/gpu/drm/nouveau/nouveau_gem.c 		rep->tile_flags |= nvbo->kind << 8;
nvbo              252 drivers/gpu/drm/nouveau/nouveau_gem.c 		rep->tile_flags |= nvbo->kind << 8 | nvbo->comp << 16;
nvbo              254 drivers/gpu/drm/nouveau/nouveau_gem.c 		rep->tile_flags |= nvbo->zeta;
nvbo              264 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_bo *nvbo = NULL;
nvbo              269 drivers/gpu/drm/nouveau/nouveau_gem.c 			      req->info.tile_flags, &nvbo);
nvbo              273 drivers/gpu/drm/nouveau/nouveau_gem.c 	ret = drm_gem_handle_create(file_priv, &nvbo->bo.base,
nvbo              276 drivers/gpu/drm/nouveau/nouveau_gem.c 		ret = nouveau_gem_info(file_priv, &nvbo->bo.base, &req->info);
nvbo              282 drivers/gpu/drm/nouveau/nouveau_gem.c 	drm_gem_object_put_unlocked(&nvbo->bo.base);
nvbo              290 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_bo *nvbo = nouveau_gem_object(gem);
nvbo              291 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct ttm_buffer_object *bo = &nvbo->bo;
nvbo              292 drivers/gpu/drm/nouveau/nouveau_gem.c 	uint32_t domains = valid_domains & nvbo->valid_domains &
nvbo              319 drivers/gpu/drm/nouveau/nouveau_gem.c 	nouveau_bo_placement_set(nvbo, pref_flags, valid_flags);
nvbo              334 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_bo *nvbo;
nvbo              338 drivers/gpu/drm/nouveau/nouveau_gem.c 		nvbo = list_entry(op->list.next, struct nouveau_bo, entry);
nvbo              339 drivers/gpu/drm/nouveau/nouveau_gem.c 		b = &pbbo[nvbo->pbbo_index];
nvbo              342 drivers/gpu/drm/nouveau/nouveau_gem.c 			nouveau_bo_fence(nvbo, fence, !!b->write_domains);
nvbo              353 drivers/gpu/drm/nouveau/nouveau_gem.c 		if (unlikely(nvbo->validate_mapped)) {
nvbo              354 drivers/gpu/drm/nouveau/nouveau_gem.c 			ttm_bo_kunmap(&nvbo->kmap);
nvbo              355 drivers/gpu/drm/nouveau/nouveau_gem.c 			nvbo->validate_mapped = false;
nvbo              358 drivers/gpu/drm/nouveau/nouveau_gem.c 		list_del(&nvbo->entry);
nvbo              359 drivers/gpu/drm/nouveau/nouveau_gem.c 		nvbo->reserved_by = NULL;
nvbo              360 drivers/gpu/drm/nouveau/nouveau_gem.c 		ttm_bo_unreserve(&nvbo->bo);
nvbo              361 drivers/gpu/drm/nouveau/nouveau_gem.c 		drm_gem_object_put_unlocked(&nvbo->bo.base);
nvbo              397 drivers/gpu/drm/nouveau/nouveau_gem.c 		struct nouveau_bo *nvbo;
nvbo              405 drivers/gpu/drm/nouveau/nouveau_gem.c 		nvbo = nouveau_gem_object(gem);
nvbo              406 drivers/gpu/drm/nouveau/nouveau_gem.c 		if (nvbo == res_bo) {
nvbo              412 drivers/gpu/drm/nouveau/nouveau_gem.c 		if (nvbo->reserved_by && nvbo->reserved_by == file_priv) {
nvbo              420 drivers/gpu/drm/nouveau/nouveau_gem.c 		ret = ttm_bo_reserve(&nvbo->bo, true, false, &op->ticket);
nvbo              427 drivers/gpu/drm/nouveau/nouveau_gem.c 				ret = ttm_bo_reserve_slowpath(&nvbo->bo, true,
nvbo              430 drivers/gpu/drm/nouveau/nouveau_gem.c 					res_bo = nvbo;
nvbo              441 drivers/gpu/drm/nouveau/nouveau_gem.c 			struct nouveau_vma *vma = nouveau_vma_find(nvbo, vmm);
nvbo              450 drivers/gpu/drm/nouveau/nouveau_gem.c 			b->user_priv = (uint64_t)(unsigned long)nvbo;
nvbo              453 drivers/gpu/drm/nouveau/nouveau_gem.c 		nvbo->reserved_by = file_priv;
nvbo              454 drivers/gpu/drm/nouveau/nouveau_gem.c 		nvbo->pbbo_index = i;
nvbo              457 drivers/gpu/drm/nouveau/nouveau_gem.c 			list_add_tail(&nvbo->entry, &both_list);
nvbo              460 drivers/gpu/drm/nouveau/nouveau_gem.c 			list_add_tail(&nvbo->entry, &vram_list);
nvbo              463 drivers/gpu/drm/nouveau/nouveau_gem.c 			list_add_tail(&nvbo->entry, &gart_list);
nvbo              467 drivers/gpu/drm/nouveau/nouveau_gem.c 			list_add_tail(&nvbo->entry, &both_list);
nvbo              471 drivers/gpu/drm/nouveau/nouveau_gem.c 		if (nvbo == res_bo)
nvbo              493 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_bo *nvbo;
nvbo              496 drivers/gpu/drm/nouveau/nouveau_gem.c 	list_for_each_entry(nvbo, list, entry) {
nvbo              497 drivers/gpu/drm/nouveau/nouveau_gem.c 		struct drm_nouveau_gem_pushbuf_bo *b = &pbbo[nvbo->pbbo_index];
nvbo              499 drivers/gpu/drm/nouveau/nouveau_gem.c 		ret = nouveau_gem_set_domain(&nvbo->bo.base, b->read_domains,
nvbo              507 drivers/gpu/drm/nouveau/nouveau_gem.c 		ret = nouveau_bo_validate(nvbo, true, false);
nvbo              514 drivers/gpu/drm/nouveau/nouveau_gem.c 		ret = nouveau_fence_sync(nvbo, chan, !!b->write_domains, true);
nvbo              522 drivers/gpu/drm/nouveau/nouveau_gem.c 			if (nvbo->bo.offset == b->presumed.offset &&
nvbo              523 drivers/gpu/drm/nouveau/nouveau_gem.c 			    ((nvbo->bo.mem.mem_type == TTM_PL_VRAM &&
nvbo              525 drivers/gpu/drm/nouveau/nouveau_gem.c 			     (nvbo->bo.mem.mem_type == TTM_PL_TT &&
nvbo              529 drivers/gpu/drm/nouveau/nouveau_gem.c 			if (nvbo->bo.mem.mem_type == TTM_PL_TT)
nvbo              533 drivers/gpu/drm/nouveau/nouveau_gem.c 			b->presumed.offset = nvbo->bo.offset;
nvbo              537 drivers/gpu/drm/nouveau/nouveau_gem.c 			if (copy_to_user(&upbbo[nvbo->pbbo_index].presumed,
nvbo              621 drivers/gpu/drm/nouveau/nouveau_gem.c 		struct nouveau_bo *nvbo;
nvbo              639 drivers/gpu/drm/nouveau/nouveau_gem.c 		nvbo = (void *)(unsigned long)bo[r->reloc_bo_index].user_priv;
nvbo              642 drivers/gpu/drm/nouveau/nouveau_gem.c 			     nvbo->bo.mem.num_pages << PAGE_SHIFT)) {
nvbo              648 drivers/gpu/drm/nouveau/nouveau_gem.c 		if (!nvbo->kmap.virtual) {
nvbo              649 drivers/gpu/drm/nouveau/nouveau_gem.c 			ret = ttm_bo_kmap(&nvbo->bo, 0, nvbo->bo.mem.num_pages,
nvbo              650 drivers/gpu/drm/nouveau/nouveau_gem.c 					  &nvbo->kmap);
nvbo              655 drivers/gpu/drm/nouveau/nouveau_gem.c 			nvbo->validate_mapped = true;
nvbo              673 drivers/gpu/drm/nouveau/nouveau_gem.c 		ret = ttm_bo_wait(&nvbo->bo, false, false);
nvbo              679 drivers/gpu/drm/nouveau/nouveau_gem.c 		nouveau_bo_wr32(nvbo, r->reloc_bo_offset >> 2, data);
nvbo              798 drivers/gpu/drm/nouveau/nouveau_gem.c 			struct nouveau_bo *nvbo = (void *)(unsigned long)
nvbo              801 drivers/gpu/drm/nouveau/nouveau_gem.c 			OUT_RING(chan, (nvbo->bo.offset + push[i].offset) | 2);
nvbo              812 drivers/gpu/drm/nouveau/nouveau_gem.c 			struct nouveau_bo *nvbo = (void *)(unsigned long)
nvbo              819 drivers/gpu/drm/nouveau/nouveau_gem.c 				if (!nvbo->kmap.virtual) {
nvbo              820 drivers/gpu/drm/nouveau/nouveau_gem.c 					ret = ttm_bo_kmap(&nvbo->bo, 0,
nvbo              821 drivers/gpu/drm/nouveau/nouveau_gem.c 							  nvbo->bo.mem.
nvbo              823 drivers/gpu/drm/nouveau/nouveau_gem.c 							  &nvbo->kmap);
nvbo              828 drivers/gpu/drm/nouveau/nouveau_gem.c 					nvbo->validate_mapped = true;
nvbo              831 drivers/gpu/drm/nouveau/nouveau_gem.c 				nouveau_bo_wr32(nvbo, (push[i].offset +
nvbo              836 drivers/gpu/drm/nouveau/nouveau_gem.c 				      (nvbo->bo.offset + push[i].offset));
nvbo              881 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_bo *nvbo;
nvbo              890 drivers/gpu/drm/nouveau/nouveau_gem.c 	nvbo = nouveau_gem_object(gem);
nvbo              892 drivers/gpu/drm/nouveau/nouveau_gem.c 	lret = dma_resv_wait_timeout_rcu(nvbo->bo.base.resv, write, true,
nvbo              901 drivers/gpu/drm/nouveau/nouveau_gem.c 	nouveau_bo_sync_for_cpu(nvbo);
nvbo              913 drivers/gpu/drm/nouveau/nouveau_gem.c 	struct nouveau_bo *nvbo;
nvbo              918 drivers/gpu/drm/nouveau/nouveau_gem.c 	nvbo = nouveau_gem_object(gem);
nvbo              920 drivers/gpu/drm/nouveau/nouveau_gem.c 	nouveau_bo_sync_for_device(nvbo);
nvbo               32 drivers/gpu/drm/nouveau/nouveau_prime.c 	struct nouveau_bo *nvbo = nouveau_gem_object(obj);
nvbo               33 drivers/gpu/drm/nouveau/nouveau_prime.c 	int npages = nvbo->bo.num_pages;
nvbo               35 drivers/gpu/drm/nouveau/nouveau_prime.c 	return drm_prime_pages_to_sg(nvbo->bo.ttm->pages, npages);
nvbo               40 drivers/gpu/drm/nouveau/nouveau_prime.c 	struct nouveau_bo *nvbo = nouveau_gem_object(obj);
nvbo               43 drivers/gpu/drm/nouveau/nouveau_prime.c 	ret = ttm_bo_kmap(&nvbo->bo, 0, nvbo->bo.num_pages,
nvbo               44 drivers/gpu/drm/nouveau/nouveau_prime.c 			  &nvbo->dma_buf_vmap);
nvbo               48 drivers/gpu/drm/nouveau/nouveau_prime.c 	return nvbo->dma_buf_vmap.virtual;
nvbo               53 drivers/gpu/drm/nouveau/nouveau_prime.c 	struct nouveau_bo *nvbo = nouveau_gem_object(obj);
nvbo               55 drivers/gpu/drm/nouveau/nouveau_prime.c 	ttm_bo_kunmap(&nvbo->dma_buf_vmap);
nvbo               64 drivers/gpu/drm/nouveau/nouveau_prime.c 	struct nouveau_bo *nvbo;
nvbo               74 drivers/gpu/drm/nouveau/nouveau_prime.c 	nvbo = nouveau_bo_alloc(&drm->client, &size, &align, flags, 0, 0);
nvbo               75 drivers/gpu/drm/nouveau/nouveau_prime.c 	if (IS_ERR(nvbo)) {
nvbo               76 drivers/gpu/drm/nouveau/nouveau_prime.c 		obj = ERR_CAST(nvbo);
nvbo               80 drivers/gpu/drm/nouveau/nouveau_prime.c 	nvbo->valid_domains = NOUVEAU_GEM_DOMAIN_GART;
nvbo               84 drivers/gpu/drm/nouveau/nouveau_prime.c 	ret = drm_gem_object_init(dev, &nvbo->bo.base, size);
nvbo               86 drivers/gpu/drm/nouveau/nouveau_prime.c 		nouveau_bo_ref(NULL, &nvbo);
nvbo               91 drivers/gpu/drm/nouveau/nouveau_prime.c 	ret = nouveau_bo_init(nvbo, size, align, flags, sg, robj);
nvbo               93 drivers/gpu/drm/nouveau/nouveau_prime.c 		nouveau_bo_ref(NULL, &nvbo);
nvbo               98 drivers/gpu/drm/nouveau/nouveau_prime.c 	obj = &nvbo->bo.base;
nvbo              107 drivers/gpu/drm/nouveau/nouveau_prime.c 	struct nouveau_bo *nvbo = nouveau_gem_object(obj);
nvbo              111 drivers/gpu/drm/nouveau/nouveau_prime.c 	ret = nouveau_bo_pin(nvbo, TTM_PL_FLAG_TT, false);
nvbo              120 drivers/gpu/drm/nouveau/nouveau_prime.c 	struct nouveau_bo *nvbo = nouveau_gem_object(obj);
nvbo              122 drivers/gpu/drm/nouveau/nouveau_prime.c 	nouveau_bo_unpin(nvbo);
nvbo               64 drivers/gpu/drm/nouveau/nouveau_ttm.c 	struct nouveau_bo *nvbo = nouveau_bo(bo);
nvbo               71 drivers/gpu/drm/nouveau/nouveau_ttm.c 	ret = nouveau_mem_new(&drm->master, nvbo->kind, nvbo->comp, reg);
nvbo               75 drivers/gpu/drm/nouveau/nouveau_ttm.c 	ret = nouveau_mem_vram(reg, nvbo->contig, nvbo->page);
nvbo              102 drivers/gpu/drm/nouveau/nouveau_ttm.c 	struct nouveau_bo *nvbo = nouveau_bo(bo);
nvbo              106 drivers/gpu/drm/nouveau/nouveau_ttm.c 	ret = nouveau_mem_new(&drm->master, nvbo->kind, nvbo->comp, reg);
nvbo              128 drivers/gpu/drm/nouveau/nouveau_ttm.c 	struct nouveau_bo *nvbo = nouveau_bo(bo);
nvbo              133 drivers/gpu/drm/nouveau/nouveau_ttm.c 	ret = nouveau_mem_new(&drm->master, nvbo->kind, nvbo->comp, reg);
nvbo               49 drivers/gpu/drm/nouveau/nouveau_vmm.c nouveau_vma_find(struct nouveau_bo *nvbo, struct nouveau_vmm *vmm)
nvbo               53 drivers/gpu/drm/nouveau/nouveau_vmm.c 	list_for_each_entry(vma, &nvbo->vma_list, head) {
nvbo               77 drivers/gpu/drm/nouveau/nouveau_vmm.c nouveau_vma_new(struct nouveau_bo *nvbo, struct nouveau_vmm *vmm,
nvbo               80 drivers/gpu/drm/nouveau/nouveau_vmm.c 	struct nouveau_mem *mem = nouveau_mem(&nvbo->bo.mem);
nvbo               85 drivers/gpu/drm/nouveau/nouveau_vmm.c 	if ((vma = *pvma = nouveau_vma_find(nvbo, vmm))) {
nvbo               97 drivers/gpu/drm/nouveau/nouveau_vmm.c 	list_add_tail(&vma->head, &nvbo->vma_list);
nvbo               99 drivers/gpu/drm/nouveau/nouveau_vmm.c 	if (nvbo->bo.mem.mem_type != TTM_PL_SYSTEM &&
nvbo              100 drivers/gpu/drm/nouveau/nouveau_vmm.c 	    mem->mem.page == nvbo->page) {