hole_node         167 drivers/gpu/drm/drm_mm.c static void drm_mm_interval_tree_add_node(struct drm_mm_node *hole_node,
hole_node         170 drivers/gpu/drm/drm_mm.c 	struct drm_mm *mm = hole_node->mm;
hole_node         177 drivers/gpu/drm/drm_mm.c 	if (hole_node->allocated) {
hole_node         178 drivers/gpu/drm/drm_mm.c 		rb = &hole_node->rb;
hole_node         188 drivers/gpu/drm/drm_mm.c 		rb = &hole_node->rb;
hole_node         189 drivers/gpu/drm/drm_mm.c 		link = &hole_node->rb.rb_right;
hole_node         294 include/drm/drm_mm.h static inline u64 __drm_mm_hole_node_start(const struct drm_mm_node *hole_node)
hole_node         296 include/drm/drm_mm.h 	return hole_node->start + hole_node->size;
hole_node         310 include/drm/drm_mm.h static inline u64 drm_mm_hole_node_start(const struct drm_mm_node *hole_node)
hole_node         312 include/drm/drm_mm.h 	DRM_MM_BUG_ON(!drm_mm_hole_follows(hole_node));
hole_node         313 include/drm/drm_mm.h 	return __drm_mm_hole_node_start(hole_node);
hole_node         316 include/drm/drm_mm.h static inline u64 __drm_mm_hole_node_end(const struct drm_mm_node *hole_node)
hole_node         318 include/drm/drm_mm.h 	return list_next_entry(hole_node, node_list)->start;
hole_node         332 include/drm/drm_mm.h static inline u64 drm_mm_hole_node_end(const struct drm_mm_node *hole_node)
hole_node         334 include/drm/drm_mm.h 	return __drm_mm_hole_node_end(hole_node);