hole_node 167 drivers/gpu/drm/drm_mm.c static void drm_mm_interval_tree_add_node(struct drm_mm_node *hole_node, hole_node 170 drivers/gpu/drm/drm_mm.c struct drm_mm *mm = hole_node->mm; hole_node 177 drivers/gpu/drm/drm_mm.c if (hole_node->allocated) { hole_node 178 drivers/gpu/drm/drm_mm.c rb = &hole_node->rb; hole_node 188 drivers/gpu/drm/drm_mm.c rb = &hole_node->rb; hole_node 189 drivers/gpu/drm/drm_mm.c link = &hole_node->rb.rb_right; hole_node 294 include/drm/drm_mm.h static inline u64 __drm_mm_hole_node_start(const struct drm_mm_node *hole_node) hole_node 296 include/drm/drm_mm.h return hole_node->start + hole_node->size; hole_node 310 include/drm/drm_mm.h static inline u64 drm_mm_hole_node_start(const struct drm_mm_node *hole_node) hole_node 312 include/drm/drm_mm.h DRM_MM_BUG_ON(!drm_mm_hole_follows(hole_node)); hole_node 313 include/drm/drm_mm.h return __drm_mm_hole_node_start(hole_node); hole_node 316 include/drm/drm_mm.h static inline u64 __drm_mm_hole_node_end(const struct drm_mm_node *hole_node) hole_node 318 include/drm/drm_mm.h return list_next_entry(hole_node, node_list)->start; hole_node 332 include/drm/drm_mm.h static inline u64 drm_mm_hole_node_end(const struct drm_mm_node *hole_node) hole_node 334 include/drm/drm_mm.h return __drm_mm_hole_node_end(hole_node);