alloc_mask 199 lib/test_meminit.c gfp_t alloc_mask = GFP_KERNEL | (want_zero ? __GFP_ZERO : 0); alloc_mask 206 lib/test_meminit.c buf = kmem_cache_alloc(c, alloc_mask); alloc_mask 4674 mm/page_alloc.c struct alloc_context *ac, gfp_t *alloc_mask, alloc_mask 4683 mm/page_alloc.c *alloc_mask |= __GFP_HARDWALL; alloc_mask 4728 mm/page_alloc.c gfp_t alloc_mask; /* The gfp_t that was actually used for allocation */ alloc_mask 4741 mm/page_alloc.c alloc_mask = gfp_mask; alloc_mask 4742 mm/page_alloc.c if (!prepare_alloc_pages(gfp_mask, order, preferred_nid, nodemask, &ac, &alloc_mask, &alloc_flags)) alloc_mask 4754 mm/page_alloc.c page = get_page_from_freelist(alloc_mask, order, alloc_flags, &ac); alloc_mask 4764 mm/page_alloc.c alloc_mask = current_gfp_context(gfp_mask); alloc_mask 4774 mm/page_alloc.c page = __alloc_pages_slowpath(alloc_mask, order, &ac); alloc_mask 4783 mm/page_alloc.c trace_mm_page_alloc(page, order, alloc_mask, ac.migratetype); alloc_mask 2404 mm/vmalloc.c const gfp_t alloc_mask = gfp_mask | __GFP_NOWARN; alloc_mask 2433 mm/vmalloc.c page = alloc_page(alloc_mask|highmem_mask); alloc_mask 2435 mm/vmalloc.c page = alloc_pages_node(node, alloc_mask|highmem_mask, 0);