alloc_mask        199 lib/test_meminit.c 	gfp_t alloc_mask = GFP_KERNEL | (want_zero ? __GFP_ZERO : 0);
alloc_mask        206 lib/test_meminit.c 		buf = kmem_cache_alloc(c, alloc_mask);
alloc_mask       4674 mm/page_alloc.c 		struct alloc_context *ac, gfp_t *alloc_mask,
alloc_mask       4683 mm/page_alloc.c 		*alloc_mask |= __GFP_HARDWALL;
alloc_mask       4728 mm/page_alloc.c 	gfp_t alloc_mask; /* The gfp_t that was actually used for allocation */
alloc_mask       4741 mm/page_alloc.c 	alloc_mask = gfp_mask;
alloc_mask       4742 mm/page_alloc.c 	if (!prepare_alloc_pages(gfp_mask, order, preferred_nid, nodemask, &ac, &alloc_mask, &alloc_flags))
alloc_mask       4754 mm/page_alloc.c 	page = get_page_from_freelist(alloc_mask, order, alloc_flags, &ac);
alloc_mask       4764 mm/page_alloc.c 	alloc_mask = current_gfp_context(gfp_mask);
alloc_mask       4774 mm/page_alloc.c 	page = __alloc_pages_slowpath(alloc_mask, order, &ac);
alloc_mask       4783 mm/page_alloc.c 	trace_mm_page_alloc(page, order, alloc_mask, ac.migratetype);
alloc_mask       2404 mm/vmalloc.c   	const gfp_t alloc_mask = gfp_mask | __GFP_NOWARN;
alloc_mask       2433 mm/vmalloc.c   			page = alloc_page(alloc_mask|highmem_mask);
alloc_mask       2435 mm/vmalloc.c   			page = alloc_pages_node(node, alloc_mask|highmem_mask, 0);