alloc_flags 2402 arch/s390/kvm/kvm-s390.c gfp_t alloc_flags = GFP_KERNEL; alloc_flags 2425 arch/s390/kvm/kvm-s390.c alloc_flags |= GFP_DMA; alloc_flags 2428 arch/s390/kvm/kvm-s390.c kvm->arch.sca = (struct bsca_block *) get_zeroed_page(alloc_flags); alloc_flags 60 drivers/base/regmap/internal.h gfp_t alloc_flags; alloc_flags 764 drivers/base/regmap/regmap.c map->alloc_flags = GFP_ATOMIC; alloc_flags 766 drivers/base/regmap/regmap.c map->alloc_flags = GFP_KERNEL; alloc_flags 2112 drivers/base/regmap/regmap.c wval = kmemdup(val, val_count * val_bytes, map->alloc_flags); alloc_flags 1084 drivers/gpu/drm/amd/amdgpu/amdgpu_amdkfd_gpuvm.c u64 alloc_flags; alloc_flags 1093 drivers/gpu/drm/amd/amdgpu/amdgpu_amdkfd_gpuvm.c alloc_flags = AMDGPU_GEM_CREATE_VRAM_WIPE_ON_RELEASE; alloc_flags 1094 drivers/gpu/drm/amd/amdgpu/amdgpu_amdkfd_gpuvm.c alloc_flags |= (flags & ALLOC_MEM_FLAGS_PUBLIC) ? alloc_flags 1099 drivers/gpu/drm/amd/amdgpu/amdgpu_amdkfd_gpuvm.c alloc_flags = 0; alloc_flags 1103 drivers/gpu/drm/amd/amdgpu/amdgpu_amdkfd_gpuvm.c alloc_flags = 0; alloc_flags 1112 drivers/gpu/drm/amd/amdgpu/amdgpu_amdkfd_gpuvm.c alloc_flags = 0; alloc_flags 1173 drivers/gpu/drm/amd/amdgpu/amdgpu_amdkfd_gpuvm.c bp.flags = alloc_flags; alloc_flags 521 drivers/iommu/dma-iommu.c gfp_t alloc_flags = gfp; alloc_flags 525 drivers/iommu/dma-iommu.c alloc_flags |= __GFP_NORETRY; alloc_flags 526 drivers/iommu/dma-iommu.c page = alloc_pages_node(nid, alloc_flags, order); alloc_flags 79 drivers/net/ethernet/mellanox/mlx5/core/cmd.c gfp_t alloc_flags = cbk ? GFP_ATOMIC : GFP_KERNEL; alloc_flags 82 drivers/net/ethernet/mellanox/mlx5/core/cmd.c ent = kzalloc(sizeof(*ent), alloc_flags); alloc_flags 2035 fs/btrfs/block-group.c u64 alloc_flags; alloc_flags 2065 fs/btrfs/block-group.c alloc_flags = update_block_group_flags(fs_info, cache->flags); alloc_flags 2066 fs/btrfs/block-group.c if (alloc_flags != cache->flags) { alloc_flags 2067 fs/btrfs/block-group.c ret = btrfs_chunk_alloc(trans, alloc_flags, CHUNK_ALLOC_FORCE); alloc_flags 2082 fs/btrfs/block-group.c alloc_flags = btrfs_get_alloc_profile(fs_info, cache->space_info->flags); alloc_flags 2083 fs/btrfs/block-group.c ret = btrfs_chunk_alloc(trans, alloc_flags, CHUNK_ALLOC_FORCE); alloc_flags 2089 fs/btrfs/block-group.c alloc_flags = update_block_group_flags(fs_info, cache->flags); alloc_flags 2091 fs/btrfs/block-group.c check_system_chunk(trans, alloc_flags); alloc_flags 2850 fs/btrfs/block-group.c u64 alloc_flags = btrfs_get_alloc_profile(trans->fs_info, type); alloc_flags 2852 fs/btrfs/block-group.c return btrfs_chunk_alloc(trans, alloc_flags, CHUNK_ALLOC_FORCE); alloc_flags 3663 fs/xfs/xfs_log.c xfs_km_flags_t alloc_flags) alloc_flags 3668 fs/xfs/xfs_log.c tic = kmem_zone_zalloc(xfs_log_ticket_zone, alloc_flags); alloc_flags 435 fs/xfs/xfs_log_priv.h xfs_km_flags_t alloc_flags); alloc_flags 95 include/linux/compaction.h unsigned int order, unsigned int alloc_flags, alloc_flags 100 include/linux/compaction.h unsigned int alloc_flags, int classzone_idx); alloc_flags 181 include/linux/compaction.h int alloc_flags); alloc_flags 193 include/linux/compaction.h int alloc_flags, int classzone_idx) alloc_flags 816 include/linux/mmzone.h int classzone_idx, unsigned int alloc_flags, alloc_flags 820 include/linux/mmzone.h unsigned int alloc_flags); alloc_flags 104 lib/stackdepot.c u32 hash, void **prealloc, gfp_t alloc_flags) alloc_flags 225 lib/stackdepot.c gfp_t alloc_flags) alloc_flags 264 lib/stackdepot.c alloc_flags &= ~GFP_ZONEMASK; alloc_flags 265 lib/stackdepot.c alloc_flags &= (GFP_ATOMIC | GFP_KERNEL); alloc_flags 266 lib/stackdepot.c alloc_flags |= __GFP_NOWARN; alloc_flags 267 lib/stackdepot.c page = alloc_pages(alloc_flags, STACK_ALLOC_ORDER); alloc_flags 278 lib/stackdepot.c hash, &prealloc, alloc_flags); alloc_flags 1959 mm/compaction.c unsigned int alloc_flags, alloc_flags 1968 mm/compaction.c watermark = wmark_pages(zone, alloc_flags & ALLOC_WMARK_MASK); alloc_flags 1974 mm/compaction.c alloc_flags)) alloc_flags 2002 mm/compaction.c unsigned int alloc_flags, alloc_flags 2008 mm/compaction.c ret = __compaction_suitable(zone, order, alloc_flags, classzone_idx, alloc_flags 2040 mm/compaction.c int alloc_flags) alloc_flags 2062 mm/compaction.c compact_result = __compaction_suitable(zone, order, alloc_flags, alloc_flags 2093 mm/compaction.c ret = compaction_suitable(cc->zone, cc->order, cc->alloc_flags, alloc_flags 2290 mm/compaction.c unsigned int alloc_flags, int classzone_idx, alloc_flags 2301 mm/compaction.c .alloc_flags = alloc_flags, alloc_flags 2340 mm/compaction.c unsigned int alloc_flags, const struct alloc_context *ac, alloc_flags 2369 mm/compaction.c alloc_flags, ac_classzone_idx(ac), capture); alloc_flags 196 mm/internal.h const unsigned int alloc_flags; /* alloc flags of a direct compactor */ alloc_flags 2156 mm/page_alloc.c unsigned int alloc_flags) alloc_flags 2172 mm/page_alloc.c if (alloc_flags & ALLOC_NO_WATERMARKS) alloc_flags 2392 mm/page_alloc.c unsigned int alloc_flags, int start_type, bool whole_block) alloc_flags 2420 mm/page_alloc.c if (alloc_flags & ALLOC_KSWAPD) alloc_flags 2637 mm/page_alloc.c unsigned int alloc_flags) alloc_flags 2651 mm/page_alloc.c if (alloc_flags & ALLOC_NOFRAGMENT) alloc_flags 2703 mm/page_alloc.c steal_suitable_fallback(zone, page, alloc_flags, start_migratetype, alloc_flags 2719 mm/page_alloc.c unsigned int alloc_flags) alloc_flags 2730 mm/page_alloc.c alloc_flags)) alloc_flags 2745 mm/page_alloc.c int migratetype, unsigned int alloc_flags) alloc_flags 2752 mm/page_alloc.c alloc_flags); alloc_flags 3214 mm/page_alloc.c unsigned int alloc_flags, alloc_flags 3224 mm/page_alloc.c migratetype, alloc_flags); alloc_flags 3240 mm/page_alloc.c int migratetype, unsigned int alloc_flags) alloc_flags 3250 mm/page_alloc.c page = __rmqueue_pcplist(zone, migratetype, alloc_flags, pcp, list); alloc_flags 3265 mm/page_alloc.c gfp_t gfp_flags, unsigned int alloc_flags, alloc_flags 3273 mm/page_alloc.c migratetype, alloc_flags); alloc_flags 3286 mm/page_alloc.c if (alloc_flags & ALLOC_HARDER) { alloc_flags 3292 mm/page_alloc.c page = __rmqueue(zone, order, migratetype, alloc_flags); alloc_flags 3400 mm/page_alloc.c int classzone_idx, unsigned int alloc_flags, alloc_flags 3405 mm/page_alloc.c const bool alloc_harder = (alloc_flags & (ALLOC_HARDER|ALLOC_OOM)); alloc_flags 3410 mm/page_alloc.c if (alloc_flags & ALLOC_HIGH) alloc_flags 3427 mm/page_alloc.c if (alloc_flags & ALLOC_OOM) alloc_flags 3436 mm/page_alloc.c if (!(alloc_flags & ALLOC_CMA)) alloc_flags 3466 mm/page_alloc.c if ((alloc_flags & ALLOC_CMA) && alloc_flags 3479 mm/page_alloc.c int classzone_idx, unsigned int alloc_flags) alloc_flags 3481 mm/page_alloc.c return __zone_watermark_ok(z, order, mark, classzone_idx, alloc_flags, alloc_flags 3486 mm/page_alloc.c unsigned long mark, int classzone_idx, unsigned int alloc_flags) alloc_flags 3493 mm/page_alloc.c if (!(alloc_flags & ALLOC_CMA)) alloc_flags 3507 mm/page_alloc.c return __zone_watermark_ok(z, order, mark, classzone_idx, alloc_flags, alloc_flags 3547 mm/page_alloc.c unsigned int alloc_flags = 0; alloc_flags 3550 mm/page_alloc.c alloc_flags |= ALLOC_KSWAPD; alloc_flags 3554 mm/page_alloc.c return alloc_flags; alloc_flags 3557 mm/page_alloc.c return alloc_flags; alloc_flags 3566 mm/page_alloc.c return alloc_flags; alloc_flags 3568 mm/page_alloc.c alloc_flags |= ALLOC_NOFRAGMENT; alloc_flags 3570 mm/page_alloc.c return alloc_flags; alloc_flags 3578 mm/page_alloc.c get_page_from_freelist(gfp_t gfp_mask, unsigned int order, int alloc_flags, alloc_flags 3591 mm/page_alloc.c no_fallback = alloc_flags & ALLOC_NOFRAGMENT; alloc_flags 3599 mm/page_alloc.c (alloc_flags & ALLOC_CPUSET) && alloc_flags 3642 mm/page_alloc.c alloc_flags &= ~ALLOC_NOFRAGMENT; alloc_flags 3647 mm/page_alloc.c mark = wmark_pages(zone, alloc_flags & ALLOC_WMARK_MASK); alloc_flags 3649 mm/page_alloc.c ac_classzone_idx(ac), alloc_flags)) { alloc_flags 3664 mm/page_alloc.c if (alloc_flags & ALLOC_NO_WATERMARKS) alloc_flags 3682 mm/page_alloc.c ac_classzone_idx(ac), alloc_flags)) alloc_flags 3691 mm/page_alloc.c gfp_mask, alloc_flags, ac->migratetype); alloc_flags 3693 mm/page_alloc.c prep_new_page(page, order, gfp_mask, alloc_flags); alloc_flags 3699 mm/page_alloc.c if (unlikely(order && (alloc_flags & ALLOC_HARDER))) alloc_flags 3719 mm/page_alloc.c alloc_flags &= ~ALLOC_NOFRAGMENT; alloc_flags 3770 mm/page_alloc.c unsigned int alloc_flags, alloc_flags 3776 mm/page_alloc.c alloc_flags|ALLOC_CPUSET, ac); alloc_flags 3783 mm/page_alloc.c alloc_flags, ac); alloc_flags 3886 mm/page_alloc.c unsigned int alloc_flags, const struct alloc_context *ac, alloc_flags 3899 mm/page_alloc.c *compact_result = try_to_compact_pages(gfp_mask, order, alloc_flags, ac, alloc_flags 3913 mm/page_alloc.c prep_new_page(page, order, gfp_mask, alloc_flags); alloc_flags 3917 mm/page_alloc.c page = get_page_from_freelist(gfp_mask, order, alloc_flags, ac); alloc_flags 3940 mm/page_alloc.c should_compact_retry(struct alloc_context *ac, int order, int alloc_flags, alloc_flags 3970 mm/page_alloc.c ret = compaction_zonelist_suitable(ac, order, alloc_flags); alloc_flags 4019 mm/page_alloc.c unsigned int alloc_flags, const struct alloc_context *ac, alloc_flags 4027 mm/page_alloc.c should_compact_retry(struct alloc_context *ac, unsigned int order, int alloc_flags, alloc_flags 4047 mm/page_alloc.c ac_classzone_idx(ac), alloc_flags)) alloc_flags 4137 mm/page_alloc.c unsigned int alloc_flags, const struct alloc_context *ac, alloc_flags 4148 mm/page_alloc.c page = get_page_from_freelist(gfp_mask, order, alloc_flags, ac); alloc_flags 4184 mm/page_alloc.c unsigned int alloc_flags = ALLOC_WMARK_MIN | ALLOC_CPUSET; alloc_flags 4195 mm/page_alloc.c alloc_flags |= (__force int) (gfp_mask & __GFP_HIGH); alloc_flags 4203 mm/page_alloc.c alloc_flags |= ALLOC_HARDER; alloc_flags 4208 mm/page_alloc.c alloc_flags &= ~ALLOC_CPUSET; alloc_flags 4210 mm/page_alloc.c alloc_flags |= ALLOC_HARDER; alloc_flags 4213 mm/page_alloc.c alloc_flags |= ALLOC_KSWAPD; alloc_flags 4217 mm/page_alloc.c alloc_flags |= ALLOC_CMA; alloc_flags 4219 mm/page_alloc.c return alloc_flags; alloc_flags 4276 mm/page_alloc.c struct alloc_context *ac, int alloc_flags, alloc_flags 4323 mm/page_alloc.c ac_classzone_idx(ac), alloc_flags, available); alloc_flags 4405 mm/page_alloc.c unsigned int alloc_flags; alloc_flags 4433 mm/page_alloc.c alloc_flags = gfp_to_alloc_flags(gfp_mask); alloc_flags 4446 mm/page_alloc.c if (alloc_flags & ALLOC_KSWAPD) alloc_flags 4453 mm/page_alloc.c page = get_page_from_freelist(gfp_mask, order, alloc_flags, ac); alloc_flags 4471 mm/page_alloc.c alloc_flags, ac, alloc_flags 4528 mm/page_alloc.c if (alloc_flags & ALLOC_KSWAPD) alloc_flags 4533 mm/page_alloc.c alloc_flags = reserve_flags; alloc_flags 4540 mm/page_alloc.c if (!(alloc_flags & ALLOC_CPUSET) || reserve_flags) { alloc_flags 4547 mm/page_alloc.c page = get_page_from_freelist(gfp_mask, order, alloc_flags, ac); alloc_flags 4560 mm/page_alloc.c page = __alloc_pages_direct_reclaim(gfp_mask, order, alloc_flags, ac, alloc_flags 4566 mm/page_alloc.c page = __alloc_pages_direct_compact(gfp_mask, order, alloc_flags, ac, alloc_flags 4582 mm/page_alloc.c if (should_reclaim_retry(gfp_mask, order, ac, alloc_flags, alloc_flags 4593 mm/page_alloc.c should_compact_retry(ac, order, alloc_flags, alloc_flags 4610 mm/page_alloc.c (alloc_flags == ALLOC_OOM || alloc_flags 4675 mm/page_alloc.c unsigned int *alloc_flags) alloc_flags 4687 mm/page_alloc.c *alloc_flags |= ALLOC_CPUSET; alloc_flags 4699 mm/page_alloc.c *alloc_flags |= ALLOC_CMA; alloc_flags 4727 mm/page_alloc.c unsigned int alloc_flags = ALLOC_WMARK_LOW; alloc_flags 4742 mm/page_alloc.c if (!prepare_alloc_pages(gfp_mask, order, preferred_nid, nodemask, &ac, &alloc_mask, &alloc_flags)) alloc_flags 4751 mm/page_alloc.c alloc_flags |= alloc_flags_nofragment(ac.preferred_zoneref->zone, gfp_mask); alloc_flags 4754 mm/page_alloc.c page = get_page_from_freelist(alloc_mask, order, alloc_flags, &ac);