gctx               21 arch/x86/crypto/glue_helper.c int glue_ecb_req_128bit(const struct common_glue_ctx *gctx,
gctx               39 arch/x86/crypto/glue_helper.c 		fpu_enabled = glue_fpu_begin(bsize, gctx->fpu_blocks_limit,
gctx               41 arch/x86/crypto/glue_helper.c 		for (i = 0; i < gctx->num_funcs; i++) {
gctx               42 arch/x86/crypto/glue_helper.c 			func_bytes = bsize * gctx->funcs[i].num_blocks;
gctx               49 arch/x86/crypto/glue_helper.c 				gctx->funcs[i].fn_u.ecb(ctx, dst, src);
gctx               98 arch/x86/crypto/glue_helper.c int glue_cbc_decrypt_req_128bit(const struct common_glue_ctx *gctx,
gctx              117 arch/x86/crypto/glue_helper.c 		fpu_enabled = glue_fpu_begin(bsize, gctx->fpu_blocks_limit,
gctx              125 arch/x86/crypto/glue_helper.c 		for (i = 0; i < gctx->num_funcs; i++) {
gctx              126 arch/x86/crypto/glue_helper.c 			num_blocks = gctx->funcs[i].num_blocks;
gctx              137 arch/x86/crypto/glue_helper.c 				gctx->funcs[i].fn_u.cbc(ctx, dst, src);
gctx              158 arch/x86/crypto/glue_helper.c int glue_ctr_req_128bit(const struct common_glue_ctx *gctx,
gctx              177 arch/x86/crypto/glue_helper.c 		fpu_enabled = glue_fpu_begin(bsize, gctx->fpu_blocks_limit,
gctx              182 arch/x86/crypto/glue_helper.c 		for (i = 0; i < gctx->num_funcs; i++) {
gctx              183 arch/x86/crypto/glue_helper.c 			num_blocks = gctx->funcs[i].num_blocks;
gctx              191 arch/x86/crypto/glue_helper.c 				gctx->funcs[i].fn_u.ctr(ctx, dst, src, &ctrblk);
gctx              213 arch/x86/crypto/glue_helper.c 		gctx->funcs[gctx->num_funcs - 1].fn_u.ctr(ctx, &tmp, &tmp,
gctx              225 arch/x86/crypto/glue_helper.c static unsigned int __glue_xts_req_128bit(const struct common_glue_ctx *gctx,
gctx              237 arch/x86/crypto/glue_helper.c 	for (i = 0; i < gctx->num_funcs; i++) {
gctx              238 arch/x86/crypto/glue_helper.c 		num_blocks = gctx->funcs[i].num_blocks;
gctx              243 arch/x86/crypto/glue_helper.c 				gctx->funcs[i].fn_u.xts(ctx, dst, src,
gctx              260 arch/x86/crypto/glue_helper.c int glue_xts_req_128bit(const struct common_glue_ctx *gctx,
gctx              296 arch/x86/crypto/glue_helper.c 	fpu_enabled = glue_fpu_begin(bsize, gctx->fpu_blocks_limit,
gctx              304 arch/x86/crypto/glue_helper.c 		nbytes = __glue_xts_req_128bit(gctx, crypt_ctx, &walk);
gctx              332 arch/x86/crypto/glue_helper.c 				__glue_xts_req_128bit(gctx, crypt_ctx, &walk));
gctx              347 arch/x86/crypto/glue_helper.c 				__glue_xts_req_128bit(gctx, crypt_ctx, &walk));
gctx              102 arch/x86/include/asm/crypto/glue_helper.h extern int glue_ecb_req_128bit(const struct common_glue_ctx *gctx,
gctx              108 arch/x86/include/asm/crypto/glue_helper.h extern int glue_cbc_decrypt_req_128bit(const struct common_glue_ctx *gctx,
gctx              111 arch/x86/include/asm/crypto/glue_helper.h extern int glue_ctr_req_128bit(const struct common_glue_ctx *gctx,
gctx              114 arch/x86/include/asm/crypto/glue_helper.h extern int glue_xts_req_128bit(const struct common_glue_ctx *gctx,
gctx              233 crypto/gcm.c   	struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx;
gctx              237 crypto/gcm.c   	lengths.b = cpu_to_be64(gctx->cryptlen * 8);
gctx              250 crypto/gcm.c   	struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx;
gctx              252 crypto/gcm.c   	return gctx->complete(req, flags);
gctx              295 crypto/gcm.c   	struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx;
gctx              298 crypto/gcm.c   	remain = gcm_remain(gctx->cryptlen);
gctx              325 crypto/gcm.c   	struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx;
gctx              327 crypto/gcm.c   	if (gctx->cryptlen)
gctx              329 crypto/gcm.c   				       gctx->src, gctx->cryptlen, flags) ?:
gctx              433 crypto/gcm.c   	struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx;
gctx              435 crypto/gcm.c   	gctx->src = sg_next(req->src == req->dst ? pctx->src : pctx->dst);
gctx              436 crypto/gcm.c   	gctx->cryptlen = req->cryptlen;
gctx              437 crypto/gcm.c   	gctx->complete = gcm_enc_copy_hash;
gctx              500 crypto/gcm.c   	struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx;
gctx              502 crypto/gcm.c   	crypto_gcm_init_crypt(req, gctx->cryptlen);
gctx              511 crypto/gcm.c   	struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx;
gctx              520 crypto/gcm.c   	gctx->src = sg_next(pctx->src);
gctx              521 crypto/gcm.c   	gctx->cryptlen = cryptlen;
gctx              522 crypto/gcm.c   	gctx->complete = gcm_dec_hash_continue;
gctx              114 drivers/crypto/chelsio/chcr_algo.c static inline struct chcr_gcm_ctx *GCM_CTX(struct chcr_aead_ctx *gctx)
gctx              116 drivers/crypto/chelsio/chcr_algo.c 	return gctx->ctx->gcm;
gctx              119 drivers/crypto/chelsio/chcr_algo.c static inline struct chcr_authenc_ctx *AUTHENC_CTX(struct chcr_aead_ctx *gctx)
gctx              121 drivers/crypto/chelsio/chcr_algo.c 	return gctx->ctx->authenc;
gctx             3345 drivers/crypto/chelsio/chcr_algo.c 	struct chcr_gcm_ctx *gctx = GCM_CTX(aeadctx);
gctx             3395 drivers/crypto/chelsio/chcr_algo.c 	memset(gctx->ghash_h, 0, AEAD_H_SIZE);
gctx             3396 drivers/crypto/chelsio/chcr_algo.c 	aes_encrypt(&aes, gctx->ghash_h, gctx->ghash_h);
gctx              883 drivers/crypto/mediatek/mtk-aes.c 	struct mtk_aes_gcm_ctx *gctx = mtk_aes_gcm_ctx_cast(ctx);
gctx              893 drivers/crypto/mediatek/mtk-aes.c 	info->cmd[cnt++] = AES_GCM_CMD3 | cpu_to_le32(gctx->textlen);
gctx              896 drivers/crypto/mediatek/mtk-aes.c 		info->cmd[cnt++] = AES_GCM_CMD4 | cpu_to_le32(gctx->authsize);
gctx              899 drivers/crypto/mediatek/mtk-aes.c 		info->cmd[cnt++] = AES_GCM_CMD5 | cpu_to_le32(gctx->authsize);
gctx              900 drivers/crypto/mediatek/mtk-aes.c 		info->cmd[cnt++] = AES_GCM_CMD6 | cpu_to_le32(gctx->authsize);
gctx              960 drivers/crypto/mediatek/mtk-aes.c 	struct mtk_aes_gcm_ctx *gctx = mtk_aes_gcm_ctx_cast(aes->ctx);
gctx              972 drivers/crypto/mediatek/mtk-aes.c 		aes->total = len + gctx->authsize;
gctx              974 drivers/crypto/mediatek/mtk-aes.c 		scatterwalk_map_and_copy(tag, req->dst, len, gctx->authsize, 1);
gctx              986 drivers/crypto/mediatek/mtk-aes.c 	struct mtk_aes_gcm_ctx *gctx = mtk_aes_gcm_ctx_cast(ctx);
gctx              996 drivers/crypto/mediatek/mtk-aes.c 	gctx->textlen = req->cryptlen - (enc ? 0 : gctx->authsize);
gctx              999 drivers/crypto/mediatek/mtk-aes.c 	if (!gctx->textlen && !req->assoclen)
gctx             1016 drivers/crypto/mediatek/mtk-aes.c 	struct mtk_aes_gcm_ctx *gctx = mtk_aes_gcm_ctx_cast(ctx);
gctx             1017 drivers/crypto/mediatek/mtk-aes.c 	struct crypto_skcipher *ctr = gctx->ctr;
gctx             1088 drivers/crypto/mediatek/mtk-aes.c 	struct mtk_aes_gcm_ctx *gctx = mtk_aes_gcm_ctx_cast(ctx);
gctx             1100 drivers/crypto/mediatek/mtk-aes.c 	gctx->authsize = authsize;
gctx              180 drivers/gpu/drm/amd/amdgpu/atom.c 	struct atom_context *gctx = ctx->ctx;
gctx              189 drivers/gpu/drm/amd/amdgpu/atom.c 		idx += gctx->reg_block;
gctx              190 drivers/gpu/drm/amd/amdgpu/atom.c 		switch (gctx->io_mode) {
gctx              192 drivers/gpu/drm/amd/amdgpu/atom.c 			val = gctx->card->reg_read(gctx->card, idx);
gctx              201 drivers/gpu/drm/amd/amdgpu/atom.c 			if (!(gctx->io_mode & 0x80)) {
gctx              205 drivers/gpu/drm/amd/amdgpu/atom.c 			if (!gctx->iio[gctx->io_mode & 0x7F]) {
gctx              207 drivers/gpu/drm/amd/amdgpu/atom.c 					gctx->io_mode & 0x7F);
gctx              211 drivers/gpu/drm/amd/amdgpu/atom.c 			    atom_iio_execute(gctx,
gctx              212 drivers/gpu/drm/amd/amdgpu/atom.c 					     gctx->iio[gctx->io_mode & 0x7F],
gctx              232 drivers/gpu/drm/amd/amdgpu/atom.c 			val = gctx->divmul[0];
gctx              235 drivers/gpu/drm/amd/amdgpu/atom.c 			val = gctx->divmul[1];
gctx              238 drivers/gpu/drm/amd/amdgpu/atom.c 			val = gctx->data_block;
gctx              241 drivers/gpu/drm/amd/amdgpu/atom.c 			val = gctx->shift;
gctx              244 drivers/gpu/drm/amd/amdgpu/atom.c 			val = 1 << gctx->shift;
gctx              247 drivers/gpu/drm/amd/amdgpu/atom.c 			val = ~(1 << gctx->shift);
gctx              250 drivers/gpu/drm/amd/amdgpu/atom.c 			val = gctx->fb_base;
gctx              253 drivers/gpu/drm/amd/amdgpu/atom.c 			val = gctx->io_attr;
gctx              256 drivers/gpu/drm/amd/amdgpu/atom.c 			val = gctx->reg_block;
gctx              266 drivers/gpu/drm/amd/amdgpu/atom.c 			if (gctx->data_block)
gctx              267 drivers/gpu/drm/amd/amdgpu/atom.c 				DEBUG("ID[0x%04X+%04X]", idx, gctx->data_block);
gctx              271 drivers/gpu/drm/amd/amdgpu/atom.c 		val = U32(idx + gctx->data_block);
gctx              276 drivers/gpu/drm/amd/amdgpu/atom.c 		if ((gctx->fb_base + (idx * 4)) > gctx->scratch_size_bytes) {
gctx              278 drivers/gpu/drm/amd/amdgpu/atom.c 				  gctx->fb_base + (idx * 4), gctx->scratch_size_bytes);
gctx              281 drivers/gpu/drm/amd/amdgpu/atom.c 			val = gctx->scratch[(gctx->fb_base / 4) + idx];
gctx              317 drivers/gpu/drm/amd/amdgpu/atom.c 		val = gctx->card->pll_read(gctx->card, idx);
gctx              324 drivers/gpu/drm/amd/amdgpu/atom.c 		val = gctx->card->mc_read(gctx->card, idx);
gctx              450 drivers/gpu/drm/amd/amdgpu/atom.c 	struct atom_context *gctx = ctx->ctx;
gctx              461 drivers/gpu/drm/amd/amdgpu/atom.c 		idx += gctx->reg_block;
gctx              462 drivers/gpu/drm/amd/amdgpu/atom.c 		switch (gctx->io_mode) {
gctx              465 drivers/gpu/drm/amd/amdgpu/atom.c 				gctx->card->reg_write(gctx->card, idx,
gctx              468 drivers/gpu/drm/amd/amdgpu/atom.c 				gctx->card->reg_write(gctx->card, idx, val);
gctx              477 drivers/gpu/drm/amd/amdgpu/atom.c 			if (!(gctx->io_mode & 0x80)) {
gctx              481 drivers/gpu/drm/amd/amdgpu/atom.c 			if (!gctx->iio[gctx->io_mode & 0xFF]) {
gctx              483 drivers/gpu/drm/amd/amdgpu/atom.c 					gctx->io_mode & 0x7F);
gctx              486 drivers/gpu/drm/amd/amdgpu/atom.c 			atom_iio_execute(gctx, gctx->iio[gctx->io_mode & 0xFF],
gctx              502 drivers/gpu/drm/amd/amdgpu/atom.c 			gctx->divmul[0] = val;
gctx              505 drivers/gpu/drm/amd/amdgpu/atom.c 			gctx->divmul[1] = val;
gctx              508 drivers/gpu/drm/amd/amdgpu/atom.c 			gctx->data_block = val;
gctx              511 drivers/gpu/drm/amd/amdgpu/atom.c 			gctx->shift = val;
gctx              517 drivers/gpu/drm/amd/amdgpu/atom.c 			gctx->fb_base = val;
gctx              520 drivers/gpu/drm/amd/amdgpu/atom.c 			gctx->io_attr = val;
gctx              523 drivers/gpu/drm/amd/amdgpu/atom.c 			gctx->reg_block = val;
gctx              532 drivers/gpu/drm/amd/amdgpu/atom.c 		if ((gctx->fb_base + (idx * 4)) > gctx->scratch_size_bytes) {
gctx              534 drivers/gpu/drm/amd/amdgpu/atom.c 				  gctx->fb_base + (idx * 4), gctx->scratch_size_bytes);
gctx              536 drivers/gpu/drm/amd/amdgpu/atom.c 			gctx->scratch[(gctx->fb_base / 4) + idx] = val;
gctx              543 drivers/gpu/drm/amd/amdgpu/atom.c 		gctx->card->pll_write(gctx->card, idx, val);
gctx              549 drivers/gpu/drm/amd/amdgpu/atom.c 		gctx->card->mc_write(gctx->card, idx, val);
gctx              186 drivers/gpu/drm/radeon/atom.c 	struct atom_context *gctx = ctx->ctx;
gctx              195 drivers/gpu/drm/radeon/atom.c 		idx += gctx->reg_block;
gctx              196 drivers/gpu/drm/radeon/atom.c 		switch (gctx->io_mode) {
gctx              198 drivers/gpu/drm/radeon/atom.c 			val = gctx->card->reg_read(gctx->card, idx);
gctx              207 drivers/gpu/drm/radeon/atom.c 			if (!(gctx->io_mode & 0x80)) {
gctx              211 drivers/gpu/drm/radeon/atom.c 			if (!gctx->iio[gctx->io_mode & 0x7F]) {
gctx              213 drivers/gpu/drm/radeon/atom.c 					gctx->io_mode & 0x7F);
gctx              217 drivers/gpu/drm/radeon/atom.c 			    atom_iio_execute(gctx,
gctx              218 drivers/gpu/drm/radeon/atom.c 					     gctx->iio[gctx->io_mode & 0x7F],
gctx              238 drivers/gpu/drm/radeon/atom.c 			val = gctx->divmul[0];
gctx              241 drivers/gpu/drm/radeon/atom.c 			val = gctx->divmul[1];
gctx              244 drivers/gpu/drm/radeon/atom.c 			val = gctx->data_block;
gctx              247 drivers/gpu/drm/radeon/atom.c 			val = gctx->shift;
gctx              250 drivers/gpu/drm/radeon/atom.c 			val = 1 << gctx->shift;
gctx              253 drivers/gpu/drm/radeon/atom.c 			val = ~(1 << gctx->shift);
gctx              256 drivers/gpu/drm/radeon/atom.c 			val = gctx->fb_base;
gctx              259 drivers/gpu/drm/radeon/atom.c 			val = gctx->io_attr;
gctx              262 drivers/gpu/drm/radeon/atom.c 			val = gctx->reg_block;
gctx              272 drivers/gpu/drm/radeon/atom.c 			if (gctx->data_block)
gctx              273 drivers/gpu/drm/radeon/atom.c 				DEBUG("ID[0x%04X+%04X]", idx, gctx->data_block);
gctx              277 drivers/gpu/drm/radeon/atom.c 		val = U32(idx + gctx->data_block);
gctx              282 drivers/gpu/drm/radeon/atom.c 		if ((gctx->fb_base + (idx * 4)) > gctx->scratch_size_bytes) {
gctx              284 drivers/gpu/drm/radeon/atom.c 				  gctx->fb_base + (idx * 4), gctx->scratch_size_bytes);
gctx              287 drivers/gpu/drm/radeon/atom.c 			val = gctx->scratch[(gctx->fb_base / 4) + idx];
gctx              323 drivers/gpu/drm/radeon/atom.c 		val = gctx->card->pll_read(gctx->card, idx);
gctx              330 drivers/gpu/drm/radeon/atom.c 		val = gctx->card->mc_read(gctx->card, idx);
gctx              456 drivers/gpu/drm/radeon/atom.c 	struct atom_context *gctx = ctx->ctx;
gctx              467 drivers/gpu/drm/radeon/atom.c 		idx += gctx->reg_block;
gctx              468 drivers/gpu/drm/radeon/atom.c 		switch (gctx->io_mode) {
gctx              471 drivers/gpu/drm/radeon/atom.c 				gctx->card->reg_write(gctx->card, idx,
gctx              474 drivers/gpu/drm/radeon/atom.c 				gctx->card->reg_write(gctx->card, idx, val);
gctx              483 drivers/gpu/drm/radeon/atom.c 			if (!(gctx->io_mode & 0x80)) {
gctx              487 drivers/gpu/drm/radeon/atom.c 			if (!gctx->iio[gctx->io_mode & 0xFF]) {
gctx              489 drivers/gpu/drm/radeon/atom.c 					gctx->io_mode & 0x7F);
gctx              492 drivers/gpu/drm/radeon/atom.c 			atom_iio_execute(gctx, gctx->iio[gctx->io_mode & 0xFF],
gctx              508 drivers/gpu/drm/radeon/atom.c 			gctx->divmul[0] = val;
gctx              511 drivers/gpu/drm/radeon/atom.c 			gctx->divmul[1] = val;
gctx              514 drivers/gpu/drm/radeon/atom.c 			gctx->data_block = val;
gctx              517 drivers/gpu/drm/radeon/atom.c 			gctx->shift = val;
gctx              523 drivers/gpu/drm/radeon/atom.c 			gctx->fb_base = val;
gctx              526 drivers/gpu/drm/radeon/atom.c 			gctx->io_attr = val;
gctx              529 drivers/gpu/drm/radeon/atom.c 			gctx->reg_block = val;
gctx              538 drivers/gpu/drm/radeon/atom.c 		if ((gctx->fb_base + (idx * 4)) > gctx->scratch_size_bytes) {
gctx              540 drivers/gpu/drm/radeon/atom.c 				  gctx->fb_base + (idx * 4), gctx->scratch_size_bytes);
gctx              542 drivers/gpu/drm/radeon/atom.c 			gctx->scratch[(gctx->fb_base / 4) + idx] = val;
gctx              549 drivers/gpu/drm/radeon/atom.c 		gctx->card->pll_write(gctx->card, idx, val);
gctx              555 drivers/gpu/drm/radeon/atom.c 		gctx->card->mc_write(gctx->card, idx, val);
gctx             10868 kernel/events/core.c 	struct perf_event_context *gctx;
gctx             10872 kernel/events/core.c 	gctx = READ_ONCE(group_leader->ctx);
gctx             10873 kernel/events/core.c 	if (!refcount_inc_not_zero(&gctx->refcount)) {
gctx             10879 kernel/events/core.c 	mutex_lock_double(&gctx->mutex, &ctx->mutex);
gctx             10881 kernel/events/core.c 	if (group_leader->ctx != gctx) {
gctx             10883 kernel/events/core.c 		mutex_unlock(&gctx->mutex);
gctx             10884 kernel/events/core.c 		put_ctx(gctx);
gctx             10888 kernel/events/core.c 	return gctx;
gctx             10906 kernel/events/core.c 	struct perf_event_context *ctx, *uninitialized_var(gctx);
gctx             11141 kernel/events/core.c 		gctx = __perf_event_ctx_lock_double(group_leader, ctx);
gctx             11143 kernel/events/core.c 		if (gctx->task == TASK_TOMBSTONE) {
gctx             11158 kernel/events/core.c 			if (gctx != ctx) {
gctx             11162 kernel/events/core.c 				perf_event_ctx_unlock(group_leader, gctx);
gctx             11235 kernel/events/core.c 		put_ctx(gctx);
gctx             11239 kernel/events/core.c 			put_ctx(gctx);
gctx             11289 kernel/events/core.c 		perf_event_ctx_unlock(group_leader, gctx);
gctx             11313 kernel/events/core.c 		perf_event_ctx_unlock(group_leader, gctx);
gctx              598 net/sunrpc/auth_gss/gss_krb5_wrap.c gss_wrap_kerberos(struct gss_ctx *gctx, int offset,
gctx              601 net/sunrpc/auth_gss/gss_krb5_wrap.c 	struct krb5_ctx	*kctx = gctx->internal_ctx_id;
gctx              617 net/sunrpc/auth_gss/gss_krb5_wrap.c gss_unwrap_kerberos(struct gss_ctx *gctx, int offset,
gctx              620 net/sunrpc/auth_gss/gss_krb5_wrap.c 	struct krb5_ctx	*kctx = gctx->internal_ctx_id;
gctx              629 net/sunrpc/auth_gss/gss_krb5_wrap.c 					      &gctx->slack, &gctx->align);
gctx              633 net/sunrpc/auth_gss/gss_krb5_wrap.c 					      &gctx->slack, &gctx->align);