gctx 21 arch/x86/crypto/glue_helper.c int glue_ecb_req_128bit(const struct common_glue_ctx *gctx, gctx 39 arch/x86/crypto/glue_helper.c fpu_enabled = glue_fpu_begin(bsize, gctx->fpu_blocks_limit, gctx 41 arch/x86/crypto/glue_helper.c for (i = 0; i < gctx->num_funcs; i++) { gctx 42 arch/x86/crypto/glue_helper.c func_bytes = bsize * gctx->funcs[i].num_blocks; gctx 49 arch/x86/crypto/glue_helper.c gctx->funcs[i].fn_u.ecb(ctx, dst, src); gctx 98 arch/x86/crypto/glue_helper.c int glue_cbc_decrypt_req_128bit(const struct common_glue_ctx *gctx, gctx 117 arch/x86/crypto/glue_helper.c fpu_enabled = glue_fpu_begin(bsize, gctx->fpu_blocks_limit, gctx 125 arch/x86/crypto/glue_helper.c for (i = 0; i < gctx->num_funcs; i++) { gctx 126 arch/x86/crypto/glue_helper.c num_blocks = gctx->funcs[i].num_blocks; gctx 137 arch/x86/crypto/glue_helper.c gctx->funcs[i].fn_u.cbc(ctx, dst, src); gctx 158 arch/x86/crypto/glue_helper.c int glue_ctr_req_128bit(const struct common_glue_ctx *gctx, gctx 177 arch/x86/crypto/glue_helper.c fpu_enabled = glue_fpu_begin(bsize, gctx->fpu_blocks_limit, gctx 182 arch/x86/crypto/glue_helper.c for (i = 0; i < gctx->num_funcs; i++) { gctx 183 arch/x86/crypto/glue_helper.c num_blocks = gctx->funcs[i].num_blocks; gctx 191 arch/x86/crypto/glue_helper.c gctx->funcs[i].fn_u.ctr(ctx, dst, src, &ctrblk); gctx 213 arch/x86/crypto/glue_helper.c gctx->funcs[gctx->num_funcs - 1].fn_u.ctr(ctx, &tmp, &tmp, gctx 225 arch/x86/crypto/glue_helper.c static unsigned int __glue_xts_req_128bit(const struct common_glue_ctx *gctx, gctx 237 arch/x86/crypto/glue_helper.c for (i = 0; i < gctx->num_funcs; i++) { gctx 238 arch/x86/crypto/glue_helper.c num_blocks = gctx->funcs[i].num_blocks; gctx 243 arch/x86/crypto/glue_helper.c gctx->funcs[i].fn_u.xts(ctx, dst, src, gctx 260 arch/x86/crypto/glue_helper.c int glue_xts_req_128bit(const struct common_glue_ctx *gctx, gctx 296 arch/x86/crypto/glue_helper.c fpu_enabled = glue_fpu_begin(bsize, gctx->fpu_blocks_limit, gctx 304 arch/x86/crypto/glue_helper.c nbytes = __glue_xts_req_128bit(gctx, crypt_ctx, &walk); gctx 332 arch/x86/crypto/glue_helper.c __glue_xts_req_128bit(gctx, crypt_ctx, &walk)); gctx 347 arch/x86/crypto/glue_helper.c __glue_xts_req_128bit(gctx, crypt_ctx, &walk)); gctx 102 arch/x86/include/asm/crypto/glue_helper.h extern int glue_ecb_req_128bit(const struct common_glue_ctx *gctx, gctx 108 arch/x86/include/asm/crypto/glue_helper.h extern int glue_cbc_decrypt_req_128bit(const struct common_glue_ctx *gctx, gctx 111 arch/x86/include/asm/crypto/glue_helper.h extern int glue_ctr_req_128bit(const struct common_glue_ctx *gctx, gctx 114 arch/x86/include/asm/crypto/glue_helper.h extern int glue_xts_req_128bit(const struct common_glue_ctx *gctx, gctx 233 crypto/gcm.c struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx; gctx 237 crypto/gcm.c lengths.b = cpu_to_be64(gctx->cryptlen * 8); gctx 250 crypto/gcm.c struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx; gctx 252 crypto/gcm.c return gctx->complete(req, flags); gctx 295 crypto/gcm.c struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx; gctx 298 crypto/gcm.c remain = gcm_remain(gctx->cryptlen); gctx 325 crypto/gcm.c struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx; gctx 327 crypto/gcm.c if (gctx->cryptlen) gctx 329 crypto/gcm.c gctx->src, gctx->cryptlen, flags) ?: gctx 433 crypto/gcm.c struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx; gctx 435 crypto/gcm.c gctx->src = sg_next(req->src == req->dst ? pctx->src : pctx->dst); gctx 436 crypto/gcm.c gctx->cryptlen = req->cryptlen; gctx 437 crypto/gcm.c gctx->complete = gcm_enc_copy_hash; gctx 500 crypto/gcm.c struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx; gctx 502 crypto/gcm.c crypto_gcm_init_crypt(req, gctx->cryptlen); gctx 511 crypto/gcm.c struct crypto_gcm_ghash_ctx *gctx = &pctx->ghash_ctx; gctx 520 crypto/gcm.c gctx->src = sg_next(pctx->src); gctx 521 crypto/gcm.c gctx->cryptlen = cryptlen; gctx 522 crypto/gcm.c gctx->complete = gcm_dec_hash_continue; gctx 114 drivers/crypto/chelsio/chcr_algo.c static inline struct chcr_gcm_ctx *GCM_CTX(struct chcr_aead_ctx *gctx) gctx 116 drivers/crypto/chelsio/chcr_algo.c return gctx->ctx->gcm; gctx 119 drivers/crypto/chelsio/chcr_algo.c static inline struct chcr_authenc_ctx *AUTHENC_CTX(struct chcr_aead_ctx *gctx) gctx 121 drivers/crypto/chelsio/chcr_algo.c return gctx->ctx->authenc; gctx 3345 drivers/crypto/chelsio/chcr_algo.c struct chcr_gcm_ctx *gctx = GCM_CTX(aeadctx); gctx 3395 drivers/crypto/chelsio/chcr_algo.c memset(gctx->ghash_h, 0, AEAD_H_SIZE); gctx 3396 drivers/crypto/chelsio/chcr_algo.c aes_encrypt(&aes, gctx->ghash_h, gctx->ghash_h); gctx 883 drivers/crypto/mediatek/mtk-aes.c struct mtk_aes_gcm_ctx *gctx = mtk_aes_gcm_ctx_cast(ctx); gctx 893 drivers/crypto/mediatek/mtk-aes.c info->cmd[cnt++] = AES_GCM_CMD3 | cpu_to_le32(gctx->textlen); gctx 896 drivers/crypto/mediatek/mtk-aes.c info->cmd[cnt++] = AES_GCM_CMD4 | cpu_to_le32(gctx->authsize); gctx 899 drivers/crypto/mediatek/mtk-aes.c info->cmd[cnt++] = AES_GCM_CMD5 | cpu_to_le32(gctx->authsize); gctx 900 drivers/crypto/mediatek/mtk-aes.c info->cmd[cnt++] = AES_GCM_CMD6 | cpu_to_le32(gctx->authsize); gctx 960 drivers/crypto/mediatek/mtk-aes.c struct mtk_aes_gcm_ctx *gctx = mtk_aes_gcm_ctx_cast(aes->ctx); gctx 972 drivers/crypto/mediatek/mtk-aes.c aes->total = len + gctx->authsize; gctx 974 drivers/crypto/mediatek/mtk-aes.c scatterwalk_map_and_copy(tag, req->dst, len, gctx->authsize, 1); gctx 986 drivers/crypto/mediatek/mtk-aes.c struct mtk_aes_gcm_ctx *gctx = mtk_aes_gcm_ctx_cast(ctx); gctx 996 drivers/crypto/mediatek/mtk-aes.c gctx->textlen = req->cryptlen - (enc ? 0 : gctx->authsize); gctx 999 drivers/crypto/mediatek/mtk-aes.c if (!gctx->textlen && !req->assoclen) gctx 1016 drivers/crypto/mediatek/mtk-aes.c struct mtk_aes_gcm_ctx *gctx = mtk_aes_gcm_ctx_cast(ctx); gctx 1017 drivers/crypto/mediatek/mtk-aes.c struct crypto_skcipher *ctr = gctx->ctr; gctx 1088 drivers/crypto/mediatek/mtk-aes.c struct mtk_aes_gcm_ctx *gctx = mtk_aes_gcm_ctx_cast(ctx); gctx 1100 drivers/crypto/mediatek/mtk-aes.c gctx->authsize = authsize; gctx 180 drivers/gpu/drm/amd/amdgpu/atom.c struct atom_context *gctx = ctx->ctx; gctx 189 drivers/gpu/drm/amd/amdgpu/atom.c idx += gctx->reg_block; gctx 190 drivers/gpu/drm/amd/amdgpu/atom.c switch (gctx->io_mode) { gctx 192 drivers/gpu/drm/amd/amdgpu/atom.c val = gctx->card->reg_read(gctx->card, idx); gctx 201 drivers/gpu/drm/amd/amdgpu/atom.c if (!(gctx->io_mode & 0x80)) { gctx 205 drivers/gpu/drm/amd/amdgpu/atom.c if (!gctx->iio[gctx->io_mode & 0x7F]) { gctx 207 drivers/gpu/drm/amd/amdgpu/atom.c gctx->io_mode & 0x7F); gctx 211 drivers/gpu/drm/amd/amdgpu/atom.c atom_iio_execute(gctx, gctx 212 drivers/gpu/drm/amd/amdgpu/atom.c gctx->iio[gctx->io_mode & 0x7F], gctx 232 drivers/gpu/drm/amd/amdgpu/atom.c val = gctx->divmul[0]; gctx 235 drivers/gpu/drm/amd/amdgpu/atom.c val = gctx->divmul[1]; gctx 238 drivers/gpu/drm/amd/amdgpu/atom.c val = gctx->data_block; gctx 241 drivers/gpu/drm/amd/amdgpu/atom.c val = gctx->shift; gctx 244 drivers/gpu/drm/amd/amdgpu/atom.c val = 1 << gctx->shift; gctx 247 drivers/gpu/drm/amd/amdgpu/atom.c val = ~(1 << gctx->shift); gctx 250 drivers/gpu/drm/amd/amdgpu/atom.c val = gctx->fb_base; gctx 253 drivers/gpu/drm/amd/amdgpu/atom.c val = gctx->io_attr; gctx 256 drivers/gpu/drm/amd/amdgpu/atom.c val = gctx->reg_block; gctx 266 drivers/gpu/drm/amd/amdgpu/atom.c if (gctx->data_block) gctx 267 drivers/gpu/drm/amd/amdgpu/atom.c DEBUG("ID[0x%04X+%04X]", idx, gctx->data_block); gctx 271 drivers/gpu/drm/amd/amdgpu/atom.c val = U32(idx + gctx->data_block); gctx 276 drivers/gpu/drm/amd/amdgpu/atom.c if ((gctx->fb_base + (idx * 4)) > gctx->scratch_size_bytes) { gctx 278 drivers/gpu/drm/amd/amdgpu/atom.c gctx->fb_base + (idx * 4), gctx->scratch_size_bytes); gctx 281 drivers/gpu/drm/amd/amdgpu/atom.c val = gctx->scratch[(gctx->fb_base / 4) + idx]; gctx 317 drivers/gpu/drm/amd/amdgpu/atom.c val = gctx->card->pll_read(gctx->card, idx); gctx 324 drivers/gpu/drm/amd/amdgpu/atom.c val = gctx->card->mc_read(gctx->card, idx); gctx 450 drivers/gpu/drm/amd/amdgpu/atom.c struct atom_context *gctx = ctx->ctx; gctx 461 drivers/gpu/drm/amd/amdgpu/atom.c idx += gctx->reg_block; gctx 462 drivers/gpu/drm/amd/amdgpu/atom.c switch (gctx->io_mode) { gctx 465 drivers/gpu/drm/amd/amdgpu/atom.c gctx->card->reg_write(gctx->card, idx, gctx 468 drivers/gpu/drm/amd/amdgpu/atom.c gctx->card->reg_write(gctx->card, idx, val); gctx 477 drivers/gpu/drm/amd/amdgpu/atom.c if (!(gctx->io_mode & 0x80)) { gctx 481 drivers/gpu/drm/amd/amdgpu/atom.c if (!gctx->iio[gctx->io_mode & 0xFF]) { gctx 483 drivers/gpu/drm/amd/amdgpu/atom.c gctx->io_mode & 0x7F); gctx 486 drivers/gpu/drm/amd/amdgpu/atom.c atom_iio_execute(gctx, gctx->iio[gctx->io_mode & 0xFF], gctx 502 drivers/gpu/drm/amd/amdgpu/atom.c gctx->divmul[0] = val; gctx 505 drivers/gpu/drm/amd/amdgpu/atom.c gctx->divmul[1] = val; gctx 508 drivers/gpu/drm/amd/amdgpu/atom.c gctx->data_block = val; gctx 511 drivers/gpu/drm/amd/amdgpu/atom.c gctx->shift = val; gctx 517 drivers/gpu/drm/amd/amdgpu/atom.c gctx->fb_base = val; gctx 520 drivers/gpu/drm/amd/amdgpu/atom.c gctx->io_attr = val; gctx 523 drivers/gpu/drm/amd/amdgpu/atom.c gctx->reg_block = val; gctx 532 drivers/gpu/drm/amd/amdgpu/atom.c if ((gctx->fb_base + (idx * 4)) > gctx->scratch_size_bytes) { gctx 534 drivers/gpu/drm/amd/amdgpu/atom.c gctx->fb_base + (idx * 4), gctx->scratch_size_bytes); gctx 536 drivers/gpu/drm/amd/amdgpu/atom.c gctx->scratch[(gctx->fb_base / 4) + idx] = val; gctx 543 drivers/gpu/drm/amd/amdgpu/atom.c gctx->card->pll_write(gctx->card, idx, val); gctx 549 drivers/gpu/drm/amd/amdgpu/atom.c gctx->card->mc_write(gctx->card, idx, val); gctx 186 drivers/gpu/drm/radeon/atom.c struct atom_context *gctx = ctx->ctx; gctx 195 drivers/gpu/drm/radeon/atom.c idx += gctx->reg_block; gctx 196 drivers/gpu/drm/radeon/atom.c switch (gctx->io_mode) { gctx 198 drivers/gpu/drm/radeon/atom.c val = gctx->card->reg_read(gctx->card, idx); gctx 207 drivers/gpu/drm/radeon/atom.c if (!(gctx->io_mode & 0x80)) { gctx 211 drivers/gpu/drm/radeon/atom.c if (!gctx->iio[gctx->io_mode & 0x7F]) { gctx 213 drivers/gpu/drm/radeon/atom.c gctx->io_mode & 0x7F); gctx 217 drivers/gpu/drm/radeon/atom.c atom_iio_execute(gctx, gctx 218 drivers/gpu/drm/radeon/atom.c gctx->iio[gctx->io_mode & 0x7F], gctx 238 drivers/gpu/drm/radeon/atom.c val = gctx->divmul[0]; gctx 241 drivers/gpu/drm/radeon/atom.c val = gctx->divmul[1]; gctx 244 drivers/gpu/drm/radeon/atom.c val = gctx->data_block; gctx 247 drivers/gpu/drm/radeon/atom.c val = gctx->shift; gctx 250 drivers/gpu/drm/radeon/atom.c val = 1 << gctx->shift; gctx 253 drivers/gpu/drm/radeon/atom.c val = ~(1 << gctx->shift); gctx 256 drivers/gpu/drm/radeon/atom.c val = gctx->fb_base; gctx 259 drivers/gpu/drm/radeon/atom.c val = gctx->io_attr; gctx 262 drivers/gpu/drm/radeon/atom.c val = gctx->reg_block; gctx 272 drivers/gpu/drm/radeon/atom.c if (gctx->data_block) gctx 273 drivers/gpu/drm/radeon/atom.c DEBUG("ID[0x%04X+%04X]", idx, gctx->data_block); gctx 277 drivers/gpu/drm/radeon/atom.c val = U32(idx + gctx->data_block); gctx 282 drivers/gpu/drm/radeon/atom.c if ((gctx->fb_base + (idx * 4)) > gctx->scratch_size_bytes) { gctx 284 drivers/gpu/drm/radeon/atom.c gctx->fb_base + (idx * 4), gctx->scratch_size_bytes); gctx 287 drivers/gpu/drm/radeon/atom.c val = gctx->scratch[(gctx->fb_base / 4) + idx]; gctx 323 drivers/gpu/drm/radeon/atom.c val = gctx->card->pll_read(gctx->card, idx); gctx 330 drivers/gpu/drm/radeon/atom.c val = gctx->card->mc_read(gctx->card, idx); gctx 456 drivers/gpu/drm/radeon/atom.c struct atom_context *gctx = ctx->ctx; gctx 467 drivers/gpu/drm/radeon/atom.c idx += gctx->reg_block; gctx 468 drivers/gpu/drm/radeon/atom.c switch (gctx->io_mode) { gctx 471 drivers/gpu/drm/radeon/atom.c gctx->card->reg_write(gctx->card, idx, gctx 474 drivers/gpu/drm/radeon/atom.c gctx->card->reg_write(gctx->card, idx, val); gctx 483 drivers/gpu/drm/radeon/atom.c if (!(gctx->io_mode & 0x80)) { gctx 487 drivers/gpu/drm/radeon/atom.c if (!gctx->iio[gctx->io_mode & 0xFF]) { gctx 489 drivers/gpu/drm/radeon/atom.c gctx->io_mode & 0x7F); gctx 492 drivers/gpu/drm/radeon/atom.c atom_iio_execute(gctx, gctx->iio[gctx->io_mode & 0xFF], gctx 508 drivers/gpu/drm/radeon/atom.c gctx->divmul[0] = val; gctx 511 drivers/gpu/drm/radeon/atom.c gctx->divmul[1] = val; gctx 514 drivers/gpu/drm/radeon/atom.c gctx->data_block = val; gctx 517 drivers/gpu/drm/radeon/atom.c gctx->shift = val; gctx 523 drivers/gpu/drm/radeon/atom.c gctx->fb_base = val; gctx 526 drivers/gpu/drm/radeon/atom.c gctx->io_attr = val; gctx 529 drivers/gpu/drm/radeon/atom.c gctx->reg_block = val; gctx 538 drivers/gpu/drm/radeon/atom.c if ((gctx->fb_base + (idx * 4)) > gctx->scratch_size_bytes) { gctx 540 drivers/gpu/drm/radeon/atom.c gctx->fb_base + (idx * 4), gctx->scratch_size_bytes); gctx 542 drivers/gpu/drm/radeon/atom.c gctx->scratch[(gctx->fb_base / 4) + idx] = val; gctx 549 drivers/gpu/drm/radeon/atom.c gctx->card->pll_write(gctx->card, idx, val); gctx 555 drivers/gpu/drm/radeon/atom.c gctx->card->mc_write(gctx->card, idx, val); gctx 10868 kernel/events/core.c struct perf_event_context *gctx; gctx 10872 kernel/events/core.c gctx = READ_ONCE(group_leader->ctx); gctx 10873 kernel/events/core.c if (!refcount_inc_not_zero(&gctx->refcount)) { gctx 10879 kernel/events/core.c mutex_lock_double(&gctx->mutex, &ctx->mutex); gctx 10881 kernel/events/core.c if (group_leader->ctx != gctx) { gctx 10883 kernel/events/core.c mutex_unlock(&gctx->mutex); gctx 10884 kernel/events/core.c put_ctx(gctx); gctx 10888 kernel/events/core.c return gctx; gctx 10906 kernel/events/core.c struct perf_event_context *ctx, *uninitialized_var(gctx); gctx 11141 kernel/events/core.c gctx = __perf_event_ctx_lock_double(group_leader, ctx); gctx 11143 kernel/events/core.c if (gctx->task == TASK_TOMBSTONE) { gctx 11158 kernel/events/core.c if (gctx != ctx) { gctx 11162 kernel/events/core.c perf_event_ctx_unlock(group_leader, gctx); gctx 11235 kernel/events/core.c put_ctx(gctx); gctx 11239 kernel/events/core.c put_ctx(gctx); gctx 11289 kernel/events/core.c perf_event_ctx_unlock(group_leader, gctx); gctx 11313 kernel/events/core.c perf_event_ctx_unlock(group_leader, gctx); gctx 598 net/sunrpc/auth_gss/gss_krb5_wrap.c gss_wrap_kerberos(struct gss_ctx *gctx, int offset, gctx 601 net/sunrpc/auth_gss/gss_krb5_wrap.c struct krb5_ctx *kctx = gctx->internal_ctx_id; gctx 617 net/sunrpc/auth_gss/gss_krb5_wrap.c gss_unwrap_kerberos(struct gss_ctx *gctx, int offset, gctx 620 net/sunrpc/auth_gss/gss_krb5_wrap.c struct krb5_ctx *kctx = gctx->internal_ctx_id; gctx 629 net/sunrpc/auth_gss/gss_krb5_wrap.c &gctx->slack, &gctx->align); gctx 633 net/sunrpc/auth_gss/gss_krb5_wrap.c &gctx->slack, &gctx->align);