xts_ctx           453 arch/s390/crypto/aes_s390.c 	struct s390_xts_ctx *xts_ctx = crypto_tfm_ctx(tfm);
xts_ctx           456 arch/s390/crypto/aes_s390.c 	crypto_sync_skcipher_clear_flags(xts_ctx->fallback,
xts_ctx           458 arch/s390/crypto/aes_s390.c 	crypto_sync_skcipher_set_flags(xts_ctx->fallback, tfm->crt_flags &
xts_ctx           461 arch/s390/crypto/aes_s390.c 	ret = crypto_sync_skcipher_setkey(xts_ctx->fallback, key, len);
xts_ctx           464 arch/s390/crypto/aes_s390.c 	tfm->crt_flags |= crypto_sync_skcipher_get_flags(xts_ctx->fallback) &
xts_ctx           475 arch/s390/crypto/aes_s390.c 	struct s390_xts_ctx *xts_ctx = crypto_blkcipher_ctx(tfm);
xts_ctx           476 arch/s390/crypto/aes_s390.c 	SYNC_SKCIPHER_REQUEST_ON_STACK(req, xts_ctx->fallback);
xts_ctx           479 arch/s390/crypto/aes_s390.c 	skcipher_request_set_sync_tfm(req, xts_ctx->fallback);
xts_ctx           494 arch/s390/crypto/aes_s390.c 	struct s390_xts_ctx *xts_ctx = crypto_blkcipher_ctx(tfm);
xts_ctx           495 arch/s390/crypto/aes_s390.c 	SYNC_SKCIPHER_REQUEST_ON_STACK(req, xts_ctx->fallback);
xts_ctx           498 arch/s390/crypto/aes_s390.c 	skcipher_request_set_sync_tfm(req, xts_ctx->fallback);
xts_ctx           511 arch/s390/crypto/aes_s390.c 	struct s390_xts_ctx *xts_ctx = crypto_tfm_ctx(tfm);
xts_ctx           530 arch/s390/crypto/aes_s390.c 	xts_ctx->fc = (fc && cpacf_test_func(&km_functions, fc)) ? fc : 0;
xts_ctx           531 arch/s390/crypto/aes_s390.c 	if (!xts_ctx->fc)
xts_ctx           536 arch/s390/crypto/aes_s390.c 	xts_ctx->key_len = key_len;
xts_ctx           537 arch/s390/crypto/aes_s390.c 	memcpy(xts_ctx->key, in_key, key_len);
xts_ctx           538 arch/s390/crypto/aes_s390.c 	memcpy(xts_ctx->pcc_key, in_key + key_len, key_len);
xts_ctx           545 arch/s390/crypto/aes_s390.c 	struct s390_xts_ctx *xts_ctx = crypto_blkcipher_ctx(desc->tfm);
xts_ctx           561 arch/s390/crypto/aes_s390.c 	offset = xts_ctx->key_len & 0x10;
xts_ctx           566 arch/s390/crypto/aes_s390.c 	memcpy(pcc_param.key + offset, xts_ctx->pcc_key, xts_ctx->key_len);
xts_ctx           567 arch/s390/crypto/aes_s390.c 	cpacf_pcc(xts_ctx->fc, pcc_param.key + offset);
xts_ctx           569 arch/s390/crypto/aes_s390.c 	memcpy(xts_param.key + offset, xts_ctx->key, xts_ctx->key_len);
xts_ctx           575 arch/s390/crypto/aes_s390.c 		cpacf_km(xts_ctx->fc | modifier, xts_param.key + offset,
xts_ctx           586 arch/s390/crypto/aes_s390.c 	struct s390_xts_ctx *xts_ctx = crypto_blkcipher_ctx(desc->tfm);
xts_ctx           592 arch/s390/crypto/aes_s390.c 	if (unlikely(!xts_ctx->fc || (nbytes % XTS_BLOCK_SIZE) != 0))
xts_ctx           603 arch/s390/crypto/aes_s390.c 	struct s390_xts_ctx *xts_ctx = crypto_blkcipher_ctx(desc->tfm);
xts_ctx           609 arch/s390/crypto/aes_s390.c 	if (unlikely(!xts_ctx->fc || (nbytes % XTS_BLOCK_SIZE) != 0))
xts_ctx           619 arch/s390/crypto/aes_s390.c 	struct s390_xts_ctx *xts_ctx = crypto_tfm_ctx(tfm);
xts_ctx           621 arch/s390/crypto/aes_s390.c 	xts_ctx->fallback = crypto_alloc_sync_skcipher(name, 0,
xts_ctx           624 arch/s390/crypto/aes_s390.c 	if (IS_ERR(xts_ctx->fallback)) {
xts_ctx           627 arch/s390/crypto/aes_s390.c 		return PTR_ERR(xts_ctx->fallback);
xts_ctx           634 arch/s390/crypto/aes_s390.c 	struct s390_xts_ctx *xts_ctx = crypto_tfm_ctx(tfm);
xts_ctx           636 arch/s390/crypto/aes_s390.c 	crypto_free_sync_skcipher(xts_ctx->fallback);