xts_ctx 453 arch/s390/crypto/aes_s390.c struct s390_xts_ctx *xts_ctx = crypto_tfm_ctx(tfm); xts_ctx 456 arch/s390/crypto/aes_s390.c crypto_sync_skcipher_clear_flags(xts_ctx->fallback, xts_ctx 458 arch/s390/crypto/aes_s390.c crypto_sync_skcipher_set_flags(xts_ctx->fallback, tfm->crt_flags & xts_ctx 461 arch/s390/crypto/aes_s390.c ret = crypto_sync_skcipher_setkey(xts_ctx->fallback, key, len); xts_ctx 464 arch/s390/crypto/aes_s390.c tfm->crt_flags |= crypto_sync_skcipher_get_flags(xts_ctx->fallback) & xts_ctx 475 arch/s390/crypto/aes_s390.c struct s390_xts_ctx *xts_ctx = crypto_blkcipher_ctx(tfm); xts_ctx 476 arch/s390/crypto/aes_s390.c SYNC_SKCIPHER_REQUEST_ON_STACK(req, xts_ctx->fallback); xts_ctx 479 arch/s390/crypto/aes_s390.c skcipher_request_set_sync_tfm(req, xts_ctx->fallback); xts_ctx 494 arch/s390/crypto/aes_s390.c struct s390_xts_ctx *xts_ctx = crypto_blkcipher_ctx(tfm); xts_ctx 495 arch/s390/crypto/aes_s390.c SYNC_SKCIPHER_REQUEST_ON_STACK(req, xts_ctx->fallback); xts_ctx 498 arch/s390/crypto/aes_s390.c skcipher_request_set_sync_tfm(req, xts_ctx->fallback); xts_ctx 511 arch/s390/crypto/aes_s390.c struct s390_xts_ctx *xts_ctx = crypto_tfm_ctx(tfm); xts_ctx 530 arch/s390/crypto/aes_s390.c xts_ctx->fc = (fc && cpacf_test_func(&km_functions, fc)) ? fc : 0; xts_ctx 531 arch/s390/crypto/aes_s390.c if (!xts_ctx->fc) xts_ctx 536 arch/s390/crypto/aes_s390.c xts_ctx->key_len = key_len; xts_ctx 537 arch/s390/crypto/aes_s390.c memcpy(xts_ctx->key, in_key, key_len); xts_ctx 538 arch/s390/crypto/aes_s390.c memcpy(xts_ctx->pcc_key, in_key + key_len, key_len); xts_ctx 545 arch/s390/crypto/aes_s390.c struct s390_xts_ctx *xts_ctx = crypto_blkcipher_ctx(desc->tfm); xts_ctx 561 arch/s390/crypto/aes_s390.c offset = xts_ctx->key_len & 0x10; xts_ctx 566 arch/s390/crypto/aes_s390.c memcpy(pcc_param.key + offset, xts_ctx->pcc_key, xts_ctx->key_len); xts_ctx 567 arch/s390/crypto/aes_s390.c cpacf_pcc(xts_ctx->fc, pcc_param.key + offset); xts_ctx 569 arch/s390/crypto/aes_s390.c memcpy(xts_param.key + offset, xts_ctx->key, xts_ctx->key_len); xts_ctx 575 arch/s390/crypto/aes_s390.c cpacf_km(xts_ctx->fc | modifier, xts_param.key + offset, xts_ctx 586 arch/s390/crypto/aes_s390.c struct s390_xts_ctx *xts_ctx = crypto_blkcipher_ctx(desc->tfm); xts_ctx 592 arch/s390/crypto/aes_s390.c if (unlikely(!xts_ctx->fc || (nbytes % XTS_BLOCK_SIZE) != 0)) xts_ctx 603 arch/s390/crypto/aes_s390.c struct s390_xts_ctx *xts_ctx = crypto_blkcipher_ctx(desc->tfm); xts_ctx 609 arch/s390/crypto/aes_s390.c if (unlikely(!xts_ctx->fc || (nbytes % XTS_BLOCK_SIZE) != 0)) xts_ctx 619 arch/s390/crypto/aes_s390.c struct s390_xts_ctx *xts_ctx = crypto_tfm_ctx(tfm); xts_ctx 621 arch/s390/crypto/aes_s390.c xts_ctx->fallback = crypto_alloc_sync_skcipher(name, 0, xts_ctx 624 arch/s390/crypto/aes_s390.c if (IS_ERR(xts_ctx->fallback)) { xts_ctx 627 arch/s390/crypto/aes_s390.c return PTR_ERR(xts_ctx->fallback); xts_ctx 634 arch/s390/crypto/aes_s390.c struct s390_xts_ctx *xts_ctx = crypto_tfm_ctx(tfm); xts_ctx 636 arch/s390/crypto/aes_s390.c crypto_free_sync_skcipher(xts_ctx->fallback);