dq 1401 arch/mips/include/asm/octeon/cvmx-lmcx-defs.h uint64_t dq:5; dq 1407 arch/mips/include/asm/octeon/cvmx-lmcx-defs.h uint64_t dq:5; dq 1414 arch/mips/include/asm/octeon/cvmx-lmcx-defs.h uint64_t dq:4; dq 1424 arch/mips/include/asm/octeon/cvmx-lmcx-defs.h uint64_t dq:4; dq 189 crypto/async_tx/async_raid6_recov.c struct page *p, *q, *g, *dp, *dq; dq 219 crypto/async_tx/async_raid6_recov.c dq = blocks[failb]; dq 224 crypto/async_tx/async_raid6_recov.c tx = async_mult(dq, g, raid6_gfexp[good], bytes, submit); dq 234 crypto/async_tx/async_raid6_recov.c srcs[0] = dq; dq 238 crypto/async_tx/async_raid6_recov.c tx = async_xor(dq, srcs, 0, 2, bytes, submit); dq 242 crypto/async_tx/async_raid6_recov.c srcs[1] = dq; dq 246 crypto/async_tx/async_raid6_recov.c tx = async_sum_product(dq, srcs, coef, bytes, submit); dq 250 crypto/async_tx/async_raid6_recov.c srcs[1] = dq; dq 263 crypto/async_tx/async_raid6_recov.c struct page *p, *q, *dp, *dq; dq 281 crypto/async_tx/async_raid6_recov.c dq = blocks[failb]; dq 283 crypto/async_tx/async_raid6_recov.c blocks[disks-1] = dq; dq 290 crypto/async_tx/async_raid6_recov.c blocks[failb] = dq; dq 302 crypto/async_tx/async_raid6_recov.c srcs[0] = dq; dq 306 crypto/async_tx/async_raid6_recov.c tx = async_xor(dq, srcs, 0, 2, bytes, submit); dq 310 crypto/async_tx/async_raid6_recov.c srcs[1] = dq; dq 314 crypto/async_tx/async_raid6_recov.c tx = async_sum_product(dq, srcs, coef, bytes, submit); dq 318 crypto/async_tx/async_raid6_recov.c srcs[1] = dq; dq 413 crypto/async_tx/async_raid6_recov.c struct page *p, *q, *dq; dq 466 crypto/async_tx/async_raid6_recov.c dq = blocks[faila]; dq 468 crypto/async_tx/async_raid6_recov.c blocks[disks-1] = dq; dq 482 crypto/async_tx/async_raid6_recov.c tx = async_mult(dq, g, raid6_gfexp[good], bytes, submit); dq 490 crypto/async_tx/async_raid6_recov.c blocks[faila] = dq; dq 496 crypto/async_tx/async_raid6_recov.c srcs[0] = dq; dq 500 crypto/async_tx/async_raid6_recov.c tx = async_xor(dq, srcs, 0, 2, bytes, submit); dq 503 crypto/async_tx/async_raid6_recov.c tx = async_mult(dq, dq, coef, bytes, submit); dq 506 crypto/async_tx/async_raid6_recov.c srcs[1] = dq; dq 130 crypto/rsa_helper.c key->dq = value; dq 1691 drivers/ata/sata_nv.c struct defer_queue *dq = &pp->defer_queue; dq 1694 drivers/ata/sata_nv.c WARN_ON(dq->tail - dq->head == ATA_MAX_QUEUE); dq 1695 drivers/ata/sata_nv.c dq->defer_bits |= (1 << qc->hw_tag); dq 1696 drivers/ata/sata_nv.c dq->tag[dq->tail++ & (ATA_MAX_QUEUE - 1)] = qc->hw_tag; dq 1702 drivers/ata/sata_nv.c struct defer_queue *dq = &pp->defer_queue; dq 1705 drivers/ata/sata_nv.c if (dq->head == dq->tail) /* null queue */ dq 1708 drivers/ata/sata_nv.c tag = dq->tag[dq->head & (ATA_MAX_QUEUE - 1)]; dq 1709 drivers/ata/sata_nv.c dq->tag[dq->head++ & (ATA_MAX_QUEUE - 1)] = ATA_TAG_POISON; dq 1710 drivers/ata/sata_nv.c WARN_ON(!(dq->defer_bits & (1 << tag))); dq 1711 drivers/ata/sata_nv.c dq->defer_bits &= ~(1 << tag); dq 1729 drivers/ata/sata_nv.c struct defer_queue *dq = &pp->defer_queue; dq 1731 drivers/ata/sata_nv.c dq->head = 0; dq 1732 drivers/ata/sata_nv.c dq->tail = 0; dq 1733 drivers/ata/sata_nv.c dq->defer_bits = 0; dq 622 drivers/atm/firestream.c static struct FS_BPENTRY dq[60]; dq 1194 drivers/atm/firestream.c dq[qd].flags = td->flags; dq 1195 drivers/atm/firestream.c dq[qd].next = td->next; dq 1196 drivers/atm/firestream.c dq[qd].bsa = td->bsa; dq 1197 drivers/atm/firestream.c dq[qd].skb = td->skb; dq 1198 drivers/atm/firestream.c dq[qd].dev = td->dev; dq 1948 drivers/atm/firestream.c i, da[qd], dq[qd].flags, dq[qd].bsa, dq[qd].skb, dq[qd].dev); dq 4816 drivers/crypto/caam/caamalg_qi2.c struct dpaa2_dq *dq; dq 4820 drivers/crypto/caam/caamalg_qi2.c dq = dpaa2_io_store_next(ppriv->store, &is_last); dq 4821 drivers/crypto/caam/caamalg_qi2.c if (unlikely(!dq)) { dq 4837 drivers/crypto/caam/caamalg_qi2.c dpaa2_caam_process_fd(ppriv->priv, dpaa2_dq_fd(dq)); dq 561 drivers/crypto/caam/caampkc.c pdb->dq_dma = dma_map_single(dev, key->dq, q_sz, DMA_TO_DEVICE); dq 798 drivers/crypto/caam/caampkc.c kzfree(key->dq); dq 944 drivers/crypto/caam/caampkc.c rsa_key->dq = caam_read_rsa_crt(raw_key->dq, raw_key->dq_sz, q_sz); dq 945 drivers/crypto/caam/caampkc.c if (!rsa_key->dq) dq 958 drivers/crypto/caam/caampkc.c kzfree(rsa_key->dq); dq 76 drivers/crypto/caam/caampkc.h u8 *dq; dq 84 drivers/crypto/qat/qat_common/qat_asym_algs.c dma_addr_t dq; dq 110 drivers/crypto/qat/qat_common/qat_asym_algs.c char *dq; dq 859 drivers/crypto/qat/qat_common/qat_asym_algs.c qat_req->in.rsa.dec_crt.dq = ctx->dma_dq; dq 1109 drivers/crypto/qat/qat_common/qat_asym_algs.c ptr = rsa_key->dq; dq 1114 drivers/crypto/qat/qat_common/qat_asym_algs.c ctx->dq = dma_alloc_coherent(dev, half_key_sz, &ctx->dma_dq, dq 1116 drivers/crypto/qat/qat_common/qat_asym_algs.c if (!ctx->dq) dq 1118 drivers/crypto/qat/qat_common/qat_asym_algs.c memcpy(ctx->dq + (half_key_sz - len), ptr, len); dq 1136 drivers/crypto/qat/qat_common/qat_asym_algs.c memset(ctx->dq, '\0', half_key_sz); dq 1137 drivers/crypto/qat/qat_common/qat_asym_algs.c dma_free_coherent(dev, half_key_sz, ctx->dq, ctx->dma_dq); dq 1138 drivers/crypto/qat/qat_common/qat_asym_algs.c ctx->dq = NULL; dq 1180 drivers/crypto/qat/qat_common/qat_asym_algs.c if (ctx->dq) { dq 1181 drivers/crypto/qat/qat_common/qat_asym_algs.c memset(ctx->dq, '\0', half_key_sz); dq 1182 drivers/crypto/qat/qat_common/qat_asym_algs.c dma_free_coherent(dev, half_key_sz, ctx->dq, ctx->dma_dq); dq 1195 drivers/crypto/qat/qat_common/qat_asym_algs.c ctx->dq = NULL; dq 366 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h #define CN23XX_DMA_CNT(dq) \ dq 367 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h (CN23XX_DMA_CNT_START + ((dq) * CN23XX_DMA_OFFSET)) dq 369 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h #define CN23XX_DMA_INT_LEVEL(dq) \ dq 370 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h (CN23XX_DMA_INT_LEVEL_START + ((dq) * CN23XX_DMA_OFFSET)) dq 372 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h #define CN23XX_DMA_PKT_INT_LEVEL(dq) \ dq 373 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h (CN23XX_DMA_INT_LEVEL_START + ((dq) * CN23XX_DMA_OFFSET)) dq 375 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h #define CN23XX_DMA_TIME_INT_LEVEL(dq) \ dq 376 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h (CN23XX_DMA_INT_LEVEL_START + 4 + ((dq) * CN23XX_DMA_OFFSET)) dq 378 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h #define CN23XX_DMA_TIM(dq) \ dq 379 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h (CN23XX_DMA_TIM_START + ((dq) * CN23XX_DMA_OFFSET)) dq 311 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h #define CN6XXX_DMA_CNT(dq) \ dq 312 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h (CN6XXX_DMA_CNT_START + ((dq) * CN6XXX_DMA_OFFSET)) dq 314 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h #define CN6XXX_DMA_INT_LEVEL(dq) \ dq 315 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h (CN6XXX_DMA_INT_LEVEL_START + ((dq) * CN6XXX_DMA_OFFSET)) dq 317 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h #define CN6XXX_DMA_PKT_INT_LEVEL(dq) \ dq 318 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h (CN6XXX_DMA_INT_LEVEL_START + ((dq) * CN6XXX_DMA_OFFSET)) dq 320 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h #define CN6XXX_DMA_TIME_INT_LEVEL(dq) \ dq 321 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h (CN6XXX_DMA_INT_LEVEL_START + 4 + ((dq) * CN6XXX_DMA_OFFSET)) dq 323 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h #define CN6XXX_DMA_TIM(dq) \ dq 324 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h (CN6XXX_DMA_TIM_START + ((dq) * CN6XXX_DMA_OFFSET)) dq 2230 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c const struct qm_dqrr_entry *dq) dq 2240 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c dpaa_bp = dpaa_bpid2pool(dq->fd.bpid); dq 2250 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c dpaa_rx_error(net_dev, priv, percpu_priv, &dq->fd, fq->fqid); dq 2257 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c const struct qm_dqrr_entry *dq) dq 2262 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c const struct qm_fd *fd = &dq->fd; dq 2279 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c dpaa_bp = dpaa_bpid2pool(dq->fd.bpid); dq 2284 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c trace_dpaa_rx_fd(net_dev, fq, &dq->fd); dq 2298 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c dpaa_fd_release(net_dev, &dq->fd); dq 2377 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c const struct qm_dqrr_entry *dq) dq 2391 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c dpaa_tx_error(net_dev, priv, percpu_priv, &dq->fd, fq->fqid); dq 2398 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c const struct qm_dqrr_entry *dq) dq 2408 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c trace_dpaa_tx_conf_fd(net_dev, fq, &dq->fd); dq 2415 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c dpaa_tx_conf(net_dev, priv, percpu_priv, &dq->fd, fq->fqid); dq 459 drivers/net/ethernet/freescale/dpaa2/dpaa2-eth.c struct dpaa2_dq *dq; dq 465 drivers/net/ethernet/freescale/dpaa2/dpaa2-eth.c dq = dpaa2_io_store_next(ch->store, &is_last); dq 466 drivers/net/ethernet/freescale/dpaa2/dpaa2-eth.c if (unlikely(!dq)) { dq 475 drivers/net/ethernet/freescale/dpaa2/dpaa2-eth.c fd = dpaa2_dq_fd(dq); dq 476 drivers/net/ethernet/freescale/dpaa2/dpaa2-eth.c fq = (struct dpaa2_eth_fq *)(uintptr_t)dpaa2_dq_fqd_ctx(dq); dq 2938 drivers/s390/block/dasd.c struct dasd_queue *dq; dq 2950 drivers/s390/block/dasd.c dq = cqr->dq; dq 2951 drivers/s390/block/dasd.c spin_lock_irq(&dq->lock); dq 2954 drivers/s390/block/dasd.c spin_unlock_irq(&dq->lock); dq 2983 drivers/s390/block/dasd.c spin_lock_irq(&cqr->dq->lock); dq 2986 drivers/s390/block/dasd.c spin_unlock_irq(&cqr->dq->lock); dq 3040 drivers/s390/block/dasd.c spin_lock_irqsave(&cqr->dq->lock, flags); dq 3044 drivers/s390/block/dasd.c spin_unlock_irqrestore(&cqr->dq->lock, flags); dq 3076 drivers/s390/block/dasd.c struct dasd_queue *dq = hctx->driver_data; dq 3083 drivers/s390/block/dasd.c spin_lock_irq(&dq->lock); dq 3140 drivers/s390/block/dasd.c cqr->dq = dq; dq 3151 drivers/s390/block/dasd.c spin_unlock_irq(&dq->lock); dq 3175 drivers/s390/block/dasd.c spin_lock_irqsave(&cqr->dq->lock, flags); dq 3178 drivers/s390/block/dasd.c spin_unlock_irqrestore(&cqr->dq->lock, flags); dq 3226 drivers/s390/block/dasd.c spin_unlock_irqrestore(&cqr->dq->lock, flags); dq 3234 drivers/s390/block/dasd.c struct dasd_queue *dq = kzalloc(sizeof(*dq), GFP_KERNEL); dq 3236 drivers/s390/block/dasd.c if (!dq) dq 3239 drivers/s390/block/dasd.c spin_lock_init(&dq->lock); dq 3240 drivers/s390/block/dasd.c hctx->driver_data = dq; dq 174 drivers/s390/block/dasd_int.h struct dasd_queue *dq; dq 80 drivers/s390/crypto/zcrypt_cex2a.h unsigned char dq[64]; dq 93 drivers/s390/crypto/zcrypt_cex2a.h unsigned char dq[128]; dq 106 drivers/s390/crypto/zcrypt_cex2a.h unsigned char dq[256]; dq 108 drivers/s390/crypto/zcrypt_msgtype50.c unsigned char dq[64]; dq 121 drivers/s390/crypto/zcrypt_msgtype50.c unsigned char dq[128]; dq 134 drivers/s390/crypto/zcrypt_msgtype50.c unsigned char dq[256]; dq 266 drivers/s390/crypto/zcrypt_msgtype50.c unsigned char *p, *q, *dp, *dq, *u, *inp; dq 288 drivers/s390/crypto/zcrypt_msgtype50.c dq = crb1->dq + sizeof(crb1->dq) - short_len; dq 302 drivers/s390/crypto/zcrypt_msgtype50.c dq = crb2->dq + sizeof(crb2->dq) - short_len; dq 317 drivers/s390/crypto/zcrypt_msgtype50.c dq = crb3->dq + sizeof(crb3->dq) - short_len; dq 330 drivers/s390/crypto/zcrypt_msgtype50.c copy_from_user(dq, crt->bq_key, short_len) || dq 976 drivers/scsi/be2iscsi/be_cmds.c struct be_queue_info *dq, int length, dq 982 drivers/scsi/be2iscsi/be_cmds.c struct be_dma_mem *q_mem = &dq->dma_mem; dq 1041 drivers/scsi/be2iscsi/be_cmds.c dq->id = le16_to_cpu(resp->id); dq 1042 drivers/scsi/be2iscsi/be_cmds.c dq->created = true; dq 1049 drivers/scsi/be2iscsi/be_cmds.c defq_ring->id = dq->id; dq 839 drivers/scsi/be2iscsi/be_cmds.h struct be_queue_info *dq, int length, dq 3133 drivers/scsi/be2iscsi/be_main.c struct be_queue_info *dq, *cq; dq 3139 drivers/scsi/be2iscsi/be_main.c dq = &phwi_context->be_def_hdrq[ulp_num]; dq 3141 drivers/scsi/be2iscsi/be_main.c mem = &dq->dma_mem; dq 3146 drivers/scsi/be2iscsi/be_main.c ret = be_fill_queue(dq, mem_descr->mem_array[0].size / dq 3158 drivers/scsi/be2iscsi/be_main.c ret = be_cmd_create_default_pdu_queue(&phba->ctrl, cq, dq, dq 198 drivers/scsi/hisi_sas/hisi_sas.h struct hisi_sas_dq *dq; dq 281 drivers/scsi/hisi_sas/hisi_sas.h void (*start_delivery)(struct hisi_sas_dq *dq); dq 361 drivers/scsi/hisi_sas/hisi_sas.h struct hisi_sas_dq dq[HISI_SAS_MAX_QUEUES]; dq 424 drivers/scsi/hisi_sas/hisi_sas_main.c struct hisi_sas_dq *dq; dq 443 drivers/scsi/hisi_sas/hisi_sas_main.c *dq_pointer = dq = &hisi_hba->dq[dq_index]; dq 445 drivers/scsi/hisi_sas/hisi_sas_main.c *dq_pointer = dq = sas_dev->dq; dq 492 drivers/scsi/hisi_sas/hisi_sas_main.c spin_lock_irqsave(&dq->lock, flags); dq 493 drivers/scsi/hisi_sas/hisi_sas_main.c wr_q_index = dq->wr_point; dq 494 drivers/scsi/hisi_sas/hisi_sas_main.c dq->wr_point = (dq->wr_point + 1) % HISI_SAS_QUEUE_SLOTS; dq 495 drivers/scsi/hisi_sas/hisi_sas_main.c list_add_tail(&slot->delivery, &dq->list); dq 496 drivers/scsi/hisi_sas/hisi_sas_main.c spin_unlock_irqrestore(&dq->lock, flags); dq 501 drivers/scsi/hisi_sas/hisi_sas_main.c dlvry_queue = dq->id; dq 570 drivers/scsi/hisi_sas/hisi_sas_main.c struct hisi_sas_dq *dq = NULL; dq 604 drivers/scsi/hisi_sas/hisi_sas_main.c rc = hisi_sas_task_prep(task, &dq, is_tmf, tmf, &pass); dq 609 drivers/scsi/hisi_sas/hisi_sas_main.c spin_lock_irqsave(&dq->lock, flags); dq 610 drivers/scsi/hisi_sas/hisi_sas_main.c hisi_hba->hw->start_delivery(dq); dq 611 drivers/scsi/hisi_sas/hisi_sas_main.c spin_unlock_irqrestore(&dq->lock, flags); dq 671 drivers/scsi/hisi_sas/hisi_sas_main.c struct hisi_sas_dq *dq = &hisi_hba->dq[queue]; dq 679 drivers/scsi/hisi_sas/hisi_sas_main.c sas_dev->dq = dq; dq 1935 drivers/scsi/hisi_sas/hisi_sas_main.c int task_tag, struct hisi_sas_dq *dq) dq 1964 drivers/scsi/hisi_sas/hisi_sas_main.c spin_lock_irqsave(&dq->lock, flags); dq 1965 drivers/scsi/hisi_sas/hisi_sas_main.c wr_q_index = dq->wr_point; dq 1966 drivers/scsi/hisi_sas/hisi_sas_main.c dq->wr_point = (dq->wr_point + 1) % HISI_SAS_QUEUE_SLOTS; dq 1967 drivers/scsi/hisi_sas/hisi_sas_main.c list_add_tail(&slot->delivery, &dq->list); dq 1968 drivers/scsi/hisi_sas/hisi_sas_main.c spin_unlock_irqrestore(&dq->lock, flags); dq 1973 drivers/scsi/hisi_sas/hisi_sas_main.c dlvry_queue = dq->id; dq 2000 drivers/scsi/hisi_sas/hisi_sas_main.c spin_lock_irqsave(&dq->lock, flags); dq 2001 drivers/scsi/hisi_sas/hisi_sas_main.c hisi_hba->hw->start_delivery(dq); dq 2002 drivers/scsi/hisi_sas/hisi_sas_main.c spin_unlock_irqrestore(&dq->lock, flags); dq 2025 drivers/scsi/hisi_sas/hisi_sas_main.c int tag, struct hisi_sas_dq *dq) dq 2053 drivers/scsi/hisi_sas/hisi_sas_main.c task, abort_flag, tag, dq); dq 2118 drivers/scsi/hisi_sas/hisi_sas_main.c struct hisi_sas_dq *dq; dq 2124 drivers/scsi/hisi_sas/hisi_sas_main.c dq = &hisi_hba->dq[slot->dlvry_queue]; dq 2126 drivers/scsi/hisi_sas/hisi_sas_main.c abort_flag, tag, dq); dq 2134 drivers/scsi/hisi_sas/hisi_sas_main.c dq = &hisi_hba->dq[i]; dq 2137 drivers/scsi/hisi_sas/hisi_sas_main.c dq); dq 2275 drivers/scsi/hisi_sas/hisi_sas_main.c struct hisi_sas_dq *dq = &hisi_hba->dq[i]; dq 2282 drivers/scsi/hisi_sas/hisi_sas_main.c dq->wr_point = 0; dq 2327 drivers/scsi/hisi_sas/hisi_sas_main.c struct hisi_sas_dq *dq = &hisi_hba->dq[i]; dq 2334 drivers/scsi/hisi_sas/hisi_sas_main.c spin_lock_init(&dq->lock); dq 2335 drivers/scsi/hisi_sas/hisi_sas_main.c INIT_LIST_HEAD(&dq->list); dq 2336 drivers/scsi/hisi_sas/hisi_sas_main.c dq->id = i; dq 2337 drivers/scsi/hisi_sas/hisi_sas_main.c dq->hisi_hba = hisi_hba; dq 3025 drivers/scsi/hisi_sas/hisi_sas_main.c struct hisi_sas_dq *dq = dq_ptr; dq 3026 drivers/scsi/hisi_sas/hisi_sas_main.c struct hisi_hba *hisi_hba = dq->hisi_hba; dq 3027 drivers/scsi/hisi_sas/hisi_sas_main.c void *cmd_queue = hisi_hba->debugfs_cmd_hdr[dq->id]; dq 3232 drivers/scsi/hisi_sas/hisi_sas_main.c debugfs_create_file(name, 0400, dentry, &hisi_hba->dq[d], dq 861 drivers/scsi/hisi_sas/hisi_sas_v1_hw.c static void start_delivery_v1_hw(struct hisi_sas_dq *dq) dq 863 drivers/scsi/hisi_sas/hisi_sas_v1_hw.c struct hisi_hba *hisi_hba = dq->hisi_hba; dq 865 drivers/scsi/hisi_sas/hisi_sas_v1_hw.c int dlvry_queue = dq->id; dq 868 drivers/scsi/hisi_sas/hisi_sas_v1_hw.c list_for_each_entry_safe(s, s1, &dq->list, delivery) { dq 862 drivers/scsi/hisi_sas/hisi_sas_v2_hw.c struct hisi_sas_dq *dq = &hisi_hba->dq[queue]; dq 871 drivers/scsi/hisi_sas/hisi_sas_v2_hw.c sas_dev->dq = dq; dq 1641 drivers/scsi/hisi_sas/hisi_sas_v2_hw.c static void start_delivery_v2_hw(struct hisi_sas_dq *dq) dq 1643 drivers/scsi/hisi_sas/hisi_sas_v2_hw.c struct hisi_hba *hisi_hba = dq->hisi_hba; dq 1645 drivers/scsi/hisi_sas/hisi_sas_v2_hw.c int dlvry_queue = dq->id; dq 1648 drivers/scsi/hisi_sas/hisi_sas_v2_hw.c list_for_each_entry_safe(s, s1, &dq->list, delivery) { dq 1022 drivers/scsi/hisi_sas/hisi_sas_v3_hw.c static void start_delivery_v3_hw(struct hisi_sas_dq *dq) dq 1024 drivers/scsi/hisi_sas/hisi_sas_v3_hw.c struct hisi_hba *hisi_hba = dq->hisi_hba; dq 1026 drivers/scsi/hisi_sas/hisi_sas_v3_hw.c int dlvry_queue = dq->id; dq 1029 drivers/scsi/hisi_sas/hisi_sas_v3_hw.c list_for_each_entry_safe(s, s1, &dq->list, delivery) { dq 264 drivers/scsi/lpfc/lpfc_crtn.h int lpfc_sli4_rq_put(struct lpfc_queue *hq, struct lpfc_queue *dq, dq 654 drivers/scsi/lpfc/lpfc_sli.c lpfc_sli4_rq_put(struct lpfc_queue *hq, struct lpfc_queue *dq, dq 664 drivers/scsi/lpfc/lpfc_sli.c if (unlikely(!hq) || unlikely(!dq)) dq 667 drivers/scsi/lpfc/lpfc_sli.c dq_put_index = dq->host_index; dq 669 drivers/scsi/lpfc/lpfc_sli.c temp_drqe = lpfc_sli4_qe(dq, dq_put_index); dq 671 drivers/scsi/lpfc/lpfc_sli.c if (hq->type != LPFC_HRQ || dq->type != LPFC_DRQ) dq 679 drivers/scsi/lpfc/lpfc_sli.c lpfc_sli4_pcimem_bcopy(drqe, temp_drqe, dq->entry_size); dq 683 drivers/scsi/lpfc/lpfc_sli.c dq->host_index = ((dq_put_index + 1) % dq->entry_count); dq 718 drivers/scsi/lpfc/lpfc_sli.c lpfc_sli4_rq_release(struct lpfc_queue *hq, struct lpfc_queue *dq) dq 721 drivers/scsi/lpfc/lpfc_sli.c if (unlikely(!hq) || unlikely(!dq)) dq 724 drivers/scsi/lpfc/lpfc_sli.c if ((hq->type != LPFC_HRQ) || (dq->type != LPFC_DRQ)) dq 727 drivers/scsi/lpfc/lpfc_sli.c dq->hba_index = ((dq->hba_index + 1) % dq->entry_count); dq 1207 drivers/scsi/qlogicpti.c struct scsi_cmnd *dq; dq 1210 drivers/scsi/qlogicpti.c dq = qlogicpti_intr_handler(qpti); dq 1212 drivers/scsi/qlogicpti.c if (dq != NULL) { dq 1216 drivers/scsi/qlogicpti.c next = (struct scsi_cmnd *) dq->host_scribble; dq 1217 drivers/scsi/qlogicpti.c dq->scsi_done(dq); dq 1218 drivers/scsi/qlogicpti.c dq = next; dq 1219 drivers/scsi/qlogicpti.c } while (dq != NULL); dq 188 drivers/soc/fsl/dpio/dpio-service.c const struct dpaa2_dq *dq; dq 198 drivers/soc/fsl/dpio/dpio-service.c dq = qbman_swp_dqrr_next(swp); dq 199 drivers/soc/fsl/dpio/dpio-service.c while (dq) { dq 200 drivers/soc/fsl/dpio/dpio-service.c if (qbman_result_is_SCN(dq)) { dq 204 drivers/soc/fsl/dpio/dpio-service.c q64 = qbman_result_SCN_ctx(dq); dq 210 drivers/soc/fsl/dpio/dpio-service.c qbman_swp_dqrr_consume(swp, dq); dq 214 drivers/soc/fsl/dpio/dpio-service.c dq = qbman_swp_dqrr_next(swp); dq 747 drivers/soc/fsl/dpio/qbman-portal.c verb = p->dq.verb; dq 775 drivers/soc/fsl/dpio/qbman-portal.c flags = p->dq.stat; dq 793 drivers/soc/fsl/dpio/qbman-portal.c void qbman_swp_dqrr_consume(struct qbman_swp *s, const struct dpaa2_dq *dq) dq 795 drivers/soc/fsl/dpio/qbman-portal.c qbman_write_register(s, QBMAN_CINH_SWP_DCAP, QBMAN_IDX_FROM_DQRR(dq)); dq 815 drivers/soc/fsl/dpio/qbman-portal.c int qbman_result_has_new_result(struct qbman_swp *s, const struct dpaa2_dq *dq) dq 817 drivers/soc/fsl/dpio/qbman-portal.c if (dq->dq.tok != QMAN_DQ_TOKEN_VALID) dq 825 drivers/soc/fsl/dpio/qbman-portal.c ((struct dpaa2_dq *)dq)->dq.tok = 0; dq 832 drivers/soc/fsl/dpio/qbman-portal.c if (s->vdq.storage == dq) { dq 164 drivers/soc/fsl/dpio/qbman-portal.h void qbman_swp_dqrr_consume(struct qbman_swp *s, const struct dpaa2_dq *dq); dq 166 drivers/soc/fsl/dpio/qbman-portal.h int qbman_result_has_new_result(struct qbman_swp *p, const struct dpaa2_dq *dq); dq 202 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_DQ(const struct dpaa2_dq *dq) dq 204 drivers/soc/fsl/dpio/qbman-portal.h return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_DQ); dq 212 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_SCN(const struct dpaa2_dq *dq) dq 214 drivers/soc/fsl/dpio/qbman-portal.h return !qbman_result_is_DQ(dq); dq 218 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_FQDAN(const struct dpaa2_dq *dq) dq 220 drivers/soc/fsl/dpio/qbman-portal.h return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_FQDAN); dq 224 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_CDAN(const struct dpaa2_dq *dq) dq 226 drivers/soc/fsl/dpio/qbman-portal.h return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_CDAN); dq 230 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_CSCN(const struct dpaa2_dq *dq) dq 232 drivers/soc/fsl/dpio/qbman-portal.h return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_CSCN_WQ); dq 236 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_BPSCN(const struct dpaa2_dq *dq) dq 238 drivers/soc/fsl/dpio/qbman-portal.h return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_BPSCN); dq 242 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_CGCU(const struct dpaa2_dq *dq) dq 244 drivers/soc/fsl/dpio/qbman-portal.h return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_CGCU); dq 248 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_FQRN(const struct dpaa2_dq *dq) dq 250 drivers/soc/fsl/dpio/qbman-portal.h return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_FQRN); dq 254 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_FQRNI(const struct dpaa2_dq *dq) dq 256 drivers/soc/fsl/dpio/qbman-portal.h return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_FQRNI); dq 260 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_FQPN(const struct dpaa2_dq *dq) dq 262 drivers/soc/fsl/dpio/qbman-portal.h return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_FQPN); dq 699 drivers/soc/fsl/qbman/qman.c const struct qm_dqrr_entry *dq, dq 703 drivers/soc/fsl/qbman/qman.c int idx = dqrr_ptr2idx(dq); dq 706 drivers/soc/fsl/qbman/qman.c DPAA_ASSERT((dqrr->ring + idx) == dq); dq 1612 drivers/soc/fsl/qbman/qman.c const struct qm_dqrr_entry *dq; dq 1619 drivers/soc/fsl/qbman/qman.c dq = qm_dqrr_current(&p->p); dq 1620 drivers/soc/fsl/qbman/qman.c if (!dq) dq 1623 drivers/soc/fsl/qbman/qman.c if (dq->stat & QM_DQRR_STAT_UNSCHEDULED) { dq 1636 drivers/soc/fsl/qbman/qman.c if (dq->stat & QM_DQRR_STAT_FQ_EMPTY) dq 1644 drivers/soc/fsl/qbman/qman.c res = fq->cb.dqrr(p, fq, dq); dq 1648 drivers/soc/fsl/qbman/qman.c if (dq->stat & QM_DQRR_STAT_DQCR_EXPIRED) dq 1652 drivers/soc/fsl/qbman/qman.c fq = tag_to_fq(be32_to_cpu(dq->context_b)); dq 1654 drivers/soc/fsl/qbman/qman.c res = fq->cb.dqrr(p, fq, dq); dq 1668 drivers/soc/fsl/qbman/qman.c DPAA_ASSERT((dq->stat & QM_DQRR_STAT_FQ_HELDACTIVE) || dq 1672 drivers/soc/fsl/qbman/qman.c qm_dqrr_cdc_consume_1ptr(&p->p, dq, dq 211 drivers/soc/fsl/qbman/qman_test_api.c const struct qm_dqrr_entry *dq) dq 213 drivers/soc/fsl/qbman/qman_test_api.c if (WARN_ON(fd_neq(&fd_dq, &dq->fd))) { dq 218 drivers/soc/fsl/qbman/qman_test_api.c if (!(dq->stat & QM_DQRR_STAT_UNSCHEDULED) && !fd_neq(&fd_dq, &fd)) { dq 75 fs/xfs/scrub/quota.c struct xfs_dquot *dq, dq 82 fs/xfs/scrub/quota.c struct xfs_disk_dquot *d = &dq->q_core; dq 70 fs/xfs/xfs_dquot.c struct xfs_dquot *dq) dq 73 fs/xfs/xfs_dquot.c struct xfs_disk_dquot *d = &dq->q_core; dq 78 fs/xfs/xfs_dquot.c defq = xfs_get_defquota(dq, q); dq 98 fs/xfs/xfs_dquot.c xfs_dquot_set_prealloc_limits(dq); dq 1251 fs/xfs/xfs_dquot.c struct xfs_dquot *dq; dq 1256 fs/xfs/xfs_dquot.c error = xfs_qm_dqget_next(mp, id, dqtype, &dq); dq 1262 fs/xfs/xfs_dquot.c error = iter_fn(dq, dqtype, priv); dq 1263 fs/xfs/xfs_dquot.c id = be32_to_cpu(dq->q_core.d_id); dq 1264 fs/xfs/xfs_dquot.c xfs_qm_dqput(dq); dq 184 fs/xfs/xfs_dquot.h typedef int (*xfs_qm_dqiterate_fn)(struct xfs_dquot *dq, uint dqtype, dq 1556 fs/xfs/xfs_icache.c struct xfs_dquot *dq; dq 1565 fs/xfs/xfs_icache.c dq = xfs_inode_dquot(ip, XFS_DQ_USER); dq 1566 fs/xfs/xfs_icache.c if (dq && xfs_dquot_lowsp(dq)) { dq 1574 fs/xfs/xfs_icache.c dq = xfs_inode_dquot(ip, XFS_DQ_GROUP); dq 1575 fs/xfs/xfs_icache.c if (dq && xfs_dquot_lowsp(dq)) { dq 320 fs/xfs/xfs_iomap.c struct xfs_dquot *dq = xfs_inode_dquot(ip, type); dq 322 fs/xfs/xfs_iomap.c if (!dq || !xfs_this_quota_on(ip->i_mount, type)) dq 326 fs/xfs/xfs_iomap.c if (!dq->q_prealloc_hi_wmark) dq 330 fs/xfs/xfs_iomap.c if (dq->q_res_bcount + alloc_blocks < dq->q_prealloc_lo_wmark) dq 346 fs/xfs/xfs_iomap.c struct xfs_dquot *dq = xfs_inode_dquot(ip, type); dq 349 fs/xfs/xfs_iomap.c if (!dq || dq->q_res_bcount >= dq->q_prealloc_hi_wmark) { dq 355 fs/xfs/xfs_iomap.c freesp = dq->q_prealloc_hi_wmark - dq->q_res_bcount; dq 356 fs/xfs/xfs_iomap.c if (freesp < dq->q_low_space[XFS_QLOWSP_5_PCNT]) { dq 358 fs/xfs/xfs_iomap.c if (freesp < dq->q_low_space[XFS_QLOWSP_3_PCNT]) dq 360 fs/xfs/xfs_iomap.c if (freesp < dq->q_low_space[XFS_QLOWSP_1_PCNT]) dq 38 include/crypto/internal/rsa.h const u8 *dq; dq 33 include/soc/fsl/dpaa2-global.h } dq; dq 68 include/soc/fsl/dpaa2-global.h static inline u32 dpaa2_dq_flags(const struct dpaa2_dq *dq) dq 70 include/soc/fsl/dpaa2-global.h return dq->dq.stat; dq 80 include/soc/fsl/dpaa2-global.h static inline int dpaa2_dq_is_pull(const struct dpaa2_dq *dq) dq 82 include/soc/fsl/dpaa2-global.h return (int)(dpaa2_dq_flags(dq) & DPAA2_DQ_STAT_VOLATILE); dq 91 include/soc/fsl/dpaa2-global.h static inline bool dpaa2_dq_is_pull_complete(const struct dpaa2_dq *dq) dq 93 include/soc/fsl/dpaa2-global.h return !!(dpaa2_dq_flags(dq) & DPAA2_DQ_STAT_EXPIRED); dq 104 include/soc/fsl/dpaa2-global.h static inline u16 dpaa2_dq_seqnum(const struct dpaa2_dq *dq) dq 106 include/soc/fsl/dpaa2-global.h return le16_to_cpu(dq->dq.seqnum); dq 117 include/soc/fsl/dpaa2-global.h static inline u16 dpaa2_dq_odpid(const struct dpaa2_dq *dq) dq 119 include/soc/fsl/dpaa2-global.h return le16_to_cpu(dq->dq.oprid); dq 128 include/soc/fsl/dpaa2-global.h static inline u32 dpaa2_dq_fqid(const struct dpaa2_dq *dq) dq 130 include/soc/fsl/dpaa2-global.h return le32_to_cpu(dq->dq.fqid) & DQ_FQID_MASK; dq 139 include/soc/fsl/dpaa2-global.h static inline u32 dpaa2_dq_byte_count(const struct dpaa2_dq *dq) dq 141 include/soc/fsl/dpaa2-global.h return le32_to_cpu(dq->dq.fq_byte_cnt); dq 150 include/soc/fsl/dpaa2-global.h static inline u32 dpaa2_dq_frame_count(const struct dpaa2_dq *dq) dq 152 include/soc/fsl/dpaa2-global.h return le32_to_cpu(dq->dq.fq_frm_cnt) & DQ_FRAME_COUNT_MASK; dq 161 include/soc/fsl/dpaa2-global.h static inline u64 dpaa2_dq_fqd_ctx(const struct dpaa2_dq *dq) dq 163 include/soc/fsl/dpaa2-global.h return le64_to_cpu(dq->dq.fqd_ctx); dq 172 include/soc/fsl/dpaa2-global.h static inline const struct dpaa2_fd *dpaa2_dq_fd(const struct dpaa2_dq *dq) dq 174 include/soc/fsl/dpaa2-global.h return (const struct dpaa2_fd *)&dq->dq.fd[0]; dq 23 lib/raid6/recov.c u8 *p, *q, *dp, *dq; dq 37 lib/raid6/recov.c dq = (u8 *)ptrs[failb]; dq 39 lib/raid6/recov.c ptrs[disks-1] = dq; dq 45 lib/raid6/recov.c ptrs[failb] = dq; dq 56 lib/raid6/recov.c qx = qmul[*q ^ *dq]; dq 57 lib/raid6/recov.c *dq++ = db = pbmul[px] ^ qx; /* Reconstructed B */ dq 67 lib/raid6/recov.c u8 *p, *q, *dq; dq 75 lib/raid6/recov.c dq = (u8 *)ptrs[faila]; dq 77 lib/raid6/recov.c ptrs[disks-1] = dq; dq 82 lib/raid6/recov.c ptrs[faila] = dq; dq 90 lib/raid6/recov.c *p++ ^= *dq = qmul[*q ^ *dq]; dq 91 lib/raid6/recov.c q++; dq++; dq 21 lib/raid6/recov_avx2.c u8 *p, *q, *dp, *dq; dq 35 lib/raid6/recov_avx2.c dq = (u8 *)ptrs[failb]; dq 37 lib/raid6/recov_avx2.c ptrs[disks-1] = dq; dq 43 lib/raid6/recov_avx2.c ptrs[failb] = dq; dq 63 lib/raid6/recov_avx2.c asm volatile("vpxor %0, %%ymm1, %%ymm1" : : "m" (dq[0])); dq 64 lib/raid6/recov_avx2.c asm volatile("vpxor %0, %%ymm9, %%ymm9" : : "m" (dq[32])); dq 122 lib/raid6/recov_avx2.c asm volatile("vmovdqa %%ymm1, %0" : "=m" (dq[0])); dq 123 lib/raid6/recov_avx2.c asm volatile("vmovdqa %%ymm13,%0" : "=m" (dq[32])); dq 134 lib/raid6/recov_avx2.c dq += 64; dq 138 lib/raid6/recov_avx2.c asm volatile("vpxor %0, %%ymm1, %%ymm1" : : "m" (*dq)); dq 172 lib/raid6/recov_avx2.c asm volatile("vmovdqa %%ymm1, %0" : "=m" (dq[0])); dq 181 lib/raid6/recov_avx2.c dq += 32; dq 191 lib/raid6/recov_avx2.c u8 *p, *q, *dq; dq 200 lib/raid6/recov_avx2.c dq = (u8 *)ptrs[faila]; dq 202 lib/raid6/recov_avx2.c ptrs[disks-1] = dq; dq 207 lib/raid6/recov_avx2.c ptrs[faila] = dq; dq 219 lib/raid6/recov_avx2.c asm volatile("vmovdqa %0, %%ymm3" : : "m" (dq[0])); dq 220 lib/raid6/recov_avx2.c asm volatile("vmovdqa %0, %%ymm8" : : "m" (dq[32])); dq 260 lib/raid6/recov_avx2.c asm volatile("vmovdqa %%ymm1, %0" : "=m" (dq[0])); dq 261 lib/raid6/recov_avx2.c asm volatile("vmovdqa %%ymm14, %0" : "=m" (dq[32])); dq 268 lib/raid6/recov_avx2.c dq += 64; dq 270 lib/raid6/recov_avx2.c asm volatile("vmovdqa %0, %%ymm3" : : "m" (dq[0])); dq 292 lib/raid6/recov_avx2.c asm volatile("vmovdqa %%ymm1, %0" : "=m" (dq[0])); dq 298 lib/raid6/recov_avx2.c dq += 32; dq 27 lib/raid6/recov_avx512.c u8 *p, *q, *dp, *dq; dq 44 lib/raid6/recov_avx512.c dq = (u8 *)ptrs[failb]; dq 46 lib/raid6/recov_avx512.c ptrs[disks-1] = dq; dq 52 lib/raid6/recov_avx512.c ptrs[failb] = dq; dq 78 lib/raid6/recov_avx512.c "m" (p[64]), "m" (dq[0]), "m" (dq[64]), dq 148 lib/raid6/recov_avx512.c : "m" (dq[0]), "m" (dq[64])); dq 159 lib/raid6/recov_avx512.c dq += 128; dq 166 lib/raid6/recov_avx512.c : "m" (*q), "m" (*p), "m"(*dq), "m" (*dp)); dq 209 lib/raid6/recov_avx512.c : "m" (dq[0])); dq 220 lib/raid6/recov_avx512.c dq += 64; dq 230 lib/raid6/recov_avx512.c u8 *p, *q, *dq; dq 242 lib/raid6/recov_avx512.c dq = (u8 *)ptrs[faila]; dq 244 lib/raid6/recov_avx512.c ptrs[disks-1] = dq; dq 249 lib/raid6/recov_avx512.c ptrs[faila] = dq; dq 266 lib/raid6/recov_avx512.c : "m" (dq[0]), "m" (dq[64]), "m" (q[0]), dq 316 lib/raid6/recov_avx512.c : "m" (dq[0]), "m" (dq[64]), "m" (p[0]), dq 322 lib/raid6/recov_avx512.c dq += 128; dq 327 lib/raid6/recov_avx512.c : "m" (dq[0]), "m" (q[0])); dq 357 lib/raid6/recov_avx512.c : "m" (dq[0]), "m" (p[0])); dq 362 lib/raid6/recov_avx512.c dq += 64; dq 23 lib/raid6/recov_neon.c uint8_t *dq, const uint8_t *pbmul, dq 26 lib/raid6/recov_neon.c void __raid6_datap_recov_neon(int bytes, uint8_t *p, uint8_t *q, uint8_t *dq, dq 32 lib/raid6/recov_neon.c u8 *p, *q, *dp, *dq; dq 47 lib/raid6/recov_neon.c dq = (u8 *)ptrs[failb]; dq 49 lib/raid6/recov_neon.c ptrs[disks - 1] = dq; dq 55 lib/raid6/recov_neon.c ptrs[failb] = dq; dq 65 lib/raid6/recov_neon.c __raid6_2data_recov_neon(bytes, p, q, dp, dq, pbmul, qmul); dq 72 lib/raid6/recov_neon.c u8 *p, *q, *dq; dq 82 lib/raid6/recov_neon.c dq = (u8 *)ptrs[faila]; dq 84 lib/raid6/recov_neon.c ptrs[disks - 1] = dq; dq 89 lib/raid6/recov_neon.c ptrs[faila] = dq; dq 96 lib/raid6/recov_neon.c __raid6_datap_recov_neon(bytes, p, q, dq, qmul); dq 28 lib/raid6/recov_neon_inner.c uint8_t *dq, const uint8_t *pbmul, dq 53 lib/raid6/recov_neon_inner.c vx = veorq_u8(vld1q_u8(q), vld1q_u8(dq)); dq 66 lib/raid6/recov_neon_inner.c vst1q_u8(dq, db); dq 73 lib/raid6/recov_neon_inner.c dq += 16; dq 77 lib/raid6/recov_neon_inner.c void __raid6_datap_recov_neon(int bytes, uint8_t *p, uint8_t *q, uint8_t *dq, dq 94 lib/raid6/recov_neon_inner.c vx = veorq_u8(vld1q_u8(q), vld1q_u8(dq)); dq 102 lib/raid6/recov_neon_inner.c vst1q_u8(dq, vx); dq 108 lib/raid6/recov_neon_inner.c dq += 16; dq 26 lib/raid6/recov_s390xc.c u8 *p, *q, *dp, *dq; dq 40 lib/raid6/recov_s390xc.c dq = (u8 *)ptrs[failb]; dq 42 lib/raid6/recov_s390xc.c ptrs[disks-1] = dq; dq 48 lib/raid6/recov_s390xc.c ptrs[failb] = dq; dq 59 lib/raid6/recov_s390xc.c xor_block(dq, q); dq 61 lib/raid6/recov_s390xc.c dq[i] = pbmul[dp[i]] ^ qmul[dq[i]]; dq 62 lib/raid6/recov_s390xc.c xor_block(dp, dq); dq 66 lib/raid6/recov_s390xc.c dq += 256; dq 75 lib/raid6/recov_s390xc.c u8 *p, *q, *dq; dq 84 lib/raid6/recov_s390xc.c dq = (u8 *)ptrs[faila]; dq 86 lib/raid6/recov_s390xc.c ptrs[disks-1] = dq; dq 91 lib/raid6/recov_s390xc.c ptrs[faila] = dq; dq 99 lib/raid6/recov_s390xc.c xor_block(dq, q); dq 101 lib/raid6/recov_s390xc.c dq[i] = qmul[dq[i]]; dq 102 lib/raid6/recov_s390xc.c xor_block(p, dq); dq 105 lib/raid6/recov_s390xc.c dq += 256; dq 21 lib/raid6/recov_ssse3.c u8 *p, *q, *dp, *dq; dq 37 lib/raid6/recov_ssse3.c dq = (u8 *)ptrs[failb]; dq 39 lib/raid6/recov_ssse3.c ptrs[disks-1] = dq; dq 45 lib/raid6/recov_ssse3.c ptrs[failb] = dq; dq 73 lib/raid6/recov_ssse3.c asm volatile("pxor %0,%%xmm1" : : "m" (dq[0])); dq 74 lib/raid6/recov_ssse3.c asm volatile("pxor %0,%%xmm9" : : "m" (dq[16])); dq 126 lib/raid6/recov_ssse3.c asm volatile("movdqa %%xmm1,%0" : "=m" (dq[0])); dq 127 lib/raid6/recov_ssse3.c asm volatile("movdqa %%xmm9,%0" : "=m" (dq[16])); dq 138 lib/raid6/recov_ssse3.c dq += 32; dq 142 lib/raid6/recov_ssse3.c asm volatile("pxor %0,%%xmm1" : : "m" (*dq)); dq 176 lib/raid6/recov_ssse3.c asm volatile("movdqa %%xmm1,%0" : "=m" (*dq)); dq 185 lib/raid6/recov_ssse3.c dq += 16; dq 196 lib/raid6/recov_ssse3.c u8 *p, *q, *dq; dq 207 lib/raid6/recov_ssse3.c dq = (u8 *)ptrs[faila]; dq 209 lib/raid6/recov_ssse3.c ptrs[disks-1] = dq; dq 214 lib/raid6/recov_ssse3.c ptrs[faila] = dq; dq 226 lib/raid6/recov_ssse3.c asm volatile("movdqa %0, %%xmm3" : : "m" (dq[0])); dq 227 lib/raid6/recov_ssse3.c asm volatile("movdqa %0, %%xmm4" : : "m" (dq[16])); dq 273 lib/raid6/recov_ssse3.c asm volatile("movdqa %%xmm1, %0" : "=m" (dq[0])); dq 274 lib/raid6/recov_ssse3.c asm volatile("movdqa %%xmm11, %0" : "=m" (dq[16])); dq 282 lib/raid6/recov_ssse3.c dq += 32; dq 285 lib/raid6/recov_ssse3.c asm volatile("movdqa %0, %%xmm3" : : "m" (dq[0])); dq 307 lib/raid6/recov_ssse3.c asm volatile("movdqa %%xmm1, %0" : "=m" (dq[0])); dq 313 lib/raid6/recov_ssse3.c dq += 16;