dq               1401 arch/mips/include/asm/octeon/cvmx-lmcx-defs.h 		uint64_t dq:5;
dq               1407 arch/mips/include/asm/octeon/cvmx-lmcx-defs.h 		uint64_t dq:5;
dq               1414 arch/mips/include/asm/octeon/cvmx-lmcx-defs.h 		uint64_t dq:4;
dq               1424 arch/mips/include/asm/octeon/cvmx-lmcx-defs.h 		uint64_t dq:4;
dq                189 crypto/async_tx/async_raid6_recov.c 	struct page *p, *q, *g, *dp, *dq;
dq                219 crypto/async_tx/async_raid6_recov.c 	dq = blocks[failb];
dq                224 crypto/async_tx/async_raid6_recov.c 	tx = async_mult(dq, g, raid6_gfexp[good], bytes, submit);
dq                234 crypto/async_tx/async_raid6_recov.c 	srcs[0] = dq;
dq                238 crypto/async_tx/async_raid6_recov.c 	tx = async_xor(dq, srcs, 0, 2, bytes, submit);
dq                242 crypto/async_tx/async_raid6_recov.c 	srcs[1] = dq;
dq                246 crypto/async_tx/async_raid6_recov.c 	tx = async_sum_product(dq, srcs, coef, bytes, submit);
dq                250 crypto/async_tx/async_raid6_recov.c 	srcs[1] = dq;
dq                263 crypto/async_tx/async_raid6_recov.c 	struct page *p, *q, *dp, *dq;
dq                281 crypto/async_tx/async_raid6_recov.c 	dq = blocks[failb];
dq                283 crypto/async_tx/async_raid6_recov.c 	blocks[disks-1] = dq;
dq                290 crypto/async_tx/async_raid6_recov.c 	blocks[failb]   = dq;
dq                302 crypto/async_tx/async_raid6_recov.c 	srcs[0] = dq;
dq                306 crypto/async_tx/async_raid6_recov.c 	tx = async_xor(dq, srcs, 0, 2, bytes, submit);
dq                310 crypto/async_tx/async_raid6_recov.c 	srcs[1] = dq;
dq                314 crypto/async_tx/async_raid6_recov.c 	tx = async_sum_product(dq, srcs, coef, bytes, submit);
dq                318 crypto/async_tx/async_raid6_recov.c 	srcs[1] = dq;
dq                413 crypto/async_tx/async_raid6_recov.c 	struct page *p, *q, *dq;
dq                466 crypto/async_tx/async_raid6_recov.c 	dq = blocks[faila];
dq                468 crypto/async_tx/async_raid6_recov.c 	blocks[disks-1] = dq;
dq                482 crypto/async_tx/async_raid6_recov.c 		tx = async_mult(dq, g, raid6_gfexp[good], bytes, submit);
dq                490 crypto/async_tx/async_raid6_recov.c 	blocks[faila]   = dq;
dq                496 crypto/async_tx/async_raid6_recov.c 	srcs[0] = dq;
dq                500 crypto/async_tx/async_raid6_recov.c 	tx = async_xor(dq, srcs, 0, 2, bytes, submit);
dq                503 crypto/async_tx/async_raid6_recov.c 	tx = async_mult(dq, dq, coef, bytes, submit);
dq                506 crypto/async_tx/async_raid6_recov.c 	srcs[1] = dq;
dq                130 crypto/rsa_helper.c 	key->dq = value;
dq               1691 drivers/ata/sata_nv.c 	struct defer_queue *dq = &pp->defer_queue;
dq               1694 drivers/ata/sata_nv.c 	WARN_ON(dq->tail - dq->head == ATA_MAX_QUEUE);
dq               1695 drivers/ata/sata_nv.c 	dq->defer_bits |= (1 << qc->hw_tag);
dq               1696 drivers/ata/sata_nv.c 	dq->tag[dq->tail++ & (ATA_MAX_QUEUE - 1)] = qc->hw_tag;
dq               1702 drivers/ata/sata_nv.c 	struct defer_queue *dq = &pp->defer_queue;
dq               1705 drivers/ata/sata_nv.c 	if (dq->head == dq->tail)	/* null queue */
dq               1708 drivers/ata/sata_nv.c 	tag = dq->tag[dq->head & (ATA_MAX_QUEUE - 1)];
dq               1709 drivers/ata/sata_nv.c 	dq->tag[dq->head++ & (ATA_MAX_QUEUE - 1)] = ATA_TAG_POISON;
dq               1710 drivers/ata/sata_nv.c 	WARN_ON(!(dq->defer_bits & (1 << tag)));
dq               1711 drivers/ata/sata_nv.c 	dq->defer_bits &= ~(1 << tag);
dq               1729 drivers/ata/sata_nv.c 	struct defer_queue *dq = &pp->defer_queue;
dq               1731 drivers/ata/sata_nv.c 	dq->head = 0;
dq               1732 drivers/ata/sata_nv.c 	dq->tail = 0;
dq               1733 drivers/ata/sata_nv.c 	dq->defer_bits = 0;
dq                622 drivers/atm/firestream.c static struct FS_BPENTRY dq[60];
dq               1194 drivers/atm/firestream.c 	dq[qd].flags = td->flags;
dq               1195 drivers/atm/firestream.c 	dq[qd].next  = td->next;
dq               1196 drivers/atm/firestream.c 	dq[qd].bsa   = td->bsa;
dq               1197 drivers/atm/firestream.c 	dq[qd].skb   = td->skb;
dq               1198 drivers/atm/firestream.c 	dq[qd].dev   = td->dev;
dq               1948 drivers/atm/firestream.c 			i, da[qd], dq[qd].flags, dq[qd].bsa, dq[qd].skb, dq[qd].dev);
dq               4816 drivers/crypto/caam/caamalg_qi2.c 	struct dpaa2_dq *dq;
dq               4820 drivers/crypto/caam/caamalg_qi2.c 		dq = dpaa2_io_store_next(ppriv->store, &is_last);
dq               4821 drivers/crypto/caam/caamalg_qi2.c 		if (unlikely(!dq)) {
dq               4837 drivers/crypto/caam/caamalg_qi2.c 		dpaa2_caam_process_fd(ppriv->priv, dpaa2_dq_fd(dq));
dq                561 drivers/crypto/caam/caampkc.c 	pdb->dq_dma = dma_map_single(dev, key->dq, q_sz, DMA_TO_DEVICE);
dq                798 drivers/crypto/caam/caampkc.c 	kzfree(key->dq);
dq                944 drivers/crypto/caam/caampkc.c 	rsa_key->dq = caam_read_rsa_crt(raw_key->dq, raw_key->dq_sz, q_sz);
dq                945 drivers/crypto/caam/caampkc.c 	if (!rsa_key->dq)
dq                958 drivers/crypto/caam/caampkc.c 	kzfree(rsa_key->dq);
dq                 76 drivers/crypto/caam/caampkc.h 	u8 *dq;
dq                 84 drivers/crypto/qat/qat_common/qat_asym_algs.c 			dma_addr_t dq;
dq                110 drivers/crypto/qat/qat_common/qat_asym_algs.c 	char *dq;
dq                859 drivers/crypto/qat/qat_common/qat_asym_algs.c 		qat_req->in.rsa.dec_crt.dq = ctx->dma_dq;
dq               1109 drivers/crypto/qat/qat_common/qat_asym_algs.c 	ptr = rsa_key->dq;
dq               1114 drivers/crypto/qat/qat_common/qat_asym_algs.c 	ctx->dq = dma_alloc_coherent(dev, half_key_sz, &ctx->dma_dq,
dq               1116 drivers/crypto/qat/qat_common/qat_asym_algs.c 	if (!ctx->dq)
dq               1118 drivers/crypto/qat/qat_common/qat_asym_algs.c 	memcpy(ctx->dq + (half_key_sz - len), ptr, len);
dq               1136 drivers/crypto/qat/qat_common/qat_asym_algs.c 	memset(ctx->dq, '\0', half_key_sz);
dq               1137 drivers/crypto/qat/qat_common/qat_asym_algs.c 	dma_free_coherent(dev, half_key_sz, ctx->dq, ctx->dma_dq);
dq               1138 drivers/crypto/qat/qat_common/qat_asym_algs.c 	ctx->dq = NULL;
dq               1180 drivers/crypto/qat/qat_common/qat_asym_algs.c 	if (ctx->dq) {
dq               1181 drivers/crypto/qat/qat_common/qat_asym_algs.c 		memset(ctx->dq, '\0', half_key_sz);
dq               1182 drivers/crypto/qat/qat_common/qat_asym_algs.c 		dma_free_coherent(dev, half_key_sz, ctx->dq, ctx->dma_dq);
dq               1195 drivers/crypto/qat/qat_common/qat_asym_algs.c 	ctx->dq = NULL;
dq                366 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h #define    CN23XX_DMA_CNT(dq)                      \
dq                367 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h 		(CN23XX_DMA_CNT_START + ((dq) * CN23XX_DMA_OFFSET))
dq                369 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h #define    CN23XX_DMA_INT_LEVEL(dq)                \
dq                370 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h 		(CN23XX_DMA_INT_LEVEL_START + ((dq) * CN23XX_DMA_OFFSET))
dq                372 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h #define    CN23XX_DMA_PKT_INT_LEVEL(dq)            \
dq                373 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h 		(CN23XX_DMA_INT_LEVEL_START + ((dq) * CN23XX_DMA_OFFSET))
dq                375 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h #define    CN23XX_DMA_TIME_INT_LEVEL(dq)           \
dq                376 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h 		(CN23XX_DMA_INT_LEVEL_START + 4 + ((dq) * CN23XX_DMA_OFFSET))
dq                378 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h #define    CN23XX_DMA_TIM(dq)                     \
dq                379 drivers/net/ethernet/cavium/liquidio/cn23xx_pf_regs.h 		(CN23XX_DMA_TIM_START + ((dq) * CN23XX_DMA_OFFSET))
dq                311 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h #define    CN6XXX_DMA_CNT(dq)                      \
dq                312 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h 	(CN6XXX_DMA_CNT_START + ((dq) * CN6XXX_DMA_OFFSET))
dq                314 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h #define    CN6XXX_DMA_INT_LEVEL(dq)                \
dq                315 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h 	(CN6XXX_DMA_INT_LEVEL_START + ((dq) * CN6XXX_DMA_OFFSET))
dq                317 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h #define    CN6XXX_DMA_PKT_INT_LEVEL(dq)            \
dq                318 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h 	(CN6XXX_DMA_INT_LEVEL_START + ((dq) * CN6XXX_DMA_OFFSET))
dq                320 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h #define    CN6XXX_DMA_TIME_INT_LEVEL(dq)           \
dq                321 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h 	(CN6XXX_DMA_INT_LEVEL_START + 4 + ((dq) * CN6XXX_DMA_OFFSET))
dq                323 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h #define    CN6XXX_DMA_TIM(dq)                      \
dq                324 drivers/net/ethernet/cavium/liquidio/cn66xx_regs.h 	(CN6XXX_DMA_TIM_START + ((dq) * CN6XXX_DMA_OFFSET))
dq               2230 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 					      const struct qm_dqrr_entry *dq)
dq               2240 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 	dpaa_bp = dpaa_bpid2pool(dq->fd.bpid);
dq               2250 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 	dpaa_rx_error(net_dev, priv, percpu_priv, &dq->fd, fq->fqid);
dq               2257 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 						const struct qm_dqrr_entry *dq)
dq               2262 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 	const struct qm_fd *fd = &dq->fd;
dq               2279 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 	dpaa_bp = dpaa_bpid2pool(dq->fd.bpid);
dq               2284 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 	trace_dpaa_rx_fd(net_dev, fq, &dq->fd);
dq               2298 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 		dpaa_fd_release(net_dev, &dq->fd);
dq               2377 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 						const struct qm_dqrr_entry *dq)
dq               2391 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 	dpaa_tx_error(net_dev, priv, percpu_priv, &dq->fd, fq->fqid);
dq               2398 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 					       const struct qm_dqrr_entry *dq)
dq               2408 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 	trace_dpaa_tx_conf_fd(net_dev, fq, &dq->fd);
dq               2415 drivers/net/ethernet/freescale/dpaa/dpaa_eth.c 	dpaa_tx_conf(net_dev, priv, percpu_priv, &dq->fd, fq->fqid);
dq                459 drivers/net/ethernet/freescale/dpaa2/dpaa2-eth.c 	struct dpaa2_dq *dq;
dq                465 drivers/net/ethernet/freescale/dpaa2/dpaa2-eth.c 		dq = dpaa2_io_store_next(ch->store, &is_last);
dq                466 drivers/net/ethernet/freescale/dpaa2/dpaa2-eth.c 		if (unlikely(!dq)) {
dq                475 drivers/net/ethernet/freescale/dpaa2/dpaa2-eth.c 		fd = dpaa2_dq_fd(dq);
dq                476 drivers/net/ethernet/freescale/dpaa2/dpaa2-eth.c 		fq = (struct dpaa2_eth_fq *)(uintptr_t)dpaa2_dq_fqd_ctx(dq);
dq               2938 drivers/s390/block/dasd.c 	struct dasd_queue *dq;
dq               2950 drivers/s390/block/dasd.c 		dq = cqr->dq;
dq               2951 drivers/s390/block/dasd.c 		spin_lock_irq(&dq->lock);
dq               2954 drivers/s390/block/dasd.c 		spin_unlock_irq(&dq->lock);
dq               2983 drivers/s390/block/dasd.c 	spin_lock_irq(&cqr->dq->lock);
dq               2986 drivers/s390/block/dasd.c 	spin_unlock_irq(&cqr->dq->lock);
dq               3040 drivers/s390/block/dasd.c 		spin_lock_irqsave(&cqr->dq->lock, flags);
dq               3044 drivers/s390/block/dasd.c 		spin_unlock_irqrestore(&cqr->dq->lock, flags);
dq               3076 drivers/s390/block/dasd.c 	struct dasd_queue *dq = hctx->driver_data;
dq               3083 drivers/s390/block/dasd.c 	spin_lock_irq(&dq->lock);
dq               3140 drivers/s390/block/dasd.c 	cqr->dq = dq;
dq               3151 drivers/s390/block/dasd.c 	spin_unlock_irq(&dq->lock);
dq               3175 drivers/s390/block/dasd.c 	spin_lock_irqsave(&cqr->dq->lock, flags);
dq               3178 drivers/s390/block/dasd.c 		spin_unlock_irqrestore(&cqr->dq->lock, flags);
dq               3226 drivers/s390/block/dasd.c 	spin_unlock_irqrestore(&cqr->dq->lock, flags);
dq               3234 drivers/s390/block/dasd.c 	struct dasd_queue *dq = kzalloc(sizeof(*dq), GFP_KERNEL);
dq               3236 drivers/s390/block/dasd.c 	if (!dq)
dq               3239 drivers/s390/block/dasd.c 	spin_lock_init(&dq->lock);
dq               3240 drivers/s390/block/dasd.c 	hctx->driver_data = dq;
dq                174 drivers/s390/block/dasd_int.h 	struct dasd_queue *dq;
dq                 80 drivers/s390/crypto/zcrypt_cex2a.h 	unsigned char	dq[64];
dq                 93 drivers/s390/crypto/zcrypt_cex2a.h 	unsigned char	dq[128];
dq                106 drivers/s390/crypto/zcrypt_cex2a.h 	unsigned char	dq[256];
dq                108 drivers/s390/crypto/zcrypt_msgtype50.c 	unsigned char	dq[64];
dq                121 drivers/s390/crypto/zcrypt_msgtype50.c 	unsigned char	dq[128];
dq                134 drivers/s390/crypto/zcrypt_msgtype50.c 	unsigned char	dq[256];
dq                266 drivers/s390/crypto/zcrypt_msgtype50.c 	unsigned char *p, *q, *dp, *dq, *u, *inp;
dq                288 drivers/s390/crypto/zcrypt_msgtype50.c 		dq = crb1->dq + sizeof(crb1->dq) - short_len;
dq                302 drivers/s390/crypto/zcrypt_msgtype50.c 		dq = crb2->dq + sizeof(crb2->dq) - short_len;
dq                317 drivers/s390/crypto/zcrypt_msgtype50.c 		dq = crb3->dq + sizeof(crb3->dq) - short_len;
dq                330 drivers/s390/crypto/zcrypt_msgtype50.c 	    copy_from_user(dq, crt->bq_key, short_len) ||
dq                976 drivers/scsi/be2iscsi/be_cmds.c 				    struct be_queue_info *dq, int length,
dq                982 drivers/scsi/be2iscsi/be_cmds.c 	struct be_dma_mem *q_mem = &dq->dma_mem;
dq               1041 drivers/scsi/be2iscsi/be_cmds.c 		dq->id = le16_to_cpu(resp->id);
dq               1042 drivers/scsi/be2iscsi/be_cmds.c 		dq->created = true;
dq               1049 drivers/scsi/be2iscsi/be_cmds.c 		defq_ring->id = dq->id;
dq                839 drivers/scsi/be2iscsi/be_cmds.h 				    struct be_queue_info *dq, int length,
dq               3133 drivers/scsi/be2iscsi/be_main.c 	struct be_queue_info *dq, *cq;
dq               3139 drivers/scsi/be2iscsi/be_main.c 	dq = &phwi_context->be_def_hdrq[ulp_num];
dq               3141 drivers/scsi/be2iscsi/be_main.c 	mem = &dq->dma_mem;
dq               3146 drivers/scsi/be2iscsi/be_main.c 	ret = be_fill_queue(dq, mem_descr->mem_array[0].size /
dq               3158 drivers/scsi/be2iscsi/be_main.c 	ret = be_cmd_create_default_pdu_queue(&phba->ctrl, cq, dq,
dq                198 drivers/scsi/hisi_sas/hisi_sas.h 	struct hisi_sas_dq	*dq;
dq                281 drivers/scsi/hisi_sas/hisi_sas.h 	void (*start_delivery)(struct hisi_sas_dq *dq);
dq                361 drivers/scsi/hisi_sas/hisi_sas.h 	struct hisi_sas_dq dq[HISI_SAS_MAX_QUEUES];
dq                424 drivers/scsi/hisi_sas/hisi_sas_main.c 	struct hisi_sas_dq *dq;
dq                443 drivers/scsi/hisi_sas/hisi_sas_main.c 		*dq_pointer = dq = &hisi_hba->dq[dq_index];
dq                445 drivers/scsi/hisi_sas/hisi_sas_main.c 		*dq_pointer = dq = sas_dev->dq;
dq                492 drivers/scsi/hisi_sas/hisi_sas_main.c 	spin_lock_irqsave(&dq->lock, flags);
dq                493 drivers/scsi/hisi_sas/hisi_sas_main.c 	wr_q_index = dq->wr_point;
dq                494 drivers/scsi/hisi_sas/hisi_sas_main.c 	dq->wr_point = (dq->wr_point + 1) % HISI_SAS_QUEUE_SLOTS;
dq                495 drivers/scsi/hisi_sas/hisi_sas_main.c 	list_add_tail(&slot->delivery, &dq->list);
dq                496 drivers/scsi/hisi_sas/hisi_sas_main.c 	spin_unlock_irqrestore(&dq->lock, flags);
dq                501 drivers/scsi/hisi_sas/hisi_sas_main.c 	dlvry_queue = dq->id;
dq                570 drivers/scsi/hisi_sas/hisi_sas_main.c 	struct hisi_sas_dq *dq = NULL;
dq                604 drivers/scsi/hisi_sas/hisi_sas_main.c 	rc = hisi_sas_task_prep(task, &dq, is_tmf, tmf, &pass);
dq                609 drivers/scsi/hisi_sas/hisi_sas_main.c 		spin_lock_irqsave(&dq->lock, flags);
dq                610 drivers/scsi/hisi_sas/hisi_sas_main.c 		hisi_hba->hw->start_delivery(dq);
dq                611 drivers/scsi/hisi_sas/hisi_sas_main.c 		spin_unlock_irqrestore(&dq->lock, flags);
dq                671 drivers/scsi/hisi_sas/hisi_sas_main.c 			struct hisi_sas_dq *dq = &hisi_hba->dq[queue];
dq                679 drivers/scsi/hisi_sas/hisi_sas_main.c 			sas_dev->dq = dq;
dq               1935 drivers/scsi/hisi_sas/hisi_sas_main.c 				  int task_tag, struct hisi_sas_dq *dq)
dq               1964 drivers/scsi/hisi_sas/hisi_sas_main.c 	spin_lock_irqsave(&dq->lock, flags);
dq               1965 drivers/scsi/hisi_sas/hisi_sas_main.c 	wr_q_index = dq->wr_point;
dq               1966 drivers/scsi/hisi_sas/hisi_sas_main.c 	dq->wr_point = (dq->wr_point + 1) % HISI_SAS_QUEUE_SLOTS;
dq               1967 drivers/scsi/hisi_sas/hisi_sas_main.c 	list_add_tail(&slot->delivery, &dq->list);
dq               1968 drivers/scsi/hisi_sas/hisi_sas_main.c 	spin_unlock_irqrestore(&dq->lock, flags);
dq               1973 drivers/scsi/hisi_sas/hisi_sas_main.c 	dlvry_queue = dq->id;
dq               2000 drivers/scsi/hisi_sas/hisi_sas_main.c 	spin_lock_irqsave(&dq->lock, flags);
dq               2001 drivers/scsi/hisi_sas/hisi_sas_main.c 	hisi_hba->hw->start_delivery(dq);
dq               2002 drivers/scsi/hisi_sas/hisi_sas_main.c 	spin_unlock_irqrestore(&dq->lock, flags);
dq               2025 drivers/scsi/hisi_sas/hisi_sas_main.c 			      int tag, struct hisi_sas_dq *dq)
dq               2053 drivers/scsi/hisi_sas/hisi_sas_main.c 						task, abort_flag, tag, dq);
dq               2118 drivers/scsi/hisi_sas/hisi_sas_main.c 	struct hisi_sas_dq *dq;
dq               2124 drivers/scsi/hisi_sas/hisi_sas_main.c 		dq = &hisi_hba->dq[slot->dlvry_queue];
dq               2126 drivers/scsi/hisi_sas/hisi_sas_main.c 						     abort_flag, tag, dq);
dq               2134 drivers/scsi/hisi_sas/hisi_sas_main.c 			dq = &hisi_hba->dq[i];
dq               2137 drivers/scsi/hisi_sas/hisi_sas_main.c 							   dq);
dq               2275 drivers/scsi/hisi_sas/hisi_sas_main.c 		struct hisi_sas_dq *dq = &hisi_hba->dq[i];
dq               2282 drivers/scsi/hisi_sas/hisi_sas_main.c 		dq->wr_point = 0;
dq               2327 drivers/scsi/hisi_sas/hisi_sas_main.c 		struct hisi_sas_dq *dq = &hisi_hba->dq[i];
dq               2334 drivers/scsi/hisi_sas/hisi_sas_main.c 		spin_lock_init(&dq->lock);
dq               2335 drivers/scsi/hisi_sas/hisi_sas_main.c 		INIT_LIST_HEAD(&dq->list);
dq               2336 drivers/scsi/hisi_sas/hisi_sas_main.c 		dq->id = i;
dq               2337 drivers/scsi/hisi_sas/hisi_sas_main.c 		dq->hisi_hba = hisi_hba;
dq               3025 drivers/scsi/hisi_sas/hisi_sas_main.c 	struct hisi_sas_dq *dq = dq_ptr;
dq               3026 drivers/scsi/hisi_sas/hisi_sas_main.c 	struct hisi_hba *hisi_hba = dq->hisi_hba;
dq               3027 drivers/scsi/hisi_sas/hisi_sas_main.c 	void *cmd_queue = hisi_hba->debugfs_cmd_hdr[dq->id];
dq               3232 drivers/scsi/hisi_sas/hisi_sas_main.c 		debugfs_create_file(name, 0400, dentry, &hisi_hba->dq[d],
dq                861 drivers/scsi/hisi_sas/hisi_sas_v1_hw.c static void start_delivery_v1_hw(struct hisi_sas_dq *dq)
dq                863 drivers/scsi/hisi_sas/hisi_sas_v1_hw.c 	struct hisi_hba *hisi_hba = dq->hisi_hba;
dq                865 drivers/scsi/hisi_sas/hisi_sas_v1_hw.c 	int dlvry_queue = dq->id;
dq                868 drivers/scsi/hisi_sas/hisi_sas_v1_hw.c 	list_for_each_entry_safe(s, s1, &dq->list, delivery) {
dq                862 drivers/scsi/hisi_sas/hisi_sas_v2_hw.c 			struct hisi_sas_dq *dq = &hisi_hba->dq[queue];
dq                871 drivers/scsi/hisi_sas/hisi_sas_v2_hw.c 			sas_dev->dq = dq;
dq               1641 drivers/scsi/hisi_sas/hisi_sas_v2_hw.c static void start_delivery_v2_hw(struct hisi_sas_dq *dq)
dq               1643 drivers/scsi/hisi_sas/hisi_sas_v2_hw.c 	struct hisi_hba *hisi_hba = dq->hisi_hba;
dq               1645 drivers/scsi/hisi_sas/hisi_sas_v2_hw.c 	int dlvry_queue = dq->id;
dq               1648 drivers/scsi/hisi_sas/hisi_sas_v2_hw.c 	list_for_each_entry_safe(s, s1, &dq->list, delivery) {
dq               1022 drivers/scsi/hisi_sas/hisi_sas_v3_hw.c static void start_delivery_v3_hw(struct hisi_sas_dq *dq)
dq               1024 drivers/scsi/hisi_sas/hisi_sas_v3_hw.c 	struct hisi_hba *hisi_hba = dq->hisi_hba;
dq               1026 drivers/scsi/hisi_sas/hisi_sas_v3_hw.c 	int dlvry_queue = dq->id;
dq               1029 drivers/scsi/hisi_sas/hisi_sas_v3_hw.c 	list_for_each_entry_safe(s, s1, &dq->list, delivery) {
dq                264 drivers/scsi/lpfc/lpfc_crtn.h int lpfc_sli4_rq_put(struct lpfc_queue *hq, struct lpfc_queue *dq,
dq                654 drivers/scsi/lpfc/lpfc_sli.c lpfc_sli4_rq_put(struct lpfc_queue *hq, struct lpfc_queue *dq,
dq                664 drivers/scsi/lpfc/lpfc_sli.c 	if (unlikely(!hq) || unlikely(!dq))
dq                667 drivers/scsi/lpfc/lpfc_sli.c 	dq_put_index = dq->host_index;
dq                669 drivers/scsi/lpfc/lpfc_sli.c 	temp_drqe = lpfc_sli4_qe(dq, dq_put_index);
dq                671 drivers/scsi/lpfc/lpfc_sli.c 	if (hq->type != LPFC_HRQ || dq->type != LPFC_DRQ)
dq                679 drivers/scsi/lpfc/lpfc_sli.c 	lpfc_sli4_pcimem_bcopy(drqe, temp_drqe, dq->entry_size);
dq                683 drivers/scsi/lpfc/lpfc_sli.c 	dq->host_index = ((dq_put_index + 1) % dq->entry_count);
dq                718 drivers/scsi/lpfc/lpfc_sli.c lpfc_sli4_rq_release(struct lpfc_queue *hq, struct lpfc_queue *dq)
dq                721 drivers/scsi/lpfc/lpfc_sli.c 	if (unlikely(!hq) || unlikely(!dq))
dq                724 drivers/scsi/lpfc/lpfc_sli.c 	if ((hq->type != LPFC_HRQ) || (dq->type != LPFC_DRQ))
dq                727 drivers/scsi/lpfc/lpfc_sli.c 	dq->hba_index = ((dq->hba_index + 1) % dq->entry_count);
dq               1207 drivers/scsi/qlogicpti.c 	struct scsi_cmnd *dq;
dq               1210 drivers/scsi/qlogicpti.c 	dq = qlogicpti_intr_handler(qpti);
dq               1212 drivers/scsi/qlogicpti.c 	if (dq != NULL) {
dq               1216 drivers/scsi/qlogicpti.c 			next = (struct scsi_cmnd *) dq->host_scribble;
dq               1217 drivers/scsi/qlogicpti.c 			dq->scsi_done(dq);
dq               1218 drivers/scsi/qlogicpti.c 			dq = next;
dq               1219 drivers/scsi/qlogicpti.c 		} while (dq != NULL);
dq                188 drivers/soc/fsl/dpio/dpio-service.c 	const struct dpaa2_dq *dq;
dq                198 drivers/soc/fsl/dpio/dpio-service.c 	dq = qbman_swp_dqrr_next(swp);
dq                199 drivers/soc/fsl/dpio/dpio-service.c 	while (dq) {
dq                200 drivers/soc/fsl/dpio/dpio-service.c 		if (qbman_result_is_SCN(dq)) {
dq                204 drivers/soc/fsl/dpio/dpio-service.c 			q64 = qbman_result_SCN_ctx(dq);
dq                210 drivers/soc/fsl/dpio/dpio-service.c 		qbman_swp_dqrr_consume(swp, dq);
dq                214 drivers/soc/fsl/dpio/dpio-service.c 		dq = qbman_swp_dqrr_next(swp);
dq                747 drivers/soc/fsl/dpio/qbman-portal.c 	verb = p->dq.verb;
dq                775 drivers/soc/fsl/dpio/qbman-portal.c 	flags = p->dq.stat;
dq                793 drivers/soc/fsl/dpio/qbman-portal.c void qbman_swp_dqrr_consume(struct qbman_swp *s, const struct dpaa2_dq *dq)
dq                795 drivers/soc/fsl/dpio/qbman-portal.c 	qbman_write_register(s, QBMAN_CINH_SWP_DCAP, QBMAN_IDX_FROM_DQRR(dq));
dq                815 drivers/soc/fsl/dpio/qbman-portal.c int qbman_result_has_new_result(struct qbman_swp *s, const struct dpaa2_dq *dq)
dq                817 drivers/soc/fsl/dpio/qbman-portal.c 	if (dq->dq.tok != QMAN_DQ_TOKEN_VALID)
dq                825 drivers/soc/fsl/dpio/qbman-portal.c 	((struct dpaa2_dq *)dq)->dq.tok = 0;
dq                832 drivers/soc/fsl/dpio/qbman-portal.c 	if (s->vdq.storage == dq) {
dq                164 drivers/soc/fsl/dpio/qbman-portal.h void qbman_swp_dqrr_consume(struct qbman_swp *s, const struct dpaa2_dq *dq);
dq                166 drivers/soc/fsl/dpio/qbman-portal.h int qbman_result_has_new_result(struct qbman_swp *p, const struct dpaa2_dq *dq);
dq                202 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_DQ(const struct dpaa2_dq *dq)
dq                204 drivers/soc/fsl/dpio/qbman-portal.h 	return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_DQ);
dq                212 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_SCN(const struct dpaa2_dq *dq)
dq                214 drivers/soc/fsl/dpio/qbman-portal.h 	return !qbman_result_is_DQ(dq);
dq                218 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_FQDAN(const struct dpaa2_dq *dq)
dq                220 drivers/soc/fsl/dpio/qbman-portal.h 	return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_FQDAN);
dq                224 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_CDAN(const struct dpaa2_dq *dq)
dq                226 drivers/soc/fsl/dpio/qbman-portal.h 	return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_CDAN);
dq                230 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_CSCN(const struct dpaa2_dq *dq)
dq                232 drivers/soc/fsl/dpio/qbman-portal.h 	return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_CSCN_WQ);
dq                236 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_BPSCN(const struct dpaa2_dq *dq)
dq                238 drivers/soc/fsl/dpio/qbman-portal.h 	return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_BPSCN);
dq                242 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_CGCU(const struct dpaa2_dq *dq)
dq                244 drivers/soc/fsl/dpio/qbman-portal.h 	return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_CGCU);
dq                248 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_FQRN(const struct dpaa2_dq *dq)
dq                250 drivers/soc/fsl/dpio/qbman-portal.h 	return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_FQRN);
dq                254 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_FQRNI(const struct dpaa2_dq *dq)
dq                256 drivers/soc/fsl/dpio/qbman-portal.h 	return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_FQRNI);
dq                260 drivers/soc/fsl/dpio/qbman-portal.h static inline int qbman_result_is_FQPN(const struct dpaa2_dq *dq)
dq                262 drivers/soc/fsl/dpio/qbman-portal.h 	return ((dq->dq.verb & QBMAN_RESULT_MASK) == QBMAN_RESULT_FQPN);
dq                699 drivers/soc/fsl/qbman/qman.c 					const struct qm_dqrr_entry *dq,
dq                703 drivers/soc/fsl/qbman/qman.c 	int idx = dqrr_ptr2idx(dq);
dq                706 drivers/soc/fsl/qbman/qman.c 	DPAA_ASSERT((dqrr->ring + idx) == dq);
dq               1612 drivers/soc/fsl/qbman/qman.c 	const struct qm_dqrr_entry *dq;
dq               1619 drivers/soc/fsl/qbman/qman.c 		dq = qm_dqrr_current(&p->p);
dq               1620 drivers/soc/fsl/qbman/qman.c 		if (!dq)
dq               1623 drivers/soc/fsl/qbman/qman.c 		if (dq->stat & QM_DQRR_STAT_UNSCHEDULED) {
dq               1636 drivers/soc/fsl/qbman/qman.c 			if (dq->stat & QM_DQRR_STAT_FQ_EMPTY)
dq               1644 drivers/soc/fsl/qbman/qman.c 			res = fq->cb.dqrr(p, fq, dq);
dq               1648 drivers/soc/fsl/qbman/qman.c 			if (dq->stat & QM_DQRR_STAT_DQCR_EXPIRED)
dq               1652 drivers/soc/fsl/qbman/qman.c 			fq = tag_to_fq(be32_to_cpu(dq->context_b));
dq               1654 drivers/soc/fsl/qbman/qman.c 			res = fq->cb.dqrr(p, fq, dq);
dq               1668 drivers/soc/fsl/qbman/qman.c 		DPAA_ASSERT((dq->stat & QM_DQRR_STAT_FQ_HELDACTIVE) ||
dq               1672 drivers/soc/fsl/qbman/qman.c 			qm_dqrr_cdc_consume_1ptr(&p->p, dq,
dq                211 drivers/soc/fsl/qbman/qman_test_api.c 					const struct qm_dqrr_entry *dq)
dq                213 drivers/soc/fsl/qbman/qman_test_api.c 	if (WARN_ON(fd_neq(&fd_dq, &dq->fd))) {
dq                218 drivers/soc/fsl/qbman/qman_test_api.c 	if (!(dq->stat & QM_DQRR_STAT_UNSCHEDULED) && !fd_neq(&fd_dq, &fd)) {
dq                 75 fs/xfs/scrub/quota.c 	struct xfs_dquot	*dq,
dq                 82 fs/xfs/scrub/quota.c 	struct xfs_disk_dquot	*d = &dq->q_core;
dq                 70 fs/xfs/xfs_dquot.c 	struct xfs_dquot	*dq)
dq                 73 fs/xfs/xfs_dquot.c 	struct xfs_disk_dquot	*d = &dq->q_core;
dq                 78 fs/xfs/xfs_dquot.c 	defq = xfs_get_defquota(dq, q);
dq                 98 fs/xfs/xfs_dquot.c 		xfs_dquot_set_prealloc_limits(dq);
dq               1251 fs/xfs/xfs_dquot.c 	struct xfs_dquot	*dq;
dq               1256 fs/xfs/xfs_dquot.c 		error = xfs_qm_dqget_next(mp, id, dqtype, &dq);
dq               1262 fs/xfs/xfs_dquot.c 		error = iter_fn(dq, dqtype, priv);
dq               1263 fs/xfs/xfs_dquot.c 		id = be32_to_cpu(dq->q_core.d_id);
dq               1264 fs/xfs/xfs_dquot.c 		xfs_qm_dqput(dq);
dq                184 fs/xfs/xfs_dquot.h typedef int (*xfs_qm_dqiterate_fn)(struct xfs_dquot *dq, uint dqtype,
dq               1556 fs/xfs/xfs_icache.c 	struct xfs_dquot *dq;
dq               1565 fs/xfs/xfs_icache.c 		dq = xfs_inode_dquot(ip, XFS_DQ_USER);
dq               1566 fs/xfs/xfs_icache.c 		if (dq && xfs_dquot_lowsp(dq)) {
dq               1574 fs/xfs/xfs_icache.c 		dq = xfs_inode_dquot(ip, XFS_DQ_GROUP);
dq               1575 fs/xfs/xfs_icache.c 		if (dq && xfs_dquot_lowsp(dq)) {
dq                320 fs/xfs/xfs_iomap.c 	struct xfs_dquot *dq = xfs_inode_dquot(ip, type);
dq                322 fs/xfs/xfs_iomap.c 	if (!dq || !xfs_this_quota_on(ip->i_mount, type))
dq                326 fs/xfs/xfs_iomap.c 	if (!dq->q_prealloc_hi_wmark)
dq                330 fs/xfs/xfs_iomap.c 	if (dq->q_res_bcount + alloc_blocks < dq->q_prealloc_lo_wmark)
dq                346 fs/xfs/xfs_iomap.c 	struct xfs_dquot *dq = xfs_inode_dquot(ip, type);
dq                349 fs/xfs/xfs_iomap.c 	if (!dq || dq->q_res_bcount >= dq->q_prealloc_hi_wmark) {
dq                355 fs/xfs/xfs_iomap.c 	freesp = dq->q_prealloc_hi_wmark - dq->q_res_bcount;
dq                356 fs/xfs/xfs_iomap.c 	if (freesp < dq->q_low_space[XFS_QLOWSP_5_PCNT]) {
dq                358 fs/xfs/xfs_iomap.c 		if (freesp < dq->q_low_space[XFS_QLOWSP_3_PCNT])
dq                360 fs/xfs/xfs_iomap.c 		if (freesp < dq->q_low_space[XFS_QLOWSP_1_PCNT])
dq                 38 include/crypto/internal/rsa.h 	const u8 *dq;
dq                 33 include/soc/fsl/dpaa2-global.h 		} dq;
dq                 68 include/soc/fsl/dpaa2-global.h static inline u32 dpaa2_dq_flags(const struct dpaa2_dq *dq)
dq                 70 include/soc/fsl/dpaa2-global.h 	return dq->dq.stat;
dq                 80 include/soc/fsl/dpaa2-global.h static inline int dpaa2_dq_is_pull(const struct dpaa2_dq *dq)
dq                 82 include/soc/fsl/dpaa2-global.h 	return (int)(dpaa2_dq_flags(dq) & DPAA2_DQ_STAT_VOLATILE);
dq                 91 include/soc/fsl/dpaa2-global.h static inline bool dpaa2_dq_is_pull_complete(const struct dpaa2_dq *dq)
dq                 93 include/soc/fsl/dpaa2-global.h 	return !!(dpaa2_dq_flags(dq) & DPAA2_DQ_STAT_EXPIRED);
dq                104 include/soc/fsl/dpaa2-global.h static inline u16 dpaa2_dq_seqnum(const struct dpaa2_dq *dq)
dq                106 include/soc/fsl/dpaa2-global.h 	return le16_to_cpu(dq->dq.seqnum);
dq                117 include/soc/fsl/dpaa2-global.h static inline u16 dpaa2_dq_odpid(const struct dpaa2_dq *dq)
dq                119 include/soc/fsl/dpaa2-global.h 	return le16_to_cpu(dq->dq.oprid);
dq                128 include/soc/fsl/dpaa2-global.h static inline u32 dpaa2_dq_fqid(const struct dpaa2_dq *dq)
dq                130 include/soc/fsl/dpaa2-global.h 	return le32_to_cpu(dq->dq.fqid) & DQ_FQID_MASK;
dq                139 include/soc/fsl/dpaa2-global.h static inline u32 dpaa2_dq_byte_count(const struct dpaa2_dq *dq)
dq                141 include/soc/fsl/dpaa2-global.h 	return le32_to_cpu(dq->dq.fq_byte_cnt);
dq                150 include/soc/fsl/dpaa2-global.h static inline u32 dpaa2_dq_frame_count(const struct dpaa2_dq *dq)
dq                152 include/soc/fsl/dpaa2-global.h 	return le32_to_cpu(dq->dq.fq_frm_cnt) & DQ_FRAME_COUNT_MASK;
dq                161 include/soc/fsl/dpaa2-global.h static inline u64 dpaa2_dq_fqd_ctx(const struct dpaa2_dq *dq)
dq                163 include/soc/fsl/dpaa2-global.h 	return le64_to_cpu(dq->dq.fqd_ctx);
dq                172 include/soc/fsl/dpaa2-global.h static inline const struct dpaa2_fd *dpaa2_dq_fd(const struct dpaa2_dq *dq)
dq                174 include/soc/fsl/dpaa2-global.h 	return (const struct dpaa2_fd *)&dq->dq.fd[0];
dq                 23 lib/raid6/recov.c 	u8 *p, *q, *dp, *dq;
dq                 37 lib/raid6/recov.c 	dq = (u8 *)ptrs[failb];
dq                 39 lib/raid6/recov.c 	ptrs[disks-1] = dq;
dq                 45 lib/raid6/recov.c 	ptrs[failb]   = dq;
dq                 56 lib/raid6/recov.c 		qx    = qmul[*q ^ *dq];
dq                 57 lib/raid6/recov.c 		*dq++ = db = pbmul[px] ^ qx; /* Reconstructed B */
dq                 67 lib/raid6/recov.c 	u8 *p, *q, *dq;
dq                 75 lib/raid6/recov.c 	dq = (u8 *)ptrs[faila];
dq                 77 lib/raid6/recov.c 	ptrs[disks-1] = dq;
dq                 82 lib/raid6/recov.c 	ptrs[faila]   = dq;
dq                 90 lib/raid6/recov.c 		*p++ ^= *dq = qmul[*q ^ *dq];
dq                 91 lib/raid6/recov.c 		q++; dq++;
dq                 21 lib/raid6/recov_avx2.c 	u8 *p, *q, *dp, *dq;
dq                 35 lib/raid6/recov_avx2.c 	dq = (u8 *)ptrs[failb];
dq                 37 lib/raid6/recov_avx2.c 	ptrs[disks-1] = dq;
dq                 43 lib/raid6/recov_avx2.c 	ptrs[failb]   = dq;
dq                 63 lib/raid6/recov_avx2.c 		asm volatile("vpxor %0, %%ymm1, %%ymm1" : : "m" (dq[0]));
dq                 64 lib/raid6/recov_avx2.c 		asm volatile("vpxor %0, %%ymm9, %%ymm9" : : "m" (dq[32]));
dq                122 lib/raid6/recov_avx2.c 		asm volatile("vmovdqa %%ymm1, %0" : "=m" (dq[0]));
dq                123 lib/raid6/recov_avx2.c 		asm volatile("vmovdqa %%ymm13,%0" : "=m" (dq[32]));
dq                134 lib/raid6/recov_avx2.c 		dq += 64;
dq                138 lib/raid6/recov_avx2.c 		asm volatile("vpxor %0, %%ymm1, %%ymm1" : : "m" (*dq));
dq                172 lib/raid6/recov_avx2.c 		asm volatile("vmovdqa %%ymm1, %0" : "=m" (dq[0]));
dq                181 lib/raid6/recov_avx2.c 		dq += 32;
dq                191 lib/raid6/recov_avx2.c 	u8 *p, *q, *dq;
dq                200 lib/raid6/recov_avx2.c 	dq = (u8 *)ptrs[faila];
dq                202 lib/raid6/recov_avx2.c 	ptrs[disks-1] = dq;
dq                207 lib/raid6/recov_avx2.c 	ptrs[faila]   = dq;
dq                219 lib/raid6/recov_avx2.c 		asm volatile("vmovdqa %0, %%ymm3" : : "m" (dq[0]));
dq                220 lib/raid6/recov_avx2.c 		asm volatile("vmovdqa %0, %%ymm8" : : "m" (dq[32]));
dq                260 lib/raid6/recov_avx2.c 		asm volatile("vmovdqa %%ymm1, %0" : "=m" (dq[0]));
dq                261 lib/raid6/recov_avx2.c 		asm volatile("vmovdqa %%ymm14, %0" : "=m" (dq[32]));
dq                268 lib/raid6/recov_avx2.c 		dq += 64;
dq                270 lib/raid6/recov_avx2.c 		asm volatile("vmovdqa %0, %%ymm3" : : "m" (dq[0]));
dq                292 lib/raid6/recov_avx2.c 		asm volatile("vmovdqa %%ymm1, %0" : "=m" (dq[0]));
dq                298 lib/raid6/recov_avx2.c 		dq += 32;
dq                 27 lib/raid6/recov_avx512.c 	u8 *p, *q, *dp, *dq;
dq                 44 lib/raid6/recov_avx512.c 	dq = (u8 *)ptrs[failb];
dq                 46 lib/raid6/recov_avx512.c 	ptrs[disks-1] = dq;
dq                 52 lib/raid6/recov_avx512.c 	ptrs[failb]   = dq;
dq                 78 lib/raid6/recov_avx512.c 			       "m" (p[64]), "m" (dq[0]), "m" (dq[64]),
dq                148 lib/raid6/recov_avx512.c 			     : "m" (dq[0]), "m" (dq[64]));
dq                159 lib/raid6/recov_avx512.c 		dq += 128;
dq                166 lib/raid6/recov_avx512.c 			     : "m" (*q), "m" (*p), "m"(*dq), "m" (*dp));
dq                209 lib/raid6/recov_avx512.c 			     : "m" (dq[0]));
dq                220 lib/raid6/recov_avx512.c 		dq += 64;
dq                230 lib/raid6/recov_avx512.c 	u8 *p, *q, *dq;
dq                242 lib/raid6/recov_avx512.c 	dq = (u8 *)ptrs[faila];
dq                244 lib/raid6/recov_avx512.c 	ptrs[disks-1] = dq;
dq                249 lib/raid6/recov_avx512.c 	ptrs[faila]   = dq;
dq                266 lib/raid6/recov_avx512.c 			     : "m" (dq[0]), "m" (dq[64]), "m" (q[0]),
dq                316 lib/raid6/recov_avx512.c 			     : "m" (dq[0]), "m" (dq[64]), "m" (p[0]),
dq                322 lib/raid6/recov_avx512.c 		dq += 128;
dq                327 lib/raid6/recov_avx512.c 			     : "m" (dq[0]), "m" (q[0]));
dq                357 lib/raid6/recov_avx512.c 			     : "m" (dq[0]), "m" (p[0]));
dq                362 lib/raid6/recov_avx512.c 		dq += 64;
dq                 23 lib/raid6/recov_neon.c 			      uint8_t *dq, const uint8_t *pbmul,
dq                 26 lib/raid6/recov_neon.c void __raid6_datap_recov_neon(int bytes, uint8_t *p, uint8_t *q, uint8_t *dq,
dq                 32 lib/raid6/recov_neon.c 	u8 *p, *q, *dp, *dq;
dq                 47 lib/raid6/recov_neon.c 	dq = (u8 *)ptrs[failb];
dq                 49 lib/raid6/recov_neon.c 	ptrs[disks - 1] = dq;
dq                 55 lib/raid6/recov_neon.c 	ptrs[failb]     = dq;
dq                 65 lib/raid6/recov_neon.c 	__raid6_2data_recov_neon(bytes, p, q, dp, dq, pbmul, qmul);
dq                 72 lib/raid6/recov_neon.c 	u8 *p, *q, *dq;
dq                 82 lib/raid6/recov_neon.c 	dq = (u8 *)ptrs[faila];
dq                 84 lib/raid6/recov_neon.c 	ptrs[disks - 1] = dq;
dq                 89 lib/raid6/recov_neon.c 	ptrs[faila]     = dq;
dq                 96 lib/raid6/recov_neon.c 	__raid6_datap_recov_neon(bytes, p, q, dq, qmul);
dq                 28 lib/raid6/recov_neon_inner.c 			      uint8_t *dq, const uint8_t *pbmul,
dq                 53 lib/raid6/recov_neon_inner.c 		vx = veorq_u8(vld1q_u8(q), vld1q_u8(dq));
dq                 66 lib/raid6/recov_neon_inner.c 		vst1q_u8(dq, db);
dq                 73 lib/raid6/recov_neon_inner.c 		dq += 16;
dq                 77 lib/raid6/recov_neon_inner.c void __raid6_datap_recov_neon(int bytes, uint8_t *p, uint8_t *q, uint8_t *dq,
dq                 94 lib/raid6/recov_neon_inner.c 		vx = veorq_u8(vld1q_u8(q), vld1q_u8(dq));
dq                102 lib/raid6/recov_neon_inner.c 		vst1q_u8(dq, vx);
dq                108 lib/raid6/recov_neon_inner.c 		dq += 16;
dq                 26 lib/raid6/recov_s390xc.c 	u8 *p, *q, *dp, *dq;
dq                 40 lib/raid6/recov_s390xc.c 	dq = (u8 *)ptrs[failb];
dq                 42 lib/raid6/recov_s390xc.c 	ptrs[disks-1] = dq;
dq                 48 lib/raid6/recov_s390xc.c 	ptrs[failb]   = dq;
dq                 59 lib/raid6/recov_s390xc.c 		xor_block(dq, q);
dq                 61 lib/raid6/recov_s390xc.c 			dq[i] = pbmul[dp[i]] ^ qmul[dq[i]];
dq                 62 lib/raid6/recov_s390xc.c 		xor_block(dp, dq);
dq                 66 lib/raid6/recov_s390xc.c 		dq += 256;
dq                 75 lib/raid6/recov_s390xc.c 	u8 *p, *q, *dq;
dq                 84 lib/raid6/recov_s390xc.c 	dq = (u8 *)ptrs[faila];
dq                 86 lib/raid6/recov_s390xc.c 	ptrs[disks-1] = dq;
dq                 91 lib/raid6/recov_s390xc.c 	ptrs[faila]   = dq;
dq                 99 lib/raid6/recov_s390xc.c 		xor_block(dq, q);
dq                101 lib/raid6/recov_s390xc.c 			dq[i] = qmul[dq[i]];
dq                102 lib/raid6/recov_s390xc.c 		xor_block(p, dq);
dq                105 lib/raid6/recov_s390xc.c 		dq += 256;
dq                 21 lib/raid6/recov_ssse3.c 	u8 *p, *q, *dp, *dq;
dq                 37 lib/raid6/recov_ssse3.c 	dq = (u8 *)ptrs[failb];
dq                 39 lib/raid6/recov_ssse3.c 	ptrs[disks-1] = dq;
dq                 45 lib/raid6/recov_ssse3.c 	ptrs[failb]   = dq;
dq                 73 lib/raid6/recov_ssse3.c 		asm volatile("pxor   %0,%%xmm1" : : "m" (dq[0]));
dq                 74 lib/raid6/recov_ssse3.c 		asm volatile("pxor   %0,%%xmm9" : : "m" (dq[16]));
dq                126 lib/raid6/recov_ssse3.c 		asm volatile("movdqa %%xmm1,%0" : "=m" (dq[0]));
dq                127 lib/raid6/recov_ssse3.c 		asm volatile("movdqa %%xmm9,%0" : "=m" (dq[16]));
dq                138 lib/raid6/recov_ssse3.c 		dq += 32;
dq                142 lib/raid6/recov_ssse3.c 		asm volatile("pxor   %0,%%xmm1" : : "m" (*dq));
dq                176 lib/raid6/recov_ssse3.c 		asm volatile("movdqa %%xmm1,%0" : "=m" (*dq));
dq                185 lib/raid6/recov_ssse3.c 		dq += 16;
dq                196 lib/raid6/recov_ssse3.c 	u8 *p, *q, *dq;
dq                207 lib/raid6/recov_ssse3.c 	dq = (u8 *)ptrs[faila];
dq                209 lib/raid6/recov_ssse3.c 	ptrs[disks-1] = dq;
dq                214 lib/raid6/recov_ssse3.c 	ptrs[faila]   = dq;
dq                226 lib/raid6/recov_ssse3.c 		asm volatile("movdqa %0, %%xmm3" : : "m" (dq[0]));
dq                227 lib/raid6/recov_ssse3.c 		asm volatile("movdqa %0, %%xmm4" : : "m" (dq[16]));
dq                273 lib/raid6/recov_ssse3.c 		asm volatile("movdqa %%xmm1, %0" : "=m" (dq[0]));
dq                274 lib/raid6/recov_ssse3.c 		asm volatile("movdqa %%xmm11, %0" : "=m" (dq[16]));
dq                282 lib/raid6/recov_ssse3.c 		dq += 32;
dq                285 lib/raid6/recov_ssse3.c 		asm volatile("movdqa %0, %%xmm3" : : "m" (dq[0]));
dq                307 lib/raid6/recov_ssse3.c 		asm volatile("movdqa %%xmm1, %0" : "=m" (dq[0]));
dq                313 lib/raid6/recov_ssse3.c 		dq += 16;