Lines Matching refs:rxb
239 struct iwl_rx_mem_buffer *rxb; in iwl_pcie_rxq_restock() local
255 rxb = rxq->queue[rxq->write]; in iwl_pcie_rxq_restock()
256 BUG_ON(rxb && rxb->page); in iwl_pcie_rxq_restock()
259 rxb = list_first_entry(&rxq->rx_free, struct iwl_rx_mem_buffer, in iwl_pcie_rxq_restock()
261 list_del(&rxb->list); in iwl_pcie_rxq_restock()
264 rxq->bd[rxq->write] = iwl_pcie_dma_addr2rbd_ptr(rxb->page_dma); in iwl_pcie_rxq_restock()
265 rxq->queue[rxq->write] = rxb; in iwl_pcie_rxq_restock()
332 struct iwl_rx_mem_buffer *rxb; in iwl_pcie_rxq_alloc_rbs() local
355 rxb = list_first_entry(&rxq->rx_used, struct iwl_rx_mem_buffer, in iwl_pcie_rxq_alloc_rbs()
357 list_del(&rxb->list); in iwl_pcie_rxq_alloc_rbs()
360 BUG_ON(rxb->page); in iwl_pcie_rxq_alloc_rbs()
361 rxb->page = page; in iwl_pcie_rxq_alloc_rbs()
363 rxb->page_dma = in iwl_pcie_rxq_alloc_rbs()
367 if (dma_mapping_error(trans->dev, rxb->page_dma)) { in iwl_pcie_rxq_alloc_rbs()
368 rxb->page = NULL; in iwl_pcie_rxq_alloc_rbs()
370 list_add(&rxb->list, &rxq->rx_used); in iwl_pcie_rxq_alloc_rbs()
376 BUG_ON(rxb->page_dma & ~DMA_BIT_MASK(36)); in iwl_pcie_rxq_alloc_rbs()
378 BUG_ON(rxb->page_dma & DMA_BIT_MASK(8)); in iwl_pcie_rxq_alloc_rbs()
382 list_add_tail(&rxb->list, &rxq->rx_free); in iwl_pcie_rxq_alloc_rbs()
451 struct iwl_rx_mem_buffer *rxb; in iwl_pcie_rx_allocator() local
461 rxb = list_first_entry(&local_empty, in iwl_pcie_rx_allocator()
463 BUG_ON(rxb->page); in iwl_pcie_rx_allocator()
469 rxb->page = page; in iwl_pcie_rx_allocator()
472 rxb->page_dma = dma_map_page(trans->dev, page, 0, in iwl_pcie_rx_allocator()
475 if (dma_mapping_error(trans->dev, rxb->page_dma)) { in iwl_pcie_rx_allocator()
476 rxb->page = NULL; in iwl_pcie_rx_allocator()
481 BUG_ON(rxb->page_dma & ~DMA_BIT_MASK(36)); in iwl_pcie_rx_allocator()
483 BUG_ON(rxb->page_dma & DMA_BIT_MASK(8)); in iwl_pcie_rx_allocator()
486 list_move(&rxb->list, &local_allocated); in iwl_pcie_rx_allocator()
800 struct iwl_rx_mem_buffer *rxb, in iwl_pcie_rx_reuse_rbd() argument
808 list_add_tail(&rxb->list, &rxq->rx_used); in iwl_pcie_rx_reuse_rbd()
834 struct iwl_rx_mem_buffer *rxb, in iwl_pcie_rx_handle_rb() argument
844 if (WARN_ON(!rxb)) in iwl_pcie_rx_handle_rb()
847 dma_unmap_page(trans->dev, rxb->page_dma, max_len, DMA_FROM_DEVICE); in iwl_pcie_rx_handle_rb()
857 ._page = rxb->page, in iwl_pcie_rx_handle_rb()
930 __free_pages(rxb->page, trans_pcie->rx_page_order); in iwl_pcie_rx_handle_rb()
931 rxb->page = NULL; in iwl_pcie_rx_handle_rb()
937 if (rxb->page != NULL) { in iwl_pcie_rx_handle_rb()
938 rxb->page_dma = in iwl_pcie_rx_handle_rb()
939 dma_map_page(trans->dev, rxb->page, 0, in iwl_pcie_rx_handle_rb()
942 if (dma_mapping_error(trans->dev, rxb->page_dma)) { in iwl_pcie_rx_handle_rb()
948 __free_pages(rxb->page, trans_pcie->rx_page_order); in iwl_pcie_rx_handle_rb()
949 rxb->page = NULL; in iwl_pcie_rx_handle_rb()
950 iwl_pcie_rx_reuse_rbd(trans, rxb, rxq, emergency); in iwl_pcie_rx_handle_rb()
952 list_add_tail(&rxb->list, &rxq->rx_free); in iwl_pcie_rx_handle_rb()
956 iwl_pcie_rx_reuse_rbd(trans, rxb, rxq, emergency); in iwl_pcie_rx_handle_rb()
981 struct iwl_rx_mem_buffer *rxb; in iwl_pcie_rx_handle() local
986 rxb = rxq->queue[i]; in iwl_pcie_rx_handle()
990 r, i, rxb); in iwl_pcie_rx_handle()
991 iwl_pcie_rx_handle_rb(trans, rxb, emergency); in iwl_pcie_rx_handle()