Searched refs:trans_pcie (Results 1 - 5 of 5) sorted by relevance

/linux-4.4.14/drivers/net/wireless/iwlwifi/pcie/
H A Drx.c178 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rxq_inc_wr_ptr() local
179 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rxq_inc_wr_ptr()
209 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rxq_check_wrptr() local
210 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rxq_check_wrptr()
237 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rxq_restock() local
238 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rxq_restock()
287 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_alloc_page() local
288 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rx_alloc_page()
295 if (trans_pcie->rx_page_order > 0) iwl_pcie_rx_alloc_page()
299 page = alloc_pages(gfp_mask, trans_pcie->rx_page_order); iwl_pcie_rx_alloc_page()
303 trans_pcie->rx_page_order); iwl_pcie_rx_alloc_page()
330 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rxq_alloc_rbs() local
331 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rxq_alloc_rbs()
352 __free_pages(page, trans_pcie->rx_page_order); iwl_pcie_rxq_alloc_rbs()
365 PAGE_SIZE << trans_pcie->rx_page_order, iwl_pcie_rxq_alloc_rbs()
372 __free_pages(page, trans_pcie->rx_page_order); iwl_pcie_rxq_alloc_rbs()
391 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rxq_free_rbs() local
392 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rxq_free_rbs()
401 PAGE_SIZE << trans_pcie->rx_page_order, iwl_pcie_rxq_free_rbs()
403 __free_pages(rxq->pool[i].page, trans_pcie->rx_page_order); iwl_pcie_rxq_free_rbs()
431 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_allocator() local
432 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_allocator()
473 PAGE_SIZE << trans_pcie->rx_page_order, iwl_pcie_rx_allocator()
477 __free_pages(page, trans_pcie->rx_page_order); iwl_pcie_rx_allocator()
524 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_allocator_get() local
525 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_allocator_get()
555 struct iwl_trans_pcie *trans_pcie = iwl_pcie_rx_allocator_work() local
558 iwl_pcie_rx_allocator(trans_pcie->trans); iwl_pcie_rx_allocator_work()
563 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_alloc() local
564 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rx_alloc()
565 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_alloc()
568 memset(&trans_pcie->rxq, 0, sizeof(trans_pcie->rxq)); iwl_pcie_rx_alloc()
601 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_hw_init() local
605 if (trans_pcie->rx_buf_size_8k) iwl_pcie_rx_hw_init()
682 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_free_rba() local
683 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_free_rba()
692 PAGE_SIZE << trans_pcie->rx_page_order, iwl_pcie_rx_free_rba()
694 __free_pages(rba->pool[i].page, trans_pcie->rx_page_order); iwl_pcie_rx_free_rba()
701 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_init() local
702 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rx_init()
703 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_init()
753 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_free() local
754 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rx_free()
755 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_free()
803 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_reuse_rbd() local
804 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_reuse_rbd()
837 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_handle_rb() local
838 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rx_handle_rb()
839 struct iwl_txq *txq = &trans_pcie->txq[trans_pcie->cmd_queue]; iwl_pcie_rx_handle_rb()
841 int max_len = PAGE_SIZE << trans_pcie->rx_page_order; iwl_pcie_rx_handle_rb()
856 ._rx_page_order = trans_pcie->rx_page_order, iwl_pcie_rx_handle_rb()
870 get_cmd_string(trans_pcie, pkt->hdr.cmd), iwl_pcie_rx_handle_rb()
888 for (i = 0; i < trans_pcie->n_no_reclaim_cmds; i++) { iwl_pcie_rx_handle_rb()
889 if (trans_pcie->no_reclaim_cmds[i] == iwl_pcie_rx_handle_rb()
901 iwl_op_mode_rx(trans->op_mode, &trans_pcie->napi, &rxcb); iwl_pcie_rx_handle_rb()
930 __free_pages(rxb->page, trans_pcie->rx_page_order); iwl_pcie_rx_handle_rb()
940 PAGE_SIZE << trans_pcie->rx_page_order, iwl_pcie_rx_handle_rb()
948 __free_pages(rxb->page, trans_pcie->rx_page_order); iwl_pcie_rx_handle_rb()
964 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_handle() local
965 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rx_handle()
998 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_handle()
1070 if (trans_pcie->napi.poll) iwl_pcie_rx_handle()
1071 napi_gro_flush(&trans_pcie->napi, false); iwl_pcie_rx_handle()
1079 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_irq_handle_error() local
1091 wake_up(&trans_pcie->wait_command_queue); iwl_pcie_irq_handle_error()
1105 del_timer(&trans_pcie->txq[i].stuck_timer); iwl_pcie_irq_handle_error()
1108 wake_up(&trans_pcie->wait_command_queue); iwl_pcie_irq_handle_error()
1141 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_int_cause_ict() local
1151 read = le32_to_cpu(trans_pcie->ict_tbl[trans_pcie->ict_index]); iwl_pcie_int_cause_ict()
1152 trace_iwlwifi_dev_ict_read(trans->dev, trans_pcie->ict_index, read); iwl_pcie_int_cause_ict()
1163 trans_pcie->ict_index, read); iwl_pcie_int_cause_ict()
1164 trans_pcie->ict_tbl[trans_pcie->ict_index] = 0; iwl_pcie_int_cause_ict()
1165 trans_pcie->ict_index = iwl_pcie_int_cause_ict()
1166 ((trans_pcie->ict_index + 1) & (ICT_COUNT - 1)); iwl_pcie_int_cause_ict()
1168 read = le32_to_cpu(trans_pcie->ict_tbl[trans_pcie->ict_index]); iwl_pcie_int_cause_ict()
1169 trace_iwlwifi_dev_ict_read(trans->dev, trans_pcie->ict_index, iwl_pcie_int_cause_ict()
1194 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_irq_handler() local
1195 struct isr_statistics *isr_stats = &trans_pcie->isr_stats; iwl_pcie_irq_handler()
1201 spin_lock(&trans_pcie->irq_lock); iwl_pcie_irq_handler()
1206 if (likely(trans_pcie->use_ict)) iwl_pcie_irq_handler()
1214 inta, trans_pcie->inta_mask, iwl_pcie_irq_handler()
1217 if (inta & (~trans_pcie->inta_mask)) iwl_pcie_irq_handler()
1220 inta & (~trans_pcie->inta_mask)); iwl_pcie_irq_handler()
1223 inta &= trans_pcie->inta_mask; iwl_pcie_irq_handler()
1238 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_irq_handler()
1249 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_irq_handler()
1264 iwl_write32(trans, CSR_INT, inta | ~trans_pcie->inta_mask); iwl_pcie_irq_handler()
1270 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_irq_handler()
1315 mutex_lock(&trans_pcie->mutex); iwl_pcie_irq_handler()
1317 mutex_unlock(&trans_pcie->mutex); iwl_pcie_irq_handler()
1324 wake_up(&trans_pcie->wait_command_queue); iwl_pcie_irq_handler()
1415 trans_pcie->ucode_write_complete = true; iwl_pcie_irq_handler()
1416 wake_up(&trans_pcie->ucode_write_waitq); iwl_pcie_irq_handler()
1424 if (inta & ~(trans_pcie->inta_mask)) { iwl_pcie_irq_handler()
1426 inta & ~trans_pcie->inta_mask); iwl_pcie_irq_handler()
1451 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_free_ict() local
1453 if (trans_pcie->ict_tbl) { iwl_pcie_free_ict()
1455 trans_pcie->ict_tbl, iwl_pcie_free_ict()
1456 trans_pcie->ict_tbl_dma); iwl_pcie_free_ict()
1457 trans_pcie->ict_tbl = NULL; iwl_pcie_free_ict()
1458 trans_pcie->ict_tbl_dma = 0; iwl_pcie_free_ict()
1469 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_alloc_ict() local
1471 trans_pcie->ict_tbl = iwl_pcie_alloc_ict()
1473 &trans_pcie->ict_tbl_dma, iwl_pcie_alloc_ict()
1475 if (!trans_pcie->ict_tbl) iwl_pcie_alloc_ict()
1479 if (WARN_ON(trans_pcie->ict_tbl_dma & (ICT_SIZE - 1))) { iwl_pcie_alloc_ict()
1485 (unsigned long long)trans_pcie->ict_tbl_dma, iwl_pcie_alloc_ict()
1486 trans_pcie->ict_tbl); iwl_pcie_alloc_ict()
1496 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_reset_ict() local
1499 if (!trans_pcie->ict_tbl) iwl_pcie_reset_ict()
1502 spin_lock(&trans_pcie->irq_lock); iwl_pcie_reset_ict()
1505 memset(trans_pcie->ict_tbl, 0, ICT_SIZE); iwl_pcie_reset_ict()
1507 val = trans_pcie->ict_tbl_dma >> ICT_SHIFT; iwl_pcie_reset_ict()
1516 trans_pcie->use_ict = true; iwl_pcie_reset_ict()
1517 trans_pcie->ict_index = 0; iwl_pcie_reset_ict()
1518 iwl_write32(trans, CSR_INT, trans_pcie->inta_mask); iwl_pcie_reset_ict()
1520 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_reset_ict()
1526 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_disable_ict() local
1528 spin_lock(&trans_pcie->irq_lock); iwl_pcie_disable_ict()
1529 trans_pcie->use_ict = false; iwl_pcie_disable_ict()
1530 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_disable_ict()
H A Dtx.c150 struct iwl_trans_pcie *trans_pcie = txq->trans_pcie; iwl_pcie_txq_stuck_timer() local
151 struct iwl_trans *trans = iwl_trans_pcie_get_trans(trans_pcie); iwl_pcie_txq_stuck_timer()
152 u32 scd_sram_addr = trans_pcie->scd_base_addr + iwl_pcie_txq_stuck_timer()
184 trans_pcie->scd_base_addr + iwl_pcie_txq_stuck_timer()
210 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_update_byte_cnt_tbl() local
220 scd_bc_tbl = trans_pcie->scd_bc_tbls.addr; iwl_pcie_txq_update_byte_cnt_tbl()
237 if (trans_pcie->bc_table_dword) iwl_pcie_txq_update_byte_cnt_tbl()
255 struct iwl_trans_pcie *trans_pcie = iwl_pcie_txq_inval_byte_cnt_tbl() local
257 struct iwlagn_scd_bc_tbl *scd_bc_tbl = trans_pcie->scd_bc_tbls.addr; iwl_pcie_txq_inval_byte_cnt_tbl()
267 if (txq_id != trans_pcie->cmd_queue) iwl_pcie_txq_inval_byte_cnt_tbl()
284 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_inc_wr_ptr() local
297 txq_id != trans_pcie->cmd_queue && iwl_pcie_txq_inc_wr_ptr()
326 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_check_wrptrs() local
330 struct iwl_txq *txq = &trans_pcie->txq[i]; iwl_pcie_txq_check_wrptrs()
333 if (trans_pcie->txq[i].need_update) { iwl_pcie_txq_check_wrptrs()
335 trans_pcie->txq[i].need_update = false; iwl_pcie_txq_check_wrptrs()
485 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_alloc() local
495 txq->trans_pcie = trans_pcie; iwl_pcie_txq_alloc()
506 if (txq_id == trans_pcie->cmd_queue) iwl_pcie_txq_alloc()
541 if (txq->entries && txq_id == trans_pcie->cmd_queue) iwl_pcie_txq_alloc()
584 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_unmap() local
585 struct iwl_txq *txq = &trans_pcie->txq[txq_id]; iwl_pcie_txq_unmap()
612 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_free() local
613 struct iwl_txq *txq = &trans_pcie->txq[txq_id]; iwl_pcie_txq_free()
623 if (txq_id == trans_pcie->cmd_queue) iwl_pcie_txq_free()
653 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_tx_start() local
661 memset(trans_pcie->queue_stopped, 0, sizeof(trans_pcie->queue_stopped)); iwl_pcie_tx_start()
662 memset(trans_pcie->queue_used, 0, sizeof(trans_pcie->queue_used)); iwl_pcie_tx_start()
664 trans_pcie->scd_base_addr = iwl_pcie_tx_start()
668 scd_base_addr != trans_pcie->scd_base_addr); iwl_pcie_tx_start()
671 iwl_trans_write_mem(trans, trans_pcie->scd_base_addr + iwl_pcie_tx_start()
676 trans_pcie->scd_bc_tbls.dma >> 10); iwl_pcie_tx_start()
684 iwl_trans_ac_txq_enable(trans, trans_pcie->cmd_queue, iwl_pcie_tx_start()
685 trans_pcie->cmd_fifo, iwl_pcie_tx_start()
686 trans_pcie->cmd_q_wdg_timeout); iwl_pcie_tx_start()
710 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_tx_reset() local
715 struct iwl_txq *txq = &trans_pcie->txq[txq_id]; iwl_trans_pcie_tx_reset()
726 trans_pcie->kw.dma >> 4); iwl_trans_pcie_tx_reset()
738 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_tx_stop_fh() local
743 spin_lock(&trans_pcie->irq_lock); iwl_pcie_tx_stop_fh()
764 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_tx_stop_fh()
772 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_tx_stop() local
786 memset(trans_pcie->queue_stopped, 0, sizeof(trans_pcie->queue_stopped)); iwl_pcie_tx_stop()
787 memset(trans_pcie->queue_used, 0, sizeof(trans_pcie->queue_used)); iwl_pcie_tx_stop()
790 if (!trans_pcie->txq) iwl_pcie_tx_stop()
809 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_tx_free() local
812 if (trans_pcie->txq) { iwl_pcie_tx_free()
818 kfree(trans_pcie->txq); iwl_pcie_tx_free()
819 trans_pcie->txq = NULL; iwl_pcie_tx_free()
821 iwl_pcie_free_dma_ptr(trans, &trans_pcie->kw); iwl_pcie_tx_free()
823 iwl_pcie_free_dma_ptr(trans, &trans_pcie->scd_bc_tbls); iwl_pcie_tx_free()
834 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_tx_alloc() local
841 if (WARN_ON(trans_pcie->txq)) { iwl_pcie_tx_alloc()
846 ret = iwl_pcie_alloc_dma_ptr(trans, &trans_pcie->scd_bc_tbls, iwl_pcie_tx_alloc()
854 ret = iwl_pcie_alloc_dma_ptr(trans, &trans_pcie->kw, IWL_KW_SIZE); iwl_pcie_tx_alloc()
860 trans_pcie->txq = kcalloc(trans->cfg->base_params->num_of_queues, iwl_pcie_tx_alloc()
862 if (!trans_pcie->txq) { iwl_pcie_tx_alloc()
871 slots_num = (txq_id == trans_pcie->cmd_queue) ? iwl_pcie_tx_alloc()
873 ret = iwl_pcie_txq_alloc(trans, &trans_pcie->txq[txq_id], iwl_pcie_tx_alloc()
890 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_tx_init() local
895 if (!trans_pcie->txq) { iwl_pcie_tx_init()
902 spin_lock(&trans_pcie->irq_lock); iwl_pcie_tx_init()
909 trans_pcie->kw.dma >> 4); iwl_pcie_tx_init()
911 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_tx_init()
916 slots_num = (txq_id == trans_pcie->cmd_queue) ? iwl_pcie_tx_init()
918 ret = iwl_pcie_txq_init(trans, &trans_pcie->txq[txq_id], iwl_pcie_tx_init()
967 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_reclaim() local
968 struct iwl_txq *txq = &trans_pcie->txq[txq_id]; iwl_trans_pcie_reclaim()
974 if (WARN_ON(txq_id == trans_pcie->cmd_queue)) iwl_trans_pcie_reclaim()
1039 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_set_cmd_in_flight() local
1042 lockdep_assert_held(&trans_pcie->reg_lock); iwl_pcie_set_cmd_in_flight()
1045 !trans_pcie->ref_cmd_in_flight) { iwl_pcie_set_cmd_in_flight()
1046 trans_pcie->ref_cmd_in_flight = true; iwl_pcie_set_cmd_in_flight()
1058 !trans_pcie->cmd_hold_nic_awake) { iwl_pcie_set_cmd_in_flight()
1073 trans_pcie->cmd_hold_nic_awake = true; iwl_pcie_set_cmd_in_flight()
1081 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_clear_cmd_in_flight() local
1083 lockdep_assert_held(&trans_pcie->reg_lock); iwl_pcie_clear_cmd_in_flight()
1085 if (trans_pcie->ref_cmd_in_flight) { iwl_pcie_clear_cmd_in_flight()
1086 trans_pcie->ref_cmd_in_flight = false; iwl_pcie_clear_cmd_in_flight()
1092 if (WARN_ON(!trans_pcie->cmd_hold_nic_awake)) iwl_pcie_clear_cmd_in_flight()
1095 trans_pcie->cmd_hold_nic_awake = false; iwl_pcie_clear_cmd_in_flight()
1111 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_cmdq_reclaim() local
1112 struct iwl_txq *txq = &trans_pcie->txq[txq_id]; iwl_pcie_cmdq_reclaim()
1138 spin_lock_irqsave(&trans_pcie->reg_lock, flags); iwl_pcie_cmdq_reclaim()
1140 spin_unlock_irqrestore(&trans_pcie->reg_lock, flags); iwl_pcie_cmdq_reclaim()
1149 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_set_ratid_map() local
1156 tbl_dw_addr = trans_pcie->scd_base_addr + iwl_pcie_txq_set_ratid_map()
1179 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_txq_enable() local
1180 struct iwl_txq *txq = &trans_pcie->txq[txq_id]; iwl_trans_pcie_txq_enable()
1183 if (test_and_set_bit(txq_id, trans_pcie->queue_used)) iwl_trans_pcie_txq_enable()
1192 if (txq_id == trans_pcie->cmd_queue && iwl_trans_pcie_txq_enable()
1193 trans_pcie->scd_set_active) iwl_trans_pcie_txq_enable()
1200 if (txq_id != trans_pcie->cmd_queue) iwl_trans_pcie_txq_enable()
1237 iwl_trans_write_mem32(trans, trans_pcie->scd_base_addr + iwl_trans_pcie_txq_enable()
1240 trans_pcie->scd_base_addr + iwl_trans_pcie_txq_enable()
1255 if (txq_id == trans_pcie->cmd_queue && iwl_trans_pcie_txq_enable()
1256 trans_pcie->scd_set_active) iwl_trans_pcie_txq_enable()
1274 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_txq_disable() local
1275 u32 stts_addr = trans_pcie->scd_base_addr + iwl_trans_pcie_txq_disable()
1279 trans_pcie->txq[txq_id].frozen_expiry_remainder = 0; iwl_trans_pcie_txq_disable()
1280 trans_pcie->txq[txq_id].frozen = false; iwl_trans_pcie_txq_disable()
1288 if (!test_and_clear_bit(txq_id, trans_pcie->queue_used)) { iwl_trans_pcie_txq_disable()
1302 trans_pcie->txq[txq_id].ampdu = false; iwl_trans_pcie_txq_disable()
1321 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_enqueue_hcmd() local
1322 struct iwl_txq *txq = &trans_pcie->txq[trans_pcie->cmd_queue]; iwl_pcie_enqueue_hcmd()
1338 if (WARN(!trans_pcie->wide_cmd_header && iwl_pcie_enqueue_hcmd()
1414 get_cmd_string(trans_pcie, cmd->id), cmd->id, copy_size)) { iwl_pcie_enqueue_hcmd()
1448 cpu_to_le16(QUEUE_TO_SEQ(trans_pcie->cmd_queue) | iwl_pcie_enqueue_hcmd()
1456 cpu_to_le16(QUEUE_TO_SEQ(trans_pcie->cmd_queue) | iwl_pcie_enqueue_hcmd()
1504 get_cmd_string(trans_pcie, out_cmd->hdr.cmd), iwl_pcie_enqueue_hcmd()
1507 cmd_size, q->write_ptr, idx, trans_pcie->cmd_queue); iwl_pcie_enqueue_hcmd()
1569 spin_lock_irqsave(&trans_pcie->reg_lock, flags); iwl_pcie_enqueue_hcmd()
1573 spin_unlock_irqrestore(&trans_pcie->reg_lock, flags); iwl_pcie_enqueue_hcmd()
1581 spin_unlock_irqrestore(&trans_pcie->reg_lock, flags); iwl_pcie_enqueue_hcmd()
1609 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_hcmd_complete() local
1610 struct iwl_txq *txq = &trans_pcie->txq[trans_pcie->cmd_queue]; iwl_pcie_hcmd_complete()
1615 if (WARN(txq_id != trans_pcie->cmd_queue, iwl_pcie_hcmd_complete()
1617 txq_id, trans_pcie->cmd_queue, sequence, iwl_pcie_hcmd_complete()
1618 trans_pcie->txq[trans_pcie->cmd_queue].q.read_ptr, iwl_pcie_hcmd_complete()
1619 trans_pcie->txq[trans_pcie->cmd_queue].q.write_ptr)) { iwl_pcie_hcmd_complete()
1638 meta->source->_rx_page_order = trans_pcie->rx_page_order; iwl_pcie_hcmd_complete()
1647 get_cmd_string(trans_pcie, cmd->hdr.cmd)); iwl_pcie_hcmd_complete()
1651 get_cmd_string(trans_pcie, cmd->hdr.cmd)); iwl_pcie_hcmd_complete()
1652 wake_up(&trans_pcie->wait_command_queue); iwl_pcie_hcmd_complete()
1665 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_send_hcmd_async() local
1676 get_cmd_string(trans_pcie, cmd->id), ret); iwl_pcie_send_hcmd_async()
1685 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_send_hcmd_sync() local
1690 get_cmd_string(trans_pcie, cmd->id)); iwl_pcie_send_hcmd_sync()
1695 get_cmd_string(trans_pcie, cmd->id))) iwl_pcie_send_hcmd_sync()
1699 get_cmd_string(trans_pcie, cmd->id)); iwl_pcie_send_hcmd_sync()
1707 get_cmd_string(trans_pcie, cmd->id), ret); iwl_pcie_send_hcmd_sync()
1711 ret = wait_event_timeout(trans_pcie->wait_command_queue, iwl_pcie_send_hcmd_sync()
1716 struct iwl_txq *txq = &trans_pcie->txq[trans_pcie->cmd_queue]; iwl_pcie_send_hcmd_sync()
1720 get_cmd_string(trans_pcie, cmd->id), iwl_pcie_send_hcmd_sync()
1728 get_cmd_string(trans_pcie, cmd->id)); iwl_pcie_send_hcmd_sync()
1739 get_cmd_string(trans_pcie, cmd->id)); iwl_pcie_send_hcmd_sync()
1754 get_cmd_string(trans_pcie, cmd->id)); iwl_pcie_send_hcmd_sync()
1769 trans_pcie->txq[trans_pcie->cmd_queue]. iwl_pcie_send_hcmd_sync()
1800 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_tx() local
1815 txq = &trans_pcie->txq[txq_id]; iwl_trans_pcie_tx()
1818 if (WARN_ONCE(!test_bit(txq_id, trans_pcie->queue_used), iwl_trans_pcie_tx()
H A Dtrans.c92 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_free_fw_monitor() local
94 if (!trans_pcie->fw_mon_page) iwl_pcie_free_fw_monitor()
97 dma_unmap_page(trans->dev, trans_pcie->fw_mon_phys, iwl_pcie_free_fw_monitor()
98 trans_pcie->fw_mon_size, DMA_FROM_DEVICE); iwl_pcie_free_fw_monitor()
99 __free_pages(trans_pcie->fw_mon_page, iwl_pcie_free_fw_monitor()
100 get_order(trans_pcie->fw_mon_size)); iwl_pcie_free_fw_monitor()
101 trans_pcie->fw_mon_page = NULL; iwl_pcie_free_fw_monitor()
102 trans_pcie->fw_mon_phys = 0; iwl_pcie_free_fw_monitor()
103 trans_pcie->fw_mon_size = 0; iwl_pcie_free_fw_monitor()
108 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_alloc_fw_monitor() local
126 if (trans_pcie->fw_mon_page) { iwl_pcie_alloc_fw_monitor()
127 dma_sync_single_for_device(trans->dev, trans_pcie->fw_mon_phys, iwl_pcie_alloc_fw_monitor()
128 trans_pcie->fw_mon_size, iwl_pcie_alloc_fw_monitor()
166 trans_pcie->fw_mon_page = page; iwl_pcie_alloc_fw_monitor()
167 trans_pcie->fw_mon_phys = phys; iwl_pcie_alloc_fw_monitor()
168 trans_pcie->fw_mon_size = size; iwl_pcie_alloc_fw_monitor()
205 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_apm_config() local
217 pcie_capability_read_word(trans_pcie->pci_dev, PCI_EXP_LNKCTL, &lctl); iwl_pcie_apm_config()
224 pcie_capability_read_word(trans_pcie->pci_dev, PCI_EXP_DEVCTL2, &cap); iwl_pcie_apm_config()
521 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_nic_init() local
524 spin_lock(&trans_pcie->irq_lock); iwl_pcie_nic_init()
527 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_nic_init()
617 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_load_firmware_chunk() local
620 trans_pcie->ucode_write_complete = false; iwl_pcie_load_firmware_chunk()
651 ret = wait_event_timeout(trans_pcie->ucode_write_waitq, iwl_pcie_load_firmware_chunk()
652 trans_pcie->ucode_write_complete, 5 * HZ); iwl_pcie_load_firmware_chunk()
870 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_apply_destination() local
926 if (dest->monitor_mode == EXTERNAL_MODE && trans_pcie->fw_mon_size) { iwl_pcie_apply_destination()
928 trans_pcie->fw_mon_phys >> dest->base_shift); iwl_pcie_apply_destination()
931 (trans_pcie->fw_mon_phys + iwl_pcie_apply_destination()
932 trans_pcie->fw_mon_size - 256) >> iwl_pcie_apply_destination()
936 (trans_pcie->fw_mon_phys + iwl_pcie_apply_destination()
937 trans_pcie->fw_mon_size) >> iwl_pcie_apply_destination()
945 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_load_given_ucode() local
975 if (trans_pcie->fw_mon_size) { iwl_pcie_load_given_ucode()
977 trans_pcie->fw_mon_phys >> 4); iwl_pcie_load_given_ucode()
979 (trans_pcie->fw_mon_phys + iwl_pcie_load_given_ucode()
980 trans_pcie->fw_mon_size) >> 4); iwl_pcie_load_given_ucode()
1027 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_start_fw() local
1031 mutex_lock(&trans_pcie->mutex); iwl_trans_pcie_start_fw()
1034 if (trans_pcie->is_down) { iwl_trans_pcie_start_fw()
1090 mutex_unlock(&trans_pcie->mutex); iwl_trans_pcie_start_fw()
1102 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); _iwl_trans_pcie_stop_device() local
1105 lockdep_assert_held(&trans_pcie->mutex); _iwl_trans_pcie_stop_device()
1107 if (trans_pcie->is_down) _iwl_trans_pcie_stop_device()
1110 trans_pcie->is_down = true; _iwl_trans_pcie_stop_device()
1115 spin_lock(&trans_pcie->irq_lock); _iwl_trans_pcie_stop_device()
1117 spin_unlock(&trans_pcie->irq_lock); _iwl_trans_pcie_stop_device()
1160 spin_lock(&trans_pcie->irq_lock); _iwl_trans_pcie_stop_device()
1162 spin_unlock(&trans_pcie->irq_lock); _iwl_trans_pcie_stop_device()
1203 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_stop_device() local
1205 mutex_lock(&trans_pcie->mutex); iwl_trans_pcie_stop_device()
1207 mutex_unlock(&trans_pcie->mutex); iwl_trans_pcie_stop_device()
1212 struct iwl_trans_pcie __maybe_unused *trans_pcie = iwl_trans_pcie_rf_kill() local
1215 lockdep_assert_held(&trans_pcie->mutex); iwl_trans_pcie_rf_kill()
1223 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_d3_suspend() local
1242 synchronize_irq(trans_pcie->pci_dev->irq); iwl_trans_pcie_d3_suspend()
1323 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); _iwl_trans_pcie_start_hw() local
1327 lockdep_assert_held(&trans_pcie->mutex); _iwl_trans_pcie_start_hw()
1346 trans_pcie->is_down = false; _iwl_trans_pcie_start_hw()
1361 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_start_hw() local
1364 mutex_lock(&trans_pcie->mutex); iwl_trans_pcie_start_hw()
1366 mutex_unlock(&trans_pcie->mutex); iwl_trans_pcie_start_hw()
1373 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_op_mode_leave() local
1375 mutex_lock(&trans_pcie->mutex); iwl_trans_pcie_op_mode_leave()
1378 spin_lock(&trans_pcie->irq_lock); iwl_trans_pcie_op_mode_leave()
1380 spin_unlock(&trans_pcie->irq_lock); iwl_trans_pcie_op_mode_leave()
1384 spin_lock(&trans_pcie->irq_lock); iwl_trans_pcie_op_mode_leave()
1386 spin_unlock(&trans_pcie->irq_lock); iwl_trans_pcie_op_mode_leave()
1390 mutex_unlock(&trans_pcie->mutex); iwl_trans_pcie_op_mode_leave()
1392 synchronize_irq(trans_pcie->pci_dev->irq); iwl_trans_pcie_op_mode_leave()
1434 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_configure() local
1436 trans_pcie->cmd_queue = trans_cfg->cmd_queue; iwl_trans_pcie_configure()
1437 trans_pcie->cmd_fifo = trans_cfg->cmd_fifo; iwl_trans_pcie_configure()
1438 trans_pcie->cmd_q_wdg_timeout = trans_cfg->cmd_q_wdg_timeout; iwl_trans_pcie_configure()
1440 trans_pcie->n_no_reclaim_cmds = 0; iwl_trans_pcie_configure()
1442 trans_pcie->n_no_reclaim_cmds = trans_cfg->n_no_reclaim_cmds; iwl_trans_pcie_configure()
1443 if (trans_pcie->n_no_reclaim_cmds) iwl_trans_pcie_configure()
1444 memcpy(trans_pcie->no_reclaim_cmds, trans_cfg->no_reclaim_cmds, iwl_trans_pcie_configure()
1445 trans_pcie->n_no_reclaim_cmds * sizeof(u8)); iwl_trans_pcie_configure()
1447 trans_pcie->rx_buf_size_8k = trans_cfg->rx_buf_size_8k; iwl_trans_pcie_configure()
1448 if (trans_pcie->rx_buf_size_8k) iwl_trans_pcie_configure()
1449 trans_pcie->rx_page_order = get_order(8 * 1024); iwl_trans_pcie_configure()
1451 trans_pcie->rx_page_order = get_order(4 * 1024); iwl_trans_pcie_configure()
1453 trans_pcie->wide_cmd_header = trans_cfg->wide_cmd_header; iwl_trans_pcie_configure()
1454 trans_pcie->command_names = trans_cfg->command_names; iwl_trans_pcie_configure()
1455 trans_pcie->bc_table_dword = trans_cfg->bc_table_dword; iwl_trans_pcie_configure()
1456 trans_pcie->scd_set_active = trans_cfg->scd_set_active; iwl_trans_pcie_configure()
1459 trans_pcie->ref_count = 1; iwl_trans_pcie_configure()
1466 if (!trans_pcie->napi.poll) { iwl_trans_pcie_configure()
1467 init_dummy_netdev(&trans_pcie->napi_dev); iwl_trans_pcie_configure()
1468 netif_napi_add(&trans_pcie->napi_dev, &trans_pcie->napi, iwl_trans_pcie_configure()
1475 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_free() local
1477 synchronize_irq(trans_pcie->pci_dev->irq); iwl_trans_pcie_free()
1482 free_irq(trans_pcie->pci_dev->irq, trans); iwl_trans_pcie_free()
1485 pci_disable_msi(trans_pcie->pci_dev); iwl_trans_pcie_free()
1486 iounmap(trans_pcie->hw_base); iwl_trans_pcie_free()
1487 pci_release_regions(trans_pcie->pci_dev); iwl_trans_pcie_free()
1488 pci_disable_device(trans_pcie->pci_dev); iwl_trans_pcie_free()
1490 if (trans_pcie->napi.poll) iwl_trans_pcie_free()
1491 netif_napi_del(&trans_pcie->napi); iwl_trans_pcie_free()
1510 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_grab_nic_access() local
1512 spin_lock_irqsave(&trans_pcie->reg_lock, *flags); iwl_trans_pcie_grab_nic_access()
1514 if (trans_pcie->cmd_hold_nic_awake) iwl_trans_pcie_grab_nic_access()
1553 spin_unlock_irqrestore(&trans_pcie->reg_lock, *flags); iwl_trans_pcie_grab_nic_access()
1563 __release(&trans_pcie->reg_lock); iwl_trans_pcie_grab_nic_access()
1570 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_release_nic_access() local
1572 lockdep_assert_held(&trans_pcie->reg_lock); iwl_trans_pcie_release_nic_access()
1578 __acquire(&trans_pcie->reg_lock); iwl_trans_pcie_release_nic_access()
1580 if (trans_pcie->cmd_hold_nic_awake) iwl_trans_pcie_release_nic_access()
1593 spin_unlock_irqrestore(&trans_pcie->reg_lock, *flags); iwl_trans_pcie_release_nic_access()
1637 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_freeze_txq_timer() local
1641 struct iwl_txq *txq = &trans_pcie->txq[queue]; iwl_trans_pcie_freeze_txq_timer()
1691 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_wait_txq_empty() local
1704 if (cnt == trans_pcie->cmd_queue) iwl_trans_pcie_wait_txq_empty()
1706 if (!test_bit(cnt, trans_pcie->queue_used)) iwl_trans_pcie_wait_txq_empty()
1712 txq = &trans_pcie->txq[cnt]; iwl_trans_pcie_wait_txq_empty()
1743 scd_sram_addr = trans_pcie->scd_base_addr + iwl_trans_pcie_wait_txq_empty()
1758 iwl_trans_read_mem32(trans, trans_pcie->scd_base_addr + iwl_trans_pcie_wait_txq_empty()
1780 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_set_bits_mask() local
1783 spin_lock_irqsave(&trans_pcie->reg_lock, flags); iwl_trans_pcie_set_bits_mask()
1785 spin_unlock_irqrestore(&trans_pcie->reg_lock, flags); iwl_trans_pcie_set_bits_mask()
1790 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_ref() local
1796 spin_lock_irqsave(&trans_pcie->ref_lock, flags); iwl_trans_pcie_ref()
1797 IWL_DEBUG_RPM(trans, "ref_counter: %d\n", trans_pcie->ref_count); iwl_trans_pcie_ref()
1798 trans_pcie->ref_count++; iwl_trans_pcie_ref()
1799 spin_unlock_irqrestore(&trans_pcie->ref_lock, flags); iwl_trans_pcie_ref()
1804 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_unref() local
1810 spin_lock_irqsave(&trans_pcie->ref_lock, flags); iwl_trans_pcie_unref()
1811 IWL_DEBUG_RPM(trans, "ref_counter: %d\n", trans_pcie->ref_count); iwl_trans_pcie_unref()
1812 if (WARN_ON_ONCE(trans_pcie->ref_count == 0)) { iwl_trans_pcie_unref()
1813 spin_unlock_irqrestore(&trans_pcie->ref_lock, flags); iwl_trans_pcie_unref()
1816 trans_pcie->ref_count--; iwl_trans_pcie_unref()
1817 spin_unlock_irqrestore(&trans_pcie->ref_lock, flags); iwl_trans_pcie_unref()
1929 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_dbgfs_tx_queue_read() local
1940 if (!trans_pcie->txq) iwl_dbgfs_tx_queue_read()
1948 txq = &trans_pcie->txq[cnt]; iwl_dbgfs_tx_queue_read()
1953 !!test_bit(cnt, trans_pcie->queue_used), iwl_dbgfs_tx_queue_read()
1954 !!test_bit(cnt, trans_pcie->queue_stopped), iwl_dbgfs_tx_queue_read()
1956 (cnt == trans_pcie->cmd_queue ? " HCMD" : "")); iwl_dbgfs_tx_queue_read()
1968 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_dbgfs_rx_queue_read() local
1969 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_dbgfs_rx_queue_read()
1999 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_dbgfs_interrupt_read() local
2000 struct isr_statistics *isr_stats = &trans_pcie->isr_stats; iwl_dbgfs_interrupt_read()
2057 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_dbgfs_interrupt_write() local
2058 struct isr_statistics *isr_stats = &trans_pcie->isr_stats; iwl_dbgfs_interrupt_write()
2300 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_dump_rbs() local
2301 int max_len = PAGE_SIZE << trans_pcie->rx_page_order; iwl_trans_pcie_dump_rbs()
2302 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_trans_pcie_dump_rbs()
2411 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_dump_monitor() local
2414 if ((trans_pcie->fw_mon_page && iwl_trans_pcie_dump_monitor()
2442 if (trans_pcie->fw_mon_page) { iwl_trans_pcie_dump_monitor()
2450 trans_pcie->fw_mon_phys, iwl_trans_pcie_dump_monitor()
2451 trans_pcie->fw_mon_size, iwl_trans_pcie_dump_monitor()
2454 page_address(trans_pcie->fw_mon_page), iwl_trans_pcie_dump_monitor()
2455 trans_pcie->fw_mon_size); iwl_trans_pcie_dump_monitor()
2457 monitor_len = trans_pcie->fw_mon_size; iwl_trans_pcie_dump_monitor()
2488 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_dump_data() local
2490 struct iwl_txq *cmdq = &trans_pcie->txq[trans_pcie->cmd_queue]; iwl_trans_pcie_dump_data()
2506 if (trans_pcie->fw_mon_page) { iwl_trans_pcie_dump_data()
2508 trans_pcie->fw_mon_size; iwl_trans_pcie_dump_data()
2509 monitor_len = trans_pcie->fw_mon_size; iwl_trans_pcie_dump_data()
2563 trans_pcie->rxq.rb_stts->closed_rb_num)) iwl_trans_pcie_dump_data()
2565 num_rbs = (num_rbs - trans_pcie->rxq.read) & RX_QUEUE_MASK; iwl_trans_pcie_dump_data()
2568 (PAGE_SIZE << trans_pcie->rx_page_order)); iwl_trans_pcie_dump_data()
2663 struct iwl_trans_pcie *trans_pcie; iwl_trans_pcie_alloc() local
2675 trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_alloc()
2677 trans_pcie->trans = trans; iwl_trans_pcie_alloc()
2678 spin_lock_init(&trans_pcie->irq_lock); iwl_trans_pcie_alloc()
2679 spin_lock_init(&trans_pcie->reg_lock); iwl_trans_pcie_alloc()
2680 spin_lock_init(&trans_pcie->ref_lock); iwl_trans_pcie_alloc()
2681 mutex_init(&trans_pcie->mutex); iwl_trans_pcie_alloc()
2682 init_waitqueue_head(&trans_pcie->ucode_write_waitq); iwl_trans_pcie_alloc()
2722 trans_pcie->hw_base = pci_ioremap_bar(pdev, 0); iwl_trans_pcie_alloc()
2723 if (!trans_pcie->hw_base) { iwl_trans_pcie_alloc()
2734 trans_pcie->pci_dev = pdev; iwl_trans_pcie_alloc()
2804 init_waitqueue_head(&trans_pcie->wait_command_queue); iwl_trans_pcie_alloc()
2818 trans_pcie->inta_mask = CSR_INI_SET_MASK; iwl_trans_pcie_alloc()
H A Dinternal.h65 * trans_pcie layer */
256 * @trans_pcie: pointer back to transport (for timer)
276 struct iwl_trans_pcie *trans_pcie; member in struct:iwl_txq
385 iwl_trans_pcie_get_trans(struct iwl_trans_pcie *trans_pcie) iwl_trans_pcie_get_trans() argument
387 return container_of((void *)trans_pcie, struct iwl_trans, iwl_trans_pcie_get_trans()
473 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_enable_interrupts() local
477 trans_pcie->inta_mask = CSR_INI_SET_MASK; iwl_enable_interrupts()
478 iwl_write32(trans, CSR_INT_MASK, trans_pcie->inta_mask); iwl_enable_interrupts()
483 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_enable_rfkill_int() local
486 trans_pcie->inta_mask = CSR_INT_BIT_RF_KILL; iwl_enable_rfkill_int()
487 iwl_write32(trans, CSR_INT_MASK, trans_pcie->inta_mask); iwl_enable_rfkill_int()
493 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_wake_queue() local
495 if (test_and_clear_bit(txq->q.id, trans_pcie->queue_stopped)) { iwl_wake_queue()
504 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_stop_queue() local
506 if (!test_and_set_bit(txq->q.id, trans_pcie->queue_stopped)) { iwl_stop_queue()
526 static inline const char *get_cmd_string(struct iwl_trans_pcie *trans_pcie, get_cmd_string() argument
529 if (!trans_pcie->command_names || !trans_pcie->command_names[cmd]) get_cmd_string()
531 return trans_pcie->command_names[cmd]; get_cmd_string()
H A Ddrv.c561 struct iwl_trans_pcie *trans_pcie; iwl_pci_probe() local
591 trans_pcie = IWL_TRANS_GET_PCIE_TRANS(iwl_trans); iwl_pci_probe()
592 trans_pcie->drv = iwl_drv_start(iwl_trans, cfg); iwl_pci_probe()
594 if (IS_ERR(trans_pcie->drv)) { iwl_pci_probe()
595 ret = PTR_ERR(trans_pcie->drv); iwl_pci_probe()
609 iwl_drv_stop(trans_pcie->drv); iwl_pci_probe()
618 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pci_remove() local
620 iwl_drv_stop(trans_pcie->drv); iwl_pci_remove()
640 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pci_resume() local
665 mutex_lock(&trans_pcie->mutex); iwl_pci_resume()
667 mutex_unlock(&trans_pcie->mutex); iwl_pci_resume()

Completed in 222 milliseconds