/linux-4.4.14/drivers/net/wireless/iwlwifi/pcie/ |
H A D | rx.c | 178 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rxq_inc_wr_ptr() local 179 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rxq_inc_wr_ptr() 209 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rxq_check_wrptr() local 210 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rxq_check_wrptr() 237 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rxq_restock() local 238 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rxq_restock() 287 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_alloc_page() local 288 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rx_alloc_page() 295 if (trans_pcie->rx_page_order > 0) iwl_pcie_rx_alloc_page() 299 page = alloc_pages(gfp_mask, trans_pcie->rx_page_order); iwl_pcie_rx_alloc_page() 303 trans_pcie->rx_page_order); iwl_pcie_rx_alloc_page() 330 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rxq_alloc_rbs() local 331 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rxq_alloc_rbs() 352 __free_pages(page, trans_pcie->rx_page_order); iwl_pcie_rxq_alloc_rbs() 365 PAGE_SIZE << trans_pcie->rx_page_order, iwl_pcie_rxq_alloc_rbs() 372 __free_pages(page, trans_pcie->rx_page_order); iwl_pcie_rxq_alloc_rbs() 391 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rxq_free_rbs() local 392 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rxq_free_rbs() 401 PAGE_SIZE << trans_pcie->rx_page_order, iwl_pcie_rxq_free_rbs() 403 __free_pages(rxq->pool[i].page, trans_pcie->rx_page_order); iwl_pcie_rxq_free_rbs() 431 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_allocator() local 432 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_allocator() 473 PAGE_SIZE << trans_pcie->rx_page_order, iwl_pcie_rx_allocator() 477 __free_pages(page, trans_pcie->rx_page_order); iwl_pcie_rx_allocator() 524 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_allocator_get() local 525 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_allocator_get() 555 struct iwl_trans_pcie *trans_pcie = iwl_pcie_rx_allocator_work() local 558 iwl_pcie_rx_allocator(trans_pcie->trans); iwl_pcie_rx_allocator_work() 563 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_alloc() local 564 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rx_alloc() 565 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_alloc() 568 memset(&trans_pcie->rxq, 0, sizeof(trans_pcie->rxq)); iwl_pcie_rx_alloc() 601 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_hw_init() local 605 if (trans_pcie->rx_buf_size_8k) iwl_pcie_rx_hw_init() 682 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_free_rba() local 683 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_free_rba() 692 PAGE_SIZE << trans_pcie->rx_page_order, iwl_pcie_rx_free_rba() 694 __free_pages(rba->pool[i].page, trans_pcie->rx_page_order); iwl_pcie_rx_free_rba() 701 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_init() local 702 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rx_init() 703 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_init() 753 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_free() local 754 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rx_free() 755 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_free() 803 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_reuse_rbd() local 804 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_reuse_rbd() 837 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_handle_rb() local 838 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rx_handle_rb() 839 struct iwl_txq *txq = &trans_pcie->txq[trans_pcie->cmd_queue]; iwl_pcie_rx_handle_rb() 841 int max_len = PAGE_SIZE << trans_pcie->rx_page_order; iwl_pcie_rx_handle_rb() 856 ._rx_page_order = trans_pcie->rx_page_order, iwl_pcie_rx_handle_rb() 870 get_cmd_string(trans_pcie, pkt->hdr.cmd), iwl_pcie_rx_handle_rb() 888 for (i = 0; i < trans_pcie->n_no_reclaim_cmds; i++) { iwl_pcie_rx_handle_rb() 889 if (trans_pcie->no_reclaim_cmds[i] == iwl_pcie_rx_handle_rb() 901 iwl_op_mode_rx(trans->op_mode, &trans_pcie->napi, &rxcb); iwl_pcie_rx_handle_rb() 930 __free_pages(rxb->page, trans_pcie->rx_page_order); iwl_pcie_rx_handle_rb() 940 PAGE_SIZE << trans_pcie->rx_page_order, iwl_pcie_rx_handle_rb() 948 __free_pages(rxb->page, trans_pcie->rx_page_order); iwl_pcie_rx_handle_rb() 964 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_rx_handle() local 965 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_pcie_rx_handle() 998 struct iwl_rb_allocator *rba = &trans_pcie->rba; iwl_pcie_rx_handle() 1070 if (trans_pcie->napi.poll) iwl_pcie_rx_handle() 1071 napi_gro_flush(&trans_pcie->napi, false); iwl_pcie_rx_handle() 1079 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_irq_handle_error() local 1091 wake_up(&trans_pcie->wait_command_queue); iwl_pcie_irq_handle_error() 1105 del_timer(&trans_pcie->txq[i].stuck_timer); iwl_pcie_irq_handle_error() 1108 wake_up(&trans_pcie->wait_command_queue); iwl_pcie_irq_handle_error() 1141 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_int_cause_ict() local 1151 read = le32_to_cpu(trans_pcie->ict_tbl[trans_pcie->ict_index]); iwl_pcie_int_cause_ict() 1152 trace_iwlwifi_dev_ict_read(trans->dev, trans_pcie->ict_index, read); iwl_pcie_int_cause_ict() 1163 trans_pcie->ict_index, read); iwl_pcie_int_cause_ict() 1164 trans_pcie->ict_tbl[trans_pcie->ict_index] = 0; iwl_pcie_int_cause_ict() 1165 trans_pcie->ict_index = iwl_pcie_int_cause_ict() 1166 ((trans_pcie->ict_index + 1) & (ICT_COUNT - 1)); iwl_pcie_int_cause_ict() 1168 read = le32_to_cpu(trans_pcie->ict_tbl[trans_pcie->ict_index]); iwl_pcie_int_cause_ict() 1169 trace_iwlwifi_dev_ict_read(trans->dev, trans_pcie->ict_index, iwl_pcie_int_cause_ict() 1194 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_irq_handler() local 1195 struct isr_statistics *isr_stats = &trans_pcie->isr_stats; iwl_pcie_irq_handler() 1201 spin_lock(&trans_pcie->irq_lock); iwl_pcie_irq_handler() 1206 if (likely(trans_pcie->use_ict)) iwl_pcie_irq_handler() 1214 inta, trans_pcie->inta_mask, iwl_pcie_irq_handler() 1217 if (inta & (~trans_pcie->inta_mask)) iwl_pcie_irq_handler() 1220 inta & (~trans_pcie->inta_mask)); iwl_pcie_irq_handler() 1223 inta &= trans_pcie->inta_mask; iwl_pcie_irq_handler() 1238 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_irq_handler() 1249 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_irq_handler() 1264 iwl_write32(trans, CSR_INT, inta | ~trans_pcie->inta_mask); iwl_pcie_irq_handler() 1270 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_irq_handler() 1315 mutex_lock(&trans_pcie->mutex); iwl_pcie_irq_handler() 1317 mutex_unlock(&trans_pcie->mutex); iwl_pcie_irq_handler() 1324 wake_up(&trans_pcie->wait_command_queue); iwl_pcie_irq_handler() 1415 trans_pcie->ucode_write_complete = true; iwl_pcie_irq_handler() 1416 wake_up(&trans_pcie->ucode_write_waitq); iwl_pcie_irq_handler() 1424 if (inta & ~(trans_pcie->inta_mask)) { iwl_pcie_irq_handler() 1426 inta & ~trans_pcie->inta_mask); iwl_pcie_irq_handler() 1451 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_free_ict() local 1453 if (trans_pcie->ict_tbl) { iwl_pcie_free_ict() 1455 trans_pcie->ict_tbl, iwl_pcie_free_ict() 1456 trans_pcie->ict_tbl_dma); iwl_pcie_free_ict() 1457 trans_pcie->ict_tbl = NULL; iwl_pcie_free_ict() 1458 trans_pcie->ict_tbl_dma = 0; iwl_pcie_free_ict() 1469 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_alloc_ict() local 1471 trans_pcie->ict_tbl = iwl_pcie_alloc_ict() 1473 &trans_pcie->ict_tbl_dma, iwl_pcie_alloc_ict() 1475 if (!trans_pcie->ict_tbl) iwl_pcie_alloc_ict() 1479 if (WARN_ON(trans_pcie->ict_tbl_dma & (ICT_SIZE - 1))) { iwl_pcie_alloc_ict() 1485 (unsigned long long)trans_pcie->ict_tbl_dma, iwl_pcie_alloc_ict() 1486 trans_pcie->ict_tbl); iwl_pcie_alloc_ict() 1496 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_reset_ict() local 1499 if (!trans_pcie->ict_tbl) iwl_pcie_reset_ict() 1502 spin_lock(&trans_pcie->irq_lock); iwl_pcie_reset_ict() 1505 memset(trans_pcie->ict_tbl, 0, ICT_SIZE); iwl_pcie_reset_ict() 1507 val = trans_pcie->ict_tbl_dma >> ICT_SHIFT; iwl_pcie_reset_ict() 1516 trans_pcie->use_ict = true; iwl_pcie_reset_ict() 1517 trans_pcie->ict_index = 0; iwl_pcie_reset_ict() 1518 iwl_write32(trans, CSR_INT, trans_pcie->inta_mask); iwl_pcie_reset_ict() 1520 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_reset_ict() 1526 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_disable_ict() local 1528 spin_lock(&trans_pcie->irq_lock); iwl_pcie_disable_ict() 1529 trans_pcie->use_ict = false; iwl_pcie_disable_ict() 1530 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_disable_ict()
|
H A D | tx.c | 150 struct iwl_trans_pcie *trans_pcie = txq->trans_pcie; iwl_pcie_txq_stuck_timer() local 151 struct iwl_trans *trans = iwl_trans_pcie_get_trans(trans_pcie); iwl_pcie_txq_stuck_timer() 152 u32 scd_sram_addr = trans_pcie->scd_base_addr + iwl_pcie_txq_stuck_timer() 184 trans_pcie->scd_base_addr + iwl_pcie_txq_stuck_timer() 210 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_update_byte_cnt_tbl() local 220 scd_bc_tbl = trans_pcie->scd_bc_tbls.addr; iwl_pcie_txq_update_byte_cnt_tbl() 237 if (trans_pcie->bc_table_dword) iwl_pcie_txq_update_byte_cnt_tbl() 255 struct iwl_trans_pcie *trans_pcie = iwl_pcie_txq_inval_byte_cnt_tbl() local 257 struct iwlagn_scd_bc_tbl *scd_bc_tbl = trans_pcie->scd_bc_tbls.addr; iwl_pcie_txq_inval_byte_cnt_tbl() 267 if (txq_id != trans_pcie->cmd_queue) iwl_pcie_txq_inval_byte_cnt_tbl() 284 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_inc_wr_ptr() local 297 txq_id != trans_pcie->cmd_queue && iwl_pcie_txq_inc_wr_ptr() 326 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_check_wrptrs() local 330 struct iwl_txq *txq = &trans_pcie->txq[i]; iwl_pcie_txq_check_wrptrs() 333 if (trans_pcie->txq[i].need_update) { iwl_pcie_txq_check_wrptrs() 335 trans_pcie->txq[i].need_update = false; iwl_pcie_txq_check_wrptrs() 485 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_alloc() local 495 txq->trans_pcie = trans_pcie; iwl_pcie_txq_alloc() 506 if (txq_id == trans_pcie->cmd_queue) iwl_pcie_txq_alloc() 541 if (txq->entries && txq_id == trans_pcie->cmd_queue) iwl_pcie_txq_alloc() 584 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_unmap() local 585 struct iwl_txq *txq = &trans_pcie->txq[txq_id]; iwl_pcie_txq_unmap() 612 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_free() local 613 struct iwl_txq *txq = &trans_pcie->txq[txq_id]; iwl_pcie_txq_free() 623 if (txq_id == trans_pcie->cmd_queue) iwl_pcie_txq_free() 653 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_tx_start() local 661 memset(trans_pcie->queue_stopped, 0, sizeof(trans_pcie->queue_stopped)); iwl_pcie_tx_start() 662 memset(trans_pcie->queue_used, 0, sizeof(trans_pcie->queue_used)); iwl_pcie_tx_start() 664 trans_pcie->scd_base_addr = iwl_pcie_tx_start() 668 scd_base_addr != trans_pcie->scd_base_addr); iwl_pcie_tx_start() 671 iwl_trans_write_mem(trans, trans_pcie->scd_base_addr + iwl_pcie_tx_start() 676 trans_pcie->scd_bc_tbls.dma >> 10); iwl_pcie_tx_start() 684 iwl_trans_ac_txq_enable(trans, trans_pcie->cmd_queue, iwl_pcie_tx_start() 685 trans_pcie->cmd_fifo, iwl_pcie_tx_start() 686 trans_pcie->cmd_q_wdg_timeout); iwl_pcie_tx_start() 710 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_tx_reset() local 715 struct iwl_txq *txq = &trans_pcie->txq[txq_id]; iwl_trans_pcie_tx_reset() 726 trans_pcie->kw.dma >> 4); iwl_trans_pcie_tx_reset() 738 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_tx_stop_fh() local 743 spin_lock(&trans_pcie->irq_lock); iwl_pcie_tx_stop_fh() 764 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_tx_stop_fh() 772 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_tx_stop() local 786 memset(trans_pcie->queue_stopped, 0, sizeof(trans_pcie->queue_stopped)); iwl_pcie_tx_stop() 787 memset(trans_pcie->queue_used, 0, sizeof(trans_pcie->queue_used)); iwl_pcie_tx_stop() 790 if (!trans_pcie->txq) iwl_pcie_tx_stop() 809 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_tx_free() local 812 if (trans_pcie->txq) { iwl_pcie_tx_free() 818 kfree(trans_pcie->txq); iwl_pcie_tx_free() 819 trans_pcie->txq = NULL; iwl_pcie_tx_free() 821 iwl_pcie_free_dma_ptr(trans, &trans_pcie->kw); iwl_pcie_tx_free() 823 iwl_pcie_free_dma_ptr(trans, &trans_pcie->scd_bc_tbls); iwl_pcie_tx_free() 834 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_tx_alloc() local 841 if (WARN_ON(trans_pcie->txq)) { iwl_pcie_tx_alloc() 846 ret = iwl_pcie_alloc_dma_ptr(trans, &trans_pcie->scd_bc_tbls, iwl_pcie_tx_alloc() 854 ret = iwl_pcie_alloc_dma_ptr(trans, &trans_pcie->kw, IWL_KW_SIZE); iwl_pcie_tx_alloc() 860 trans_pcie->txq = kcalloc(trans->cfg->base_params->num_of_queues, iwl_pcie_tx_alloc() 862 if (!trans_pcie->txq) { iwl_pcie_tx_alloc() 871 slots_num = (txq_id == trans_pcie->cmd_queue) ? iwl_pcie_tx_alloc() 873 ret = iwl_pcie_txq_alloc(trans, &trans_pcie->txq[txq_id], iwl_pcie_tx_alloc() 890 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_tx_init() local 895 if (!trans_pcie->txq) { iwl_pcie_tx_init() 902 spin_lock(&trans_pcie->irq_lock); iwl_pcie_tx_init() 909 trans_pcie->kw.dma >> 4); iwl_pcie_tx_init() 911 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_tx_init() 916 slots_num = (txq_id == trans_pcie->cmd_queue) ? iwl_pcie_tx_init() 918 ret = iwl_pcie_txq_init(trans, &trans_pcie->txq[txq_id], iwl_pcie_tx_init() 967 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_reclaim() local 968 struct iwl_txq *txq = &trans_pcie->txq[txq_id]; iwl_trans_pcie_reclaim() 974 if (WARN_ON(txq_id == trans_pcie->cmd_queue)) iwl_trans_pcie_reclaim() 1039 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_set_cmd_in_flight() local 1042 lockdep_assert_held(&trans_pcie->reg_lock); iwl_pcie_set_cmd_in_flight() 1045 !trans_pcie->ref_cmd_in_flight) { iwl_pcie_set_cmd_in_flight() 1046 trans_pcie->ref_cmd_in_flight = true; iwl_pcie_set_cmd_in_flight() 1058 !trans_pcie->cmd_hold_nic_awake) { iwl_pcie_set_cmd_in_flight() 1073 trans_pcie->cmd_hold_nic_awake = true; iwl_pcie_set_cmd_in_flight() 1081 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_clear_cmd_in_flight() local 1083 lockdep_assert_held(&trans_pcie->reg_lock); iwl_pcie_clear_cmd_in_flight() 1085 if (trans_pcie->ref_cmd_in_flight) { iwl_pcie_clear_cmd_in_flight() 1086 trans_pcie->ref_cmd_in_flight = false; iwl_pcie_clear_cmd_in_flight() 1092 if (WARN_ON(!trans_pcie->cmd_hold_nic_awake)) iwl_pcie_clear_cmd_in_flight() 1095 trans_pcie->cmd_hold_nic_awake = false; iwl_pcie_clear_cmd_in_flight() 1111 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_cmdq_reclaim() local 1112 struct iwl_txq *txq = &trans_pcie->txq[txq_id]; iwl_pcie_cmdq_reclaim() 1138 spin_lock_irqsave(&trans_pcie->reg_lock, flags); iwl_pcie_cmdq_reclaim() 1140 spin_unlock_irqrestore(&trans_pcie->reg_lock, flags); iwl_pcie_cmdq_reclaim() 1149 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_txq_set_ratid_map() local 1156 tbl_dw_addr = trans_pcie->scd_base_addr + iwl_pcie_txq_set_ratid_map() 1179 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_txq_enable() local 1180 struct iwl_txq *txq = &trans_pcie->txq[txq_id]; iwl_trans_pcie_txq_enable() 1183 if (test_and_set_bit(txq_id, trans_pcie->queue_used)) iwl_trans_pcie_txq_enable() 1192 if (txq_id == trans_pcie->cmd_queue && iwl_trans_pcie_txq_enable() 1193 trans_pcie->scd_set_active) iwl_trans_pcie_txq_enable() 1200 if (txq_id != trans_pcie->cmd_queue) iwl_trans_pcie_txq_enable() 1237 iwl_trans_write_mem32(trans, trans_pcie->scd_base_addr + iwl_trans_pcie_txq_enable() 1240 trans_pcie->scd_base_addr + iwl_trans_pcie_txq_enable() 1255 if (txq_id == trans_pcie->cmd_queue && iwl_trans_pcie_txq_enable() 1256 trans_pcie->scd_set_active) iwl_trans_pcie_txq_enable() 1274 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_txq_disable() local 1275 u32 stts_addr = trans_pcie->scd_base_addr + iwl_trans_pcie_txq_disable() 1279 trans_pcie->txq[txq_id].frozen_expiry_remainder = 0; iwl_trans_pcie_txq_disable() 1280 trans_pcie->txq[txq_id].frozen = false; iwl_trans_pcie_txq_disable() 1288 if (!test_and_clear_bit(txq_id, trans_pcie->queue_used)) { iwl_trans_pcie_txq_disable() 1302 trans_pcie->txq[txq_id].ampdu = false; iwl_trans_pcie_txq_disable() 1321 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_enqueue_hcmd() local 1322 struct iwl_txq *txq = &trans_pcie->txq[trans_pcie->cmd_queue]; iwl_pcie_enqueue_hcmd() 1338 if (WARN(!trans_pcie->wide_cmd_header && iwl_pcie_enqueue_hcmd() 1414 get_cmd_string(trans_pcie, cmd->id), cmd->id, copy_size)) { iwl_pcie_enqueue_hcmd() 1448 cpu_to_le16(QUEUE_TO_SEQ(trans_pcie->cmd_queue) | iwl_pcie_enqueue_hcmd() 1456 cpu_to_le16(QUEUE_TO_SEQ(trans_pcie->cmd_queue) | iwl_pcie_enqueue_hcmd() 1504 get_cmd_string(trans_pcie, out_cmd->hdr.cmd), iwl_pcie_enqueue_hcmd() 1507 cmd_size, q->write_ptr, idx, trans_pcie->cmd_queue); iwl_pcie_enqueue_hcmd() 1569 spin_lock_irqsave(&trans_pcie->reg_lock, flags); iwl_pcie_enqueue_hcmd() 1573 spin_unlock_irqrestore(&trans_pcie->reg_lock, flags); iwl_pcie_enqueue_hcmd() 1581 spin_unlock_irqrestore(&trans_pcie->reg_lock, flags); iwl_pcie_enqueue_hcmd() 1609 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_hcmd_complete() local 1610 struct iwl_txq *txq = &trans_pcie->txq[trans_pcie->cmd_queue]; iwl_pcie_hcmd_complete() 1615 if (WARN(txq_id != trans_pcie->cmd_queue, iwl_pcie_hcmd_complete() 1617 txq_id, trans_pcie->cmd_queue, sequence, iwl_pcie_hcmd_complete() 1618 trans_pcie->txq[trans_pcie->cmd_queue].q.read_ptr, iwl_pcie_hcmd_complete() 1619 trans_pcie->txq[trans_pcie->cmd_queue].q.write_ptr)) { iwl_pcie_hcmd_complete() 1638 meta->source->_rx_page_order = trans_pcie->rx_page_order; iwl_pcie_hcmd_complete() 1647 get_cmd_string(trans_pcie, cmd->hdr.cmd)); iwl_pcie_hcmd_complete() 1651 get_cmd_string(trans_pcie, cmd->hdr.cmd)); iwl_pcie_hcmd_complete() 1652 wake_up(&trans_pcie->wait_command_queue); iwl_pcie_hcmd_complete() 1665 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_send_hcmd_async() local 1676 get_cmd_string(trans_pcie, cmd->id), ret); iwl_pcie_send_hcmd_async() 1685 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_send_hcmd_sync() local 1690 get_cmd_string(trans_pcie, cmd->id)); iwl_pcie_send_hcmd_sync() 1695 get_cmd_string(trans_pcie, cmd->id))) iwl_pcie_send_hcmd_sync() 1699 get_cmd_string(trans_pcie, cmd->id)); iwl_pcie_send_hcmd_sync() 1707 get_cmd_string(trans_pcie, cmd->id), ret); iwl_pcie_send_hcmd_sync() 1711 ret = wait_event_timeout(trans_pcie->wait_command_queue, iwl_pcie_send_hcmd_sync() 1716 struct iwl_txq *txq = &trans_pcie->txq[trans_pcie->cmd_queue]; iwl_pcie_send_hcmd_sync() 1720 get_cmd_string(trans_pcie, cmd->id), iwl_pcie_send_hcmd_sync() 1728 get_cmd_string(trans_pcie, cmd->id)); iwl_pcie_send_hcmd_sync() 1739 get_cmd_string(trans_pcie, cmd->id)); iwl_pcie_send_hcmd_sync() 1754 get_cmd_string(trans_pcie, cmd->id)); iwl_pcie_send_hcmd_sync() 1769 trans_pcie->txq[trans_pcie->cmd_queue]. iwl_pcie_send_hcmd_sync() 1800 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_tx() local 1815 txq = &trans_pcie->txq[txq_id]; iwl_trans_pcie_tx() 1818 if (WARN_ONCE(!test_bit(txq_id, trans_pcie->queue_used), iwl_trans_pcie_tx()
|
H A D | trans.c | 92 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_free_fw_monitor() local 94 if (!trans_pcie->fw_mon_page) iwl_pcie_free_fw_monitor() 97 dma_unmap_page(trans->dev, trans_pcie->fw_mon_phys, iwl_pcie_free_fw_monitor() 98 trans_pcie->fw_mon_size, DMA_FROM_DEVICE); iwl_pcie_free_fw_monitor() 99 __free_pages(trans_pcie->fw_mon_page, iwl_pcie_free_fw_monitor() 100 get_order(trans_pcie->fw_mon_size)); iwl_pcie_free_fw_monitor() 101 trans_pcie->fw_mon_page = NULL; iwl_pcie_free_fw_monitor() 102 trans_pcie->fw_mon_phys = 0; iwl_pcie_free_fw_monitor() 103 trans_pcie->fw_mon_size = 0; iwl_pcie_free_fw_monitor() 108 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_alloc_fw_monitor() local 126 if (trans_pcie->fw_mon_page) { iwl_pcie_alloc_fw_monitor() 127 dma_sync_single_for_device(trans->dev, trans_pcie->fw_mon_phys, iwl_pcie_alloc_fw_monitor() 128 trans_pcie->fw_mon_size, iwl_pcie_alloc_fw_monitor() 166 trans_pcie->fw_mon_page = page; iwl_pcie_alloc_fw_monitor() 167 trans_pcie->fw_mon_phys = phys; iwl_pcie_alloc_fw_monitor() 168 trans_pcie->fw_mon_size = size; iwl_pcie_alloc_fw_monitor() 205 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_apm_config() local 217 pcie_capability_read_word(trans_pcie->pci_dev, PCI_EXP_LNKCTL, &lctl); iwl_pcie_apm_config() 224 pcie_capability_read_word(trans_pcie->pci_dev, PCI_EXP_DEVCTL2, &cap); iwl_pcie_apm_config() 521 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_nic_init() local 524 spin_lock(&trans_pcie->irq_lock); iwl_pcie_nic_init() 527 spin_unlock(&trans_pcie->irq_lock); iwl_pcie_nic_init() 617 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_load_firmware_chunk() local 620 trans_pcie->ucode_write_complete = false; iwl_pcie_load_firmware_chunk() 651 ret = wait_event_timeout(trans_pcie->ucode_write_waitq, iwl_pcie_load_firmware_chunk() 652 trans_pcie->ucode_write_complete, 5 * HZ); iwl_pcie_load_firmware_chunk() 870 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_apply_destination() local 926 if (dest->monitor_mode == EXTERNAL_MODE && trans_pcie->fw_mon_size) { iwl_pcie_apply_destination() 928 trans_pcie->fw_mon_phys >> dest->base_shift); iwl_pcie_apply_destination() 931 (trans_pcie->fw_mon_phys + iwl_pcie_apply_destination() 932 trans_pcie->fw_mon_size - 256) >> iwl_pcie_apply_destination() 936 (trans_pcie->fw_mon_phys + iwl_pcie_apply_destination() 937 trans_pcie->fw_mon_size) >> iwl_pcie_apply_destination() 945 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pcie_load_given_ucode() local 975 if (trans_pcie->fw_mon_size) { iwl_pcie_load_given_ucode() 977 trans_pcie->fw_mon_phys >> 4); iwl_pcie_load_given_ucode() 979 (trans_pcie->fw_mon_phys + iwl_pcie_load_given_ucode() 980 trans_pcie->fw_mon_size) >> 4); iwl_pcie_load_given_ucode() 1027 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_start_fw() local 1031 mutex_lock(&trans_pcie->mutex); iwl_trans_pcie_start_fw() 1034 if (trans_pcie->is_down) { iwl_trans_pcie_start_fw() 1090 mutex_unlock(&trans_pcie->mutex); iwl_trans_pcie_start_fw() 1102 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); _iwl_trans_pcie_stop_device() local 1105 lockdep_assert_held(&trans_pcie->mutex); _iwl_trans_pcie_stop_device() 1107 if (trans_pcie->is_down) _iwl_trans_pcie_stop_device() 1110 trans_pcie->is_down = true; _iwl_trans_pcie_stop_device() 1115 spin_lock(&trans_pcie->irq_lock); _iwl_trans_pcie_stop_device() 1117 spin_unlock(&trans_pcie->irq_lock); _iwl_trans_pcie_stop_device() 1160 spin_lock(&trans_pcie->irq_lock); _iwl_trans_pcie_stop_device() 1162 spin_unlock(&trans_pcie->irq_lock); _iwl_trans_pcie_stop_device() 1203 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_stop_device() local 1205 mutex_lock(&trans_pcie->mutex); iwl_trans_pcie_stop_device() 1207 mutex_unlock(&trans_pcie->mutex); iwl_trans_pcie_stop_device() 1212 struct iwl_trans_pcie __maybe_unused *trans_pcie = iwl_trans_pcie_rf_kill() local 1215 lockdep_assert_held(&trans_pcie->mutex); iwl_trans_pcie_rf_kill() 1223 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_d3_suspend() local 1242 synchronize_irq(trans_pcie->pci_dev->irq); iwl_trans_pcie_d3_suspend() 1323 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); _iwl_trans_pcie_start_hw() local 1327 lockdep_assert_held(&trans_pcie->mutex); _iwl_trans_pcie_start_hw() 1346 trans_pcie->is_down = false; _iwl_trans_pcie_start_hw() 1361 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_start_hw() local 1364 mutex_lock(&trans_pcie->mutex); iwl_trans_pcie_start_hw() 1366 mutex_unlock(&trans_pcie->mutex); iwl_trans_pcie_start_hw() 1373 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_op_mode_leave() local 1375 mutex_lock(&trans_pcie->mutex); iwl_trans_pcie_op_mode_leave() 1378 spin_lock(&trans_pcie->irq_lock); iwl_trans_pcie_op_mode_leave() 1380 spin_unlock(&trans_pcie->irq_lock); iwl_trans_pcie_op_mode_leave() 1384 spin_lock(&trans_pcie->irq_lock); iwl_trans_pcie_op_mode_leave() 1386 spin_unlock(&trans_pcie->irq_lock); iwl_trans_pcie_op_mode_leave() 1390 mutex_unlock(&trans_pcie->mutex); iwl_trans_pcie_op_mode_leave() 1392 synchronize_irq(trans_pcie->pci_dev->irq); iwl_trans_pcie_op_mode_leave() 1434 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_configure() local 1436 trans_pcie->cmd_queue = trans_cfg->cmd_queue; iwl_trans_pcie_configure() 1437 trans_pcie->cmd_fifo = trans_cfg->cmd_fifo; iwl_trans_pcie_configure() 1438 trans_pcie->cmd_q_wdg_timeout = trans_cfg->cmd_q_wdg_timeout; iwl_trans_pcie_configure() 1440 trans_pcie->n_no_reclaim_cmds = 0; iwl_trans_pcie_configure() 1442 trans_pcie->n_no_reclaim_cmds = trans_cfg->n_no_reclaim_cmds; iwl_trans_pcie_configure() 1443 if (trans_pcie->n_no_reclaim_cmds) iwl_trans_pcie_configure() 1444 memcpy(trans_pcie->no_reclaim_cmds, trans_cfg->no_reclaim_cmds, iwl_trans_pcie_configure() 1445 trans_pcie->n_no_reclaim_cmds * sizeof(u8)); iwl_trans_pcie_configure() 1447 trans_pcie->rx_buf_size_8k = trans_cfg->rx_buf_size_8k; iwl_trans_pcie_configure() 1448 if (trans_pcie->rx_buf_size_8k) iwl_trans_pcie_configure() 1449 trans_pcie->rx_page_order = get_order(8 * 1024); iwl_trans_pcie_configure() 1451 trans_pcie->rx_page_order = get_order(4 * 1024); iwl_trans_pcie_configure() 1453 trans_pcie->wide_cmd_header = trans_cfg->wide_cmd_header; iwl_trans_pcie_configure() 1454 trans_pcie->command_names = trans_cfg->command_names; iwl_trans_pcie_configure() 1455 trans_pcie->bc_table_dword = trans_cfg->bc_table_dword; iwl_trans_pcie_configure() 1456 trans_pcie->scd_set_active = trans_cfg->scd_set_active; iwl_trans_pcie_configure() 1459 trans_pcie->ref_count = 1; iwl_trans_pcie_configure() 1466 if (!trans_pcie->napi.poll) { iwl_trans_pcie_configure() 1467 init_dummy_netdev(&trans_pcie->napi_dev); iwl_trans_pcie_configure() 1468 netif_napi_add(&trans_pcie->napi_dev, &trans_pcie->napi, iwl_trans_pcie_configure() 1475 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_free() local 1477 synchronize_irq(trans_pcie->pci_dev->irq); iwl_trans_pcie_free() 1482 free_irq(trans_pcie->pci_dev->irq, trans); iwl_trans_pcie_free() 1485 pci_disable_msi(trans_pcie->pci_dev); iwl_trans_pcie_free() 1486 iounmap(trans_pcie->hw_base); iwl_trans_pcie_free() 1487 pci_release_regions(trans_pcie->pci_dev); iwl_trans_pcie_free() 1488 pci_disable_device(trans_pcie->pci_dev); iwl_trans_pcie_free() 1490 if (trans_pcie->napi.poll) iwl_trans_pcie_free() 1491 netif_napi_del(&trans_pcie->napi); iwl_trans_pcie_free() 1510 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_grab_nic_access() local 1512 spin_lock_irqsave(&trans_pcie->reg_lock, *flags); iwl_trans_pcie_grab_nic_access() 1514 if (trans_pcie->cmd_hold_nic_awake) iwl_trans_pcie_grab_nic_access() 1553 spin_unlock_irqrestore(&trans_pcie->reg_lock, *flags); iwl_trans_pcie_grab_nic_access() 1563 __release(&trans_pcie->reg_lock); iwl_trans_pcie_grab_nic_access() 1570 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_release_nic_access() local 1572 lockdep_assert_held(&trans_pcie->reg_lock); iwl_trans_pcie_release_nic_access() 1578 __acquire(&trans_pcie->reg_lock); iwl_trans_pcie_release_nic_access() 1580 if (trans_pcie->cmd_hold_nic_awake) iwl_trans_pcie_release_nic_access() 1593 spin_unlock_irqrestore(&trans_pcie->reg_lock, *flags); iwl_trans_pcie_release_nic_access() 1637 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_freeze_txq_timer() local 1641 struct iwl_txq *txq = &trans_pcie->txq[queue]; iwl_trans_pcie_freeze_txq_timer() 1691 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_wait_txq_empty() local 1704 if (cnt == trans_pcie->cmd_queue) iwl_trans_pcie_wait_txq_empty() 1706 if (!test_bit(cnt, trans_pcie->queue_used)) iwl_trans_pcie_wait_txq_empty() 1712 txq = &trans_pcie->txq[cnt]; iwl_trans_pcie_wait_txq_empty() 1743 scd_sram_addr = trans_pcie->scd_base_addr + iwl_trans_pcie_wait_txq_empty() 1758 iwl_trans_read_mem32(trans, trans_pcie->scd_base_addr + iwl_trans_pcie_wait_txq_empty() 1780 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_set_bits_mask() local 1783 spin_lock_irqsave(&trans_pcie->reg_lock, flags); iwl_trans_pcie_set_bits_mask() 1785 spin_unlock_irqrestore(&trans_pcie->reg_lock, flags); iwl_trans_pcie_set_bits_mask() 1790 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_ref() local 1796 spin_lock_irqsave(&trans_pcie->ref_lock, flags); iwl_trans_pcie_ref() 1797 IWL_DEBUG_RPM(trans, "ref_counter: %d\n", trans_pcie->ref_count); iwl_trans_pcie_ref() 1798 trans_pcie->ref_count++; iwl_trans_pcie_ref() 1799 spin_unlock_irqrestore(&trans_pcie->ref_lock, flags); iwl_trans_pcie_ref() 1804 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_unref() local 1810 spin_lock_irqsave(&trans_pcie->ref_lock, flags); iwl_trans_pcie_unref() 1811 IWL_DEBUG_RPM(trans, "ref_counter: %d\n", trans_pcie->ref_count); iwl_trans_pcie_unref() 1812 if (WARN_ON_ONCE(trans_pcie->ref_count == 0)) { iwl_trans_pcie_unref() 1813 spin_unlock_irqrestore(&trans_pcie->ref_lock, flags); iwl_trans_pcie_unref() 1816 trans_pcie->ref_count--; iwl_trans_pcie_unref() 1817 spin_unlock_irqrestore(&trans_pcie->ref_lock, flags); iwl_trans_pcie_unref() 1929 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_dbgfs_tx_queue_read() local 1940 if (!trans_pcie->txq) iwl_dbgfs_tx_queue_read() 1948 txq = &trans_pcie->txq[cnt]; iwl_dbgfs_tx_queue_read() 1953 !!test_bit(cnt, trans_pcie->queue_used), iwl_dbgfs_tx_queue_read() 1954 !!test_bit(cnt, trans_pcie->queue_stopped), iwl_dbgfs_tx_queue_read() 1956 (cnt == trans_pcie->cmd_queue ? " HCMD" : "")); iwl_dbgfs_tx_queue_read() 1968 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_dbgfs_rx_queue_read() local 1969 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_dbgfs_rx_queue_read() 1999 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_dbgfs_interrupt_read() local 2000 struct isr_statistics *isr_stats = &trans_pcie->isr_stats; iwl_dbgfs_interrupt_read() 2057 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_dbgfs_interrupt_write() local 2058 struct isr_statistics *isr_stats = &trans_pcie->isr_stats; iwl_dbgfs_interrupt_write() 2300 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_dump_rbs() local 2301 int max_len = PAGE_SIZE << trans_pcie->rx_page_order; iwl_trans_pcie_dump_rbs() 2302 struct iwl_rxq *rxq = &trans_pcie->rxq; iwl_trans_pcie_dump_rbs() 2411 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_dump_monitor() local 2414 if ((trans_pcie->fw_mon_page && iwl_trans_pcie_dump_monitor() 2442 if (trans_pcie->fw_mon_page) { iwl_trans_pcie_dump_monitor() 2450 trans_pcie->fw_mon_phys, iwl_trans_pcie_dump_monitor() 2451 trans_pcie->fw_mon_size, iwl_trans_pcie_dump_monitor() 2454 page_address(trans_pcie->fw_mon_page), iwl_trans_pcie_dump_monitor() 2455 trans_pcie->fw_mon_size); iwl_trans_pcie_dump_monitor() 2457 monitor_len = trans_pcie->fw_mon_size; iwl_trans_pcie_dump_monitor() 2488 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_dump_data() local 2490 struct iwl_txq *cmdq = &trans_pcie->txq[trans_pcie->cmd_queue]; iwl_trans_pcie_dump_data() 2506 if (trans_pcie->fw_mon_page) { iwl_trans_pcie_dump_data() 2508 trans_pcie->fw_mon_size; iwl_trans_pcie_dump_data() 2509 monitor_len = trans_pcie->fw_mon_size; iwl_trans_pcie_dump_data() 2563 trans_pcie->rxq.rb_stts->closed_rb_num)) iwl_trans_pcie_dump_data() 2565 num_rbs = (num_rbs - trans_pcie->rxq.read) & RX_QUEUE_MASK; iwl_trans_pcie_dump_data() 2568 (PAGE_SIZE << trans_pcie->rx_page_order)); iwl_trans_pcie_dump_data() 2663 struct iwl_trans_pcie *trans_pcie; iwl_trans_pcie_alloc() local 2675 trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_trans_pcie_alloc() 2677 trans_pcie->trans = trans; iwl_trans_pcie_alloc() 2678 spin_lock_init(&trans_pcie->irq_lock); iwl_trans_pcie_alloc() 2679 spin_lock_init(&trans_pcie->reg_lock); iwl_trans_pcie_alloc() 2680 spin_lock_init(&trans_pcie->ref_lock); iwl_trans_pcie_alloc() 2681 mutex_init(&trans_pcie->mutex); iwl_trans_pcie_alloc() 2682 init_waitqueue_head(&trans_pcie->ucode_write_waitq); iwl_trans_pcie_alloc() 2722 trans_pcie->hw_base = pci_ioremap_bar(pdev, 0); iwl_trans_pcie_alloc() 2723 if (!trans_pcie->hw_base) { iwl_trans_pcie_alloc() 2734 trans_pcie->pci_dev = pdev; iwl_trans_pcie_alloc() 2804 init_waitqueue_head(&trans_pcie->wait_command_queue); iwl_trans_pcie_alloc() 2818 trans_pcie->inta_mask = CSR_INI_SET_MASK; iwl_trans_pcie_alloc()
|
H A D | internal.h | 65 * trans_pcie layer */ 256 * @trans_pcie: pointer back to transport (for timer) 276 struct iwl_trans_pcie *trans_pcie; member in struct:iwl_txq 385 iwl_trans_pcie_get_trans(struct iwl_trans_pcie *trans_pcie) iwl_trans_pcie_get_trans() argument 387 return container_of((void *)trans_pcie, struct iwl_trans, iwl_trans_pcie_get_trans() 473 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_enable_interrupts() local 477 trans_pcie->inta_mask = CSR_INI_SET_MASK; iwl_enable_interrupts() 478 iwl_write32(trans, CSR_INT_MASK, trans_pcie->inta_mask); iwl_enable_interrupts() 483 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_enable_rfkill_int() local 486 trans_pcie->inta_mask = CSR_INT_BIT_RF_KILL; iwl_enable_rfkill_int() 487 iwl_write32(trans, CSR_INT_MASK, trans_pcie->inta_mask); iwl_enable_rfkill_int() 493 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_wake_queue() local 495 if (test_and_clear_bit(txq->q.id, trans_pcie->queue_stopped)) { iwl_wake_queue() 504 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_stop_queue() local 506 if (!test_and_set_bit(txq->q.id, trans_pcie->queue_stopped)) { iwl_stop_queue() 526 static inline const char *get_cmd_string(struct iwl_trans_pcie *trans_pcie, get_cmd_string() argument 529 if (!trans_pcie->command_names || !trans_pcie->command_names[cmd]) get_cmd_string() 531 return trans_pcie->command_names[cmd]; get_cmd_string()
|
H A D | drv.c | 561 struct iwl_trans_pcie *trans_pcie; iwl_pci_probe() local 591 trans_pcie = IWL_TRANS_GET_PCIE_TRANS(iwl_trans); iwl_pci_probe() 592 trans_pcie->drv = iwl_drv_start(iwl_trans, cfg); iwl_pci_probe() 594 if (IS_ERR(trans_pcie->drv)) { iwl_pci_probe() 595 ret = PTR_ERR(trans_pcie->drv); iwl_pci_probe() 609 iwl_drv_stop(trans_pcie->drv); iwl_pci_probe() 618 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pci_remove() local 620 iwl_drv_stop(trans_pcie->drv); iwl_pci_remove() 640 struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans); iwl_pci_resume() local 665 mutex_lock(&trans_pcie->mutex); iwl_pci_resume() 667 mutex_unlock(&trans_pcie->mutex); iwl_pci_resume()
|