Lines Matching refs:io_cq

89 int ena_com_rx_pkt(struct ena_com_io_cq *io_cq,
97 bool ena_com_cq_empty(struct ena_com_io_cq *io_cq);
99 static inline void ena_com_unmask_intr(struct ena_com_io_cq *io_cq, in ena_com_unmask_intr() argument
102 ENA_REG_WRITE32(io_cq->bus, intr_reg->intr_control, io_cq->unmask_reg); in ena_com_unmask_intr()
204 static inline void ena_com_update_numa_node(struct ena_com_io_cq *io_cq, in ena_com_update_numa_node() argument
209 if (!io_cq->numa_node_cfg_reg) in ena_com_update_numa_node()
215 ENA_REG_WRITE32(io_cq->bus, numa_cfg.numa_cfg, io_cq->numa_node_cfg_reg); in ena_com_update_numa_node()
223 static inline void ena_com_cq_inc_head(struct ena_com_io_cq *io_cq) in ena_com_cq_inc_head() argument
225 io_cq->head++; in ena_com_cq_inc_head()
228 if (unlikely((io_cq->head & (io_cq->q_depth - 1)) == 0)) in ena_com_cq_inc_head()
229 io_cq->phase ^= 1; in ena_com_cq_inc_head()
232 static inline int ena_com_tx_comp_req_id_get(struct ena_com_io_cq *io_cq, in ena_com_tx_comp_req_id_get() argument
235 struct ena_com_dev *dev = ena_com_io_cq_to_ena_dev(io_cq); in ena_com_tx_comp_req_id_get()
241 masked_head = io_cq->head & (io_cq->q_depth - 1); in ena_com_tx_comp_req_id_get()
242 expected_phase = io_cq->phase; in ena_com_tx_comp_req_id_get()
245 ((uintptr_t)io_cq->cdesc_addr.virt_addr + in ena_com_tx_comp_req_id_get()
246 (masked_head * io_cq->cdesc_entry_size_in_bytes)); in ena_com_tx_comp_req_id_get()
262 io_cq->qid, cdesc->req_id); in ena_com_tx_comp_req_id_get()
269 if (unlikely(*req_id >= io_cq->q_depth)) { in ena_com_tx_comp_req_id_get()
270 ena_trc_err(ena_com_io_cq_to_ena_dev(io_cq), in ena_com_tx_comp_req_id_get()
275 ena_com_cq_inc_head(io_cq); in ena_com_tx_comp_req_id_get()