Searched refs:io_wq (Results 1 – 9 of 9) sorted by relevance
| /linux/io_uring/ |
| H A D | io-wq.c | 54 struct io_wq *wq; 116 struct io_wq { struct 147 static bool create_io_worker(struct io_wq *wq, struct io_wq_acct *acct); argument 149 static bool io_acct_cancel_pending_work(struct io_wq *wq, 153 static void io_wq_cancel_tw_create(struct io_wq *wq); 176 static inline struct io_wq_acct *io_get_acct(struct io_wq *wq, bool bound) in io_get_acct() 181 static inline struct io_wq_acct *io_work_get_acct(struct io_wq *wq, in io_work_get_acct() 192 static void io_worker_ref_put(struct io_wq *wq) in io_worker_ref_put() 211 struct io_wq *wq = worker->wq; in io_worker_cancel_cb() 234 struct io_wq *wq = worker->wq; in io_worker_exit() [all …]
|
| H A D | tctx.c | 16 static struct io_wq *io_init_wq_offload(struct io_ring_ctx *ctx, in io_init_wq_offload() 63 WARN_ON_ONCE(tctx->io_wq); in __io_uring_free() 93 tctx->io_wq = io_init_wq_offload(ctx, task); in io_uring_alloc_task_context() 94 if (IS_ERR(tctx->io_wq)) { in io_uring_alloc_task_context() 95 ret = PTR_ERR(tctx->io_wq); in io_uring_alloc_task_context() 157 ret = io_wq_max_workers(tctx->io_wq, limits); in __io_uring_add_tctx_node() 168 if (tctx->io_wq) in __io_uring_add_tctx_node() 169 io_wq_set_exit_on_idle(tctx->io_wq, false); in __io_uring_add_tctx_node() 178 if (tctx->io_wq) { in __io_uring_add_tctx_node() 179 io_wq_exit_start(tctx->io_wq); in __io_uring_add_tctx_node() [all …]
|
| H A D | register.c | 397 if (tctx && tctx->io_wq) { in io_register_iowq_max_workers() 398 ret = io_wq_max_workers(tctx->io_wq, new_count); in io_register_iowq_max_workers() 423 if (WARN_ON_ONCE(!tctx->io_wq)) in io_register_iowq_max_workers() 429 (void)io_wq_max_workers(tctx->io_wq, new_count); in io_register_iowq_max_workers()
|
| H A D | io_uring.c | 413 if ((current->flags & PF_KTHREAD) || !tctx->io_wq) { in io_queue_iowq() 432 io_wq_enqueue(tctx->io_wq, &req->work); in io_queue_iowq() 2344 if (tsk && tsk->io_uring && tsk->io_uring->io_wq) in io_ring_exit_work() 2345 io_wq_cancel_cb(tsk->io_uring->io_wq, in io_ring_exit_work()
|
| /linux/include/linux/ |
| H A D | io_uring_types.h | 121 struct io_wq *io_wq; member
|
| /linux/drivers/scsi/lpfc/ |
| H A D | lpfc_sli4.h | 706 struct lpfc_queue *io_wq; /* Fast-path FCP & NVME work queue */ member
|
| H A D | lpfc_sli.c | 4627 pring = phba->sli4_hba.hdwq[i].io_wq->pring; in lpfc_sli_abort_fcp_rings() 4663 !phba->sli4_hba.hdwq[i].io_wq) { in lpfc_sli_flush_io_rings() 4673 pring = phba->sli4_hba.hdwq[i].io_wq->pring; in lpfc_sli_flush_io_rings() 10699 wq = phba->sli4_hba.hdwq[piocb->hba_wqidx].io_wq; in __lpfc_sli_issue_iocb_s4() 11288 return phba->sli4_hba.hdwq[piocb->hba_wqidx].io_wq->pring; in lpfc_sli4_calc_ring() 11801 pring = phba->sli4_hba.hdwq[i].io_wq->pring; in lpfc_sli4_queue_init() 12914 phba->sli4_hba.hdwq[iocbq->hba_wqidx].io_wq->pring; in lpfc_sli_abort_taskmgmt() 21205 wq = phba->sli4_hba.hdwq[0].io_wq; in lpfc_drain_txq() 21448 wq = qp->io_wq; in lpfc_sli4_issue_wqe() 21470 wq = qp->io_wq; in lpfc_sli4_issue_wqe() [all …]
|
| H A D | lpfc_debugfs.c | 532 txcmplq_cnt = qp->io_wq->pring->txcmplq_cnt; in lpfc_debugfs_multixripools_data() 3921 qp = phba->sli4_hba.hdwq[qidx].io_wq; in lpfc_idiag_wqs_for_cq() 4512 qp = phba->sli4_hba.hdwq[qidx].io_wq; in lpfc_idiag_queacc_write()
|
| H A D | lpfc_init.c | 10401 phba->sli4_hba.hdwq[idx].io_wq = qdesc; in lpfc_alloc_io_wq_cq() 10826 lpfc_sli4_queue_free(hdwq[idx].io_wq); in lpfc_sli4_release_hdwq() 10829 hdwq[idx].io_wq = NULL; in lpfc_sli4_release_hdwq() 11163 qp[qidx].io_wq, in lpfc_sli4_queue_setup() 11470 lpfc_wq_destroy(phba, qp->io_wq); in lpfc_sli4_queue_unset()
|