Lines Matching defs:io_wq
470 struct io_wq *io_wq;
1483 BUG_ON(!tctx->io_wq);
1500 io_wq_enqueue(tctx->io_wq, &req->work);
6364 if (!tctx || !tctx->io_wq)
6367 cancel_ret = io_wq_cancel_cb(tctx->io_wq, io_cancel_cb, &data, false);
8635 static struct io_wq *io_init_wq_offload(struct io_ring_ctx *ctx,
8683 tctx->io_wq = io_init_wq_offload(ctx, task);
8684 if (IS_ERR(tctx->io_wq)) {
8685 ret = PTR_ERR(tctx->io_wq);
8707 WARN_ON_ONCE(tctx->io_wq);
9522 if (tsk && tsk->io_uring && tsk->io_uring->io_wq)
9523 io_wq_cancel_cb(tsk->io_uring->io_wq,
9699 * io_wq will stay alive while we hold uring_lock, because it's
9702 if (!tctx || !tctx->io_wq)
9704 cret = io_wq_cancel_cb(tctx->io_wq, io_cancel_ctx_cb, ctx, true);
9725 } else if (tctx && tctx->io_wq) {
9730 cret = io_wq_cancel_cb(tctx->io_wq, io_cancel_task_cb,
9772 ret = io_wq_max_workers(tctx->io_wq, limits);
9839 struct io_wq *wq = tctx->io_wq;
9853 tctx->io_wq = NULL;
9879 if (tctx->io_wq)
9880 io_wq_exit_start(tctx->io_wq);
10750 if (!tctx || !tctx->io_wq)
10777 ret = io_wq_cpu_affinity(tctx->io_wq, new_mask);
10786 if (!tctx || !tctx->io_wq)
10789 return io_wq_cpu_affinity(tctx->io_wq, NULL);
10835 if (tctx && tctx->io_wq) {
10836 ret = io_wq_max_workers(tctx->io_wq, new_count);
10859 if (WARN_ON_ONCE(!tctx->io_wq))
10865 (void)io_wq_max_workers(tctx->io_wq, new_count);