Lines Matching defs:mp_req

410 	struct qedf_mp_req *mp_req = &(io_req->mp_req);
415 if (mp_req->mp_req_bd) {
417 mp_req->mp_req_bd, mp_req->mp_req_bd_dma);
418 mp_req->mp_req_bd = NULL;
420 if (mp_req->mp_resp_bd) {
422 mp_req->mp_resp_bd, mp_req->mp_resp_bd_dma);
423 mp_req->mp_resp_bd = NULL;
425 if (mp_req->req_buf) {
427 mp_req->req_buf, mp_req->req_buf_dma);
428 mp_req->req_buf = NULL;
430 if (mp_req->resp_buf) {
432 mp_req->resp_buf, mp_req->resp_buf_dma);
433 mp_req->resp_buf = NULL;
684 struct qedf_mp_req *mp_req = &(io_req->mp_req);
719 fc_hdr = &(mp_req->req_fc_hdr);
734 tx_sgl_task_params.sgl = mp_req->mp_req_bd;
735 tx_sgl_task_params.sgl_phys_addr.lo = U64_LO(mp_req->mp_req_bd_dma);
736 tx_sgl_task_params.sgl_phys_addr.hi = U64_HI(mp_req->mp_req_bd_dma);
743 rx_sgl_task_params.sgl = mp_req->mp_resp_bd;
744 rx_sgl_task_params.sgl_phys_addr.lo = U64_LO(mp_req->mp_resp_bd_dma);
745 rx_sgl_task_params.sgl_phys_addr.hi = U64_HI(mp_req->mp_resp_bd_dma);
2067 struct qedf_mp_req *mp_req;
2076 mp_req = (struct qedf_mp_req *)&(io_req->mp_req);
2077 memset(mp_req, 0, sizeof(struct qedf_mp_req));
2080 mp_req->req_len = sizeof(struct fcp_cmnd);
2081 io_req->data_xfer_len = mp_req->req_len;
2083 mp_req->req_len = io_req->data_xfer_len;
2085 mp_req->req_buf = dma_alloc_coherent(&qedf->pdev->dev, QEDF_PAGE_SIZE,
2086 &mp_req->req_buf_dma, GFP_KERNEL);
2087 if (!mp_req->req_buf) {
2093 mp_req->resp_buf = dma_alloc_coherent(&qedf->pdev->dev,
2094 QEDF_PAGE_SIZE, &mp_req->resp_buf_dma, GFP_KERNEL);
2095 if (!mp_req->resp_buf) {
2104 mp_req->mp_req_bd = dma_alloc_coherent(&qedf->pdev->dev, sz,
2105 &mp_req->mp_req_bd_dma, GFP_KERNEL);
2106 if (!mp_req->mp_req_bd) {
2112 mp_req->mp_resp_bd = dma_alloc_coherent(&qedf->pdev->dev, sz,
2113 &mp_req->mp_resp_bd_dma, GFP_KERNEL);
2114 if (!mp_req->mp_resp_bd) {
2121 addr = mp_req->req_buf_dma;
2122 mp_req_bd = mp_req->mp_req_bd;
2132 mp_resp_bd = mp_req->mp_resp_bd;
2133 addr = mp_req->resp_buf_dma;