IB/hfi1: Cleanup tasklet refs in comments
authorDennis Dalessandro <dennis.dalessandro@intel.com>
Sun, 25 Sep 2016 14:42:08 +0000 (07:42 -0700)
committerDoug Ledford <dledford@redhat.com>
Sun, 2 Oct 2016 12:42:16 +0000 (08:42 -0400)
The code no longer uses tasklets for the send engine. However it does
use a tasklet for sdma but the send routines use a workqueue now days.
Update the comments to reflect that. Make things more generic with
saying "send engine" because that is what is being referred to.

Reviewed-by: Ira Weiny <ira.weiny@intel.com>
Signed-off-by: Dennis Dalessandro <dennis.dalessandro@intel.com>
Signed-off-by: Doug Ledford <dledford@redhat.com>
drivers/infiniband/hw/hfi1/rc.c
drivers/infiniband/hw/hfi1/ruc.c

index e9623d0..8bc5013 100644 (file)
@@ -835,7 +835,7 @@ bail_no_tx:
  *
  * This is called from hfi1_rc_rcv() and handle_receive_interrupt().
  * Note that RDMA reads and atomics are handled in the
- * send side QP state and tasklet.
+ * send side QP state and send engine.
  */
 void hfi1_send_rc_ack(struct hfi1_ctxtdata *rcd, struct rvt_qp *qp,
                      int is_fecn)
@@ -911,7 +911,7 @@ void hfi1_send_rc_ack(struct hfi1_ctxtdata *rcd, struct rvt_qp *qp,
        if (!pbuf) {
                /*
                 * We have no room to send at the moment.  Pass
-                * responsibility for sending the ACK to the send tasklet
+                * responsibility for sending the ACK to the send engine
                 * so that when enough buffer space becomes available,
                 * the ACK is sent ahead of other outgoing packets.
                 */
@@ -936,7 +936,7 @@ queue_ack:
        if (is_fecn)
                qp->s_flags |= RVT_S_ECN;
 
-       /* Schedule the send tasklet. */
+       /* Schedule the send engine. */
        hfi1_schedule_send(qp);
 unlock:
        spin_unlock_irqrestore(&qp->s_lock, flags);
@@ -1025,7 +1025,7 @@ done:
        qp->s_psn = psn;
        /*
         * Set RVT_S_WAIT_PSN as rc_complete() may start the timer
-        * asynchronously before the send tasklet can get scheduled.
+        * asynchronously before the send engine can get scheduled.
         * Doing it in hfi1_make_rc_req() is too late.
         */
        if ((cmp_psn(qp->s_psn, qp->s_sending_hpsn) <= 0) &&
@@ -1946,7 +1946,7 @@ static noinline int rc_rcv_error(struct ib_other_headers *ohdr, void *data,
        case OP(FETCH_ADD): {
                /*
                 * If we didn't find the atomic request in the ack queue
-                * or the send tasklet is already backed up to send an
+                * or the send engine is already backed up to send an
                 * earlier entry, we can ignore this request.
                 */
                if (!e || e->opcode != (u8)opcode || old_req)
@@ -2433,7 +2433,7 @@ send_last:
                qp->r_nak_state = 0;
                qp->r_head_ack_queue = next;
 
-               /* Schedule the send tasklet. */
+               /* Schedule the send engine. */
                qp->s_flags |= RVT_S_RESP_PENDING;
                hfi1_schedule_send(qp);
 
@@ -2499,7 +2499,7 @@ send_last:
                qp->r_nak_state = 0;
                qp->r_head_ack_queue = next;
 
-               /* Schedule the send tasklet. */
+               /* Schedule the send engine. */
                qp->s_flags |= RVT_S_RESP_PENDING;
                hfi1_schedule_send(qp);
 
index 7ce2b3c..a1576ae 100644 (file)
@@ -352,7 +352,7 @@ err:
  *
  * This is called from hfi1_do_send() to
  * forward a WQE addressed to the same HFI.
- * Note that although we are single threaded due to the tasklet, we still
+ * Note that although we are single threaded due to the send engine, we still
  * have to protect against post_send().  We don't have to worry about
  * receive interrupts since this is a connected protocol and all packets
  * will pass through here.
@@ -846,7 +846,7 @@ void _hfi1_do_send(struct work_struct *work)
  * @work: contains a pointer to the QP
  *
  * Process entries in the send work queue until credit or queue is
- * exhausted.  Only allow one CPU to send a packet per QP (tasklet).
+ * exhausted.  Only allow one CPU to send a packet per QP.
  * Otherwise, two threads could send packets out of order.
  */
 void hfi1_do_send(struct rvt_qp *qp)
@@ -909,7 +909,7 @@ void hfi1_do_send(struct rvt_qp *qp)
                        spin_unlock_irqrestore(&qp->s_lock, ps.flags);
                        /*
                         * If the packet cannot be sent now, return and
-                        * the send tasklet will be woken up later.
+                        * the send engine will be woken up later.
                         */
                        if (hfi1_verbs_send(qp, &ps))
                                return;