iwlwifi: put use_rts_for_aggregation into hw_params
[pandora-kernel.git] / drivers / net / wireless / iwlwifi / iwl-agn-tx.c
1 /******************************************************************************
2  *
3  * GPL LICENSE SUMMARY
4  *
5  * Copyright(c) 2008 - 2012 Intel Corporation. All rights reserved.
6  *
7  * This program is free software; you can redistribute it and/or modify
8  * it under the terms of version 2 of the GNU General Public License as
9  * published by the Free Software Foundation.
10  *
11  * This program is distributed in the hope that it will be useful, but
12  * WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * General Public License for more details.
15  *
16  * You should have received a copy of the GNU General Public License
17  * along with this program; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110,
19  * USA
20  *
21  * The full GNU General Public License is included in this distribution
22  * in the file called LICENSE.GPL.
23  *
24  * Contact Information:
25  *  Intel Linux Wireless <ilw@linux.intel.com>
26  * Intel Corporation, 5200 N.E. Elam Young Parkway, Hillsboro, OR 97124-6497
27  *
28  *****************************************************************************/
29
30 #include <linux/kernel.h>
31 #include <linux/module.h>
32 #include <linux/init.h>
33 #include <linux/sched.h>
34 #include <linux/ieee80211.h>
35
36 #include "iwl-dev.h"
37 #include "iwl-core.h"
38 #include "iwl-io.h"
39 #include "iwl-agn-hw.h"
40 #include "iwl-agn.h"
41 #include "iwl-trans.h"
42
43 static void iwlagn_tx_cmd_protection(struct iwl_priv *priv,
44                                      struct ieee80211_tx_info *info,
45                                      __le16 fc, __le32 *tx_flags)
46 {
47         if (info->control.rates[0].flags & IEEE80211_TX_RC_USE_RTS_CTS ||
48             info->control.rates[0].flags & IEEE80211_TX_RC_USE_CTS_PROTECT ||
49             info->flags & IEEE80211_TX_CTL_AMPDU)
50                 *tx_flags |= TX_CMD_FLG_PROT_REQUIRE_MSK;
51 }
52
53 /*
54  * handle build REPLY_TX command notification.
55  */
56 static void iwlagn_tx_cmd_build_basic(struct iwl_priv *priv,
57                                       struct sk_buff *skb,
58                                       struct iwl_tx_cmd *tx_cmd,
59                                       struct ieee80211_tx_info *info,
60                                       struct ieee80211_hdr *hdr, u8 sta_id)
61 {
62         __le16 fc = hdr->frame_control;
63         __le32 tx_flags = tx_cmd->tx_flags;
64
65         tx_cmd->stop_time.life_time = TX_CMD_LIFE_TIME_INFINITE;
66
67         if (!(info->flags & IEEE80211_TX_CTL_NO_ACK))
68                 tx_flags |= TX_CMD_FLG_ACK_MSK;
69         else
70                 tx_flags &= ~TX_CMD_FLG_ACK_MSK;
71
72         if (ieee80211_is_probe_resp(fc))
73                 tx_flags |= TX_CMD_FLG_TSF_MSK;
74         else if (ieee80211_is_back_req(fc))
75                 tx_flags |= TX_CMD_FLG_ACK_MSK | TX_CMD_FLG_IMM_BA_RSP_MASK;
76         else if (info->band == IEEE80211_BAND_2GHZ &&
77                  cfg(priv)->bt_params &&
78                  cfg(priv)->bt_params->advanced_bt_coexist &&
79                  (ieee80211_is_auth(fc) || ieee80211_is_assoc_req(fc) ||
80                  ieee80211_is_reassoc_req(fc) ||
81                  skb->protocol == cpu_to_be16(ETH_P_PAE)))
82                 tx_flags |= TX_CMD_FLG_IGNORE_BT;
83
84
85         tx_cmd->sta_id = sta_id;
86         if (ieee80211_has_morefrags(fc))
87                 tx_flags |= TX_CMD_FLG_MORE_FRAG_MSK;
88
89         if (ieee80211_is_data_qos(fc)) {
90                 u8 *qc = ieee80211_get_qos_ctl(hdr);
91                 tx_cmd->tid_tspec = qc[0] & 0xf;
92                 tx_flags &= ~TX_CMD_FLG_SEQ_CTL_MSK;
93         } else {
94                 tx_cmd->tid_tspec = IWL_TID_NON_QOS;
95                 if (info->flags & IEEE80211_TX_CTL_ASSIGN_SEQ)
96                         tx_flags |= TX_CMD_FLG_SEQ_CTL_MSK;
97                 else
98                         tx_flags &= ~TX_CMD_FLG_SEQ_CTL_MSK;
99         }
100
101         iwlagn_tx_cmd_protection(priv, info, fc, &tx_flags);
102
103         tx_flags &= ~(TX_CMD_FLG_ANT_SEL_MSK);
104         if (ieee80211_is_mgmt(fc)) {
105                 if (ieee80211_is_assoc_req(fc) || ieee80211_is_reassoc_req(fc))
106                         tx_cmd->timeout.pm_frame_timeout = cpu_to_le16(3);
107                 else
108                         tx_cmd->timeout.pm_frame_timeout = cpu_to_le16(2);
109         } else {
110                 tx_cmd->timeout.pm_frame_timeout = 0;
111         }
112
113         tx_cmd->driver_txop = 0;
114         tx_cmd->tx_flags = tx_flags;
115         tx_cmd->next_frame_len = 0;
116 }
117
118 static void iwlagn_tx_cmd_build_rate(struct iwl_priv *priv,
119                                      struct iwl_tx_cmd *tx_cmd,
120                                      struct ieee80211_tx_info *info,
121                                      __le16 fc)
122 {
123         u32 rate_flags;
124         int rate_idx;
125         u8 rts_retry_limit;
126         u8 data_retry_limit;
127         u8 rate_plcp;
128
129         if (priv->wowlan) {
130                 rts_retry_limit = IWLAGN_LOW_RETRY_LIMIT;
131                 data_retry_limit = IWLAGN_LOW_RETRY_LIMIT;
132         } else {
133                 /* Set retry limit on RTS packets */
134                 rts_retry_limit = IWLAGN_RTS_DFAULT_RETRY_LIMIT;
135
136                 /* Set retry limit on DATA packets and Probe Responses*/
137                 if (ieee80211_is_probe_resp(fc)) {
138                         data_retry_limit = IWLAGN_MGMT_DFAULT_RETRY_LIMIT;
139                         rts_retry_limit =
140                                 min(data_retry_limit, rts_retry_limit);
141                 } else if (ieee80211_is_back_req(fc))
142                         data_retry_limit = IWLAGN_BAR_DFAULT_RETRY_LIMIT;
143                 else
144                         data_retry_limit = IWLAGN_DEFAULT_TX_RETRY;
145         }
146
147         tx_cmd->data_retry_limit = data_retry_limit;
148         tx_cmd->rts_retry_limit = rts_retry_limit;
149
150         /* DATA packets will use the uCode station table for rate/antenna
151          * selection */
152         if (ieee80211_is_data(fc)) {
153                 tx_cmd->initial_rate_index = 0;
154                 tx_cmd->tx_flags |= TX_CMD_FLG_STA_RATE_MSK;
155 #ifdef CONFIG_IWLWIFI_DEVICE_TESTMODE
156                 if (priv->tm_fixed_rate) {
157                         /*
158                          * rate overwrite by testmode
159                          * we not only send lq command to change rate
160                          * we also re-enforce per data pkt base.
161                          */
162                         tx_cmd->tx_flags &= ~TX_CMD_FLG_STA_RATE_MSK;
163                         memcpy(&tx_cmd->rate_n_flags, &priv->tm_fixed_rate,
164                                sizeof(tx_cmd->rate_n_flags));
165                 }
166 #endif
167                 return;
168         } else if (ieee80211_is_back_req(fc))
169                 tx_cmd->tx_flags |= TX_CMD_FLG_STA_RATE_MSK;
170
171         /**
172          * If the current TX rate stored in mac80211 has the MCS bit set, it's
173          * not really a TX rate.  Thus, we use the lowest supported rate for
174          * this band.  Also use the lowest supported rate if the stored rate
175          * index is invalid.
176          */
177         rate_idx = info->control.rates[0].idx;
178         if (info->control.rates[0].flags & IEEE80211_TX_RC_MCS ||
179                         (rate_idx < 0) || (rate_idx > IWL_RATE_COUNT_LEGACY))
180                 rate_idx = rate_lowest_index(&priv->bands[info->band],
181                                 info->control.sta);
182         /* For 5 GHZ band, remap mac80211 rate indices into driver indices */
183         if (info->band == IEEE80211_BAND_5GHZ)
184                 rate_idx += IWL_FIRST_OFDM_RATE;
185         /* Get PLCP rate for tx_cmd->rate_n_flags */
186         rate_plcp = iwl_rates[rate_idx].plcp;
187         /* Zero out flags for this packet */
188         rate_flags = 0;
189
190         /* Set CCK flag as needed */
191         if ((rate_idx >= IWL_FIRST_CCK_RATE) && (rate_idx <= IWL_LAST_CCK_RATE))
192                 rate_flags |= RATE_MCS_CCK_MSK;
193
194         /* Set up antennas */
195          if (cfg(priv)->bt_params &&
196              cfg(priv)->bt_params->advanced_bt_coexist &&
197              priv->bt_full_concurrent) {
198                 /* operated as 1x1 in full concurrency mode */
199                 priv->mgmt_tx_ant = iwl_toggle_tx_ant(priv, priv->mgmt_tx_ant,
200                                 first_antenna(hw_params(priv).valid_tx_ant));
201         } else
202                 priv->mgmt_tx_ant = iwl_toggle_tx_ant(priv, priv->mgmt_tx_ant,
203                                                 hw_params(priv).valid_tx_ant);
204         rate_flags |= iwl_ant_idx_to_flags(priv->mgmt_tx_ant);
205
206         /* Set the rate in the TX cmd */
207         tx_cmd->rate_n_flags = iwl_hw_set_rate_n_flags(rate_plcp, rate_flags);
208 }
209
210 static void iwlagn_tx_cmd_build_hwcrypto(struct iwl_priv *priv,
211                                          struct ieee80211_tx_info *info,
212                                          struct iwl_tx_cmd *tx_cmd,
213                                          struct sk_buff *skb_frag)
214 {
215         struct ieee80211_key_conf *keyconf = info->control.hw_key;
216
217         switch (keyconf->cipher) {
218         case WLAN_CIPHER_SUITE_CCMP:
219                 tx_cmd->sec_ctl = TX_CMD_SEC_CCM;
220                 memcpy(tx_cmd->key, keyconf->key, keyconf->keylen);
221                 if (info->flags & IEEE80211_TX_CTL_AMPDU)
222                         tx_cmd->tx_flags |= TX_CMD_FLG_AGG_CCMP_MSK;
223                 IWL_DEBUG_TX(priv, "tx_cmd with AES hwcrypto\n");
224                 break;
225
226         case WLAN_CIPHER_SUITE_TKIP:
227                 tx_cmd->sec_ctl = TX_CMD_SEC_TKIP;
228                 ieee80211_get_tkip_p2k(keyconf, skb_frag, tx_cmd->key);
229                 IWL_DEBUG_TX(priv, "tx_cmd with tkip hwcrypto\n");
230                 break;
231
232         case WLAN_CIPHER_SUITE_WEP104:
233                 tx_cmd->sec_ctl |= TX_CMD_SEC_KEY128;
234                 /* fall through */
235         case WLAN_CIPHER_SUITE_WEP40:
236                 tx_cmd->sec_ctl |= (TX_CMD_SEC_WEP |
237                         (keyconf->keyidx & TX_CMD_SEC_MSK) << TX_CMD_SEC_SHIFT);
238
239                 memcpy(&tx_cmd->key[3], keyconf->key, keyconf->keylen);
240
241                 IWL_DEBUG_TX(priv, "Configuring packet for WEP encryption "
242                              "with key %d\n", keyconf->keyidx);
243                 break;
244
245         default:
246                 IWL_ERR(priv, "Unknown encode cipher %x\n", keyconf->cipher);
247                 break;
248         }
249 }
250
251 /*
252  * start REPLY_TX command process
253  */
254 int iwlagn_tx_skb(struct iwl_priv *priv, struct sk_buff *skb)
255 {
256         struct ieee80211_hdr *hdr = (struct ieee80211_hdr *)skb->data;
257         struct ieee80211_tx_info *info = IEEE80211_SKB_CB(skb);
258         struct iwl_station_priv *sta_priv = NULL;
259         struct iwl_rxon_context *ctx = &priv->contexts[IWL_RXON_CTX_BSS];
260         struct iwl_device_cmd *dev_cmd = NULL;
261         struct iwl_tx_cmd *tx_cmd;
262         __le16 fc;
263         u8 hdr_len;
264         u16 len, seq_number = 0;
265         u8 sta_id, tid = IWL_MAX_TID_COUNT;
266         bool is_agg = false;
267
268         if (info->control.vif)
269                 ctx = iwl_rxon_ctx_from_vif(info->control.vif);
270
271         if (iwl_is_rfkill(priv->shrd)) {
272                 IWL_DEBUG_DROP(priv, "Dropping - RF KILL\n");
273                 goto drop_unlock_priv;
274         }
275
276         fc = hdr->frame_control;
277
278 #ifdef CONFIG_IWLWIFI_DEBUG
279         if (ieee80211_is_auth(fc))
280                 IWL_DEBUG_TX(priv, "Sending AUTH frame\n");
281         else if (ieee80211_is_assoc_req(fc))
282                 IWL_DEBUG_TX(priv, "Sending ASSOC frame\n");
283         else if (ieee80211_is_reassoc_req(fc))
284                 IWL_DEBUG_TX(priv, "Sending REASSOC frame\n");
285 #endif
286
287         if (unlikely(ieee80211_is_probe_resp(fc))) {
288                 struct iwl_wipan_noa_data *noa_data =
289                         rcu_dereference(priv->noa_data);
290
291                 if (noa_data &&
292                     pskb_expand_head(skb, 0, noa_data->length,
293                                      GFP_ATOMIC) == 0) {
294                         memcpy(skb_put(skb, noa_data->length),
295                                noa_data->data, noa_data->length);
296                         hdr = (struct ieee80211_hdr *)skb->data;
297                 }
298         }
299
300         hdr_len = ieee80211_hdrlen(fc);
301
302         /* For management frames use broadcast id to do not break aggregation */
303         if (!ieee80211_is_data(fc))
304                 sta_id = ctx->bcast_sta_id;
305         else {
306                 /* Find index into station table for destination station */
307                 sta_id = iwl_sta_id_or_broadcast(priv, ctx, info->control.sta);
308                 if (sta_id == IWL_INVALID_STATION) {
309                         IWL_DEBUG_DROP(priv, "Dropping - INVALID STATION: %pM\n",
310                                        hdr->addr1);
311                         goto drop_unlock_priv;
312                 }
313         }
314
315         IWL_DEBUG_TX(priv, "station Id %d\n", sta_id);
316
317         if (info->control.sta)
318                 sta_priv = (void *)info->control.sta->drv_priv;
319
320         if (sta_priv && sta_priv->asleep &&
321             (info->flags & IEEE80211_TX_CTL_NO_PS_BUFFER)) {
322                 /*
323                  * This sends an asynchronous command to the device,
324                  * but we can rely on it being processed before the
325                  * next frame is processed -- and the next frame to
326                  * this station is the one that will consume this
327                  * counter.
328                  * For now set the counter to just 1 since we do not
329                  * support uAPSD yet.
330                  *
331                  * FIXME: If we get two non-bufferable frames one
332                  * after the other, we might only send out one of
333                  * them because this is racy.
334                  */
335                 iwl_sta_modify_sleep_tx_count(priv, sta_id, 1);
336         }
337
338         if (info->flags & IEEE80211_TX_CTL_AMPDU)
339                 is_agg = true;
340
341         dev_cmd = kmem_cache_alloc(priv->tx_cmd_pool, GFP_ATOMIC);
342
343         if (unlikely(!dev_cmd))
344                 goto drop_unlock_priv;
345
346         memset(dev_cmd, 0, sizeof(*dev_cmd));
347         tx_cmd = (struct iwl_tx_cmd *) dev_cmd->payload;
348
349         /* Total # bytes to be transmitted */
350         len = (u16)skb->len;
351         tx_cmd->len = cpu_to_le16(len);
352
353         if (info->control.hw_key)
354                 iwlagn_tx_cmd_build_hwcrypto(priv, info, tx_cmd, skb);
355
356         /* TODO need this for burst mode later on */
357         iwlagn_tx_cmd_build_basic(priv, skb, tx_cmd, info, hdr, sta_id);
358         iwl_dbg_log_tx_data_frame(priv, len, hdr);
359
360         iwlagn_tx_cmd_build_rate(priv, tx_cmd, info, fc);
361
362         iwl_update_stats(priv, true, fc, len);
363
364         memset(&info->status, 0, sizeof(info->status));
365
366         info->driver_data[0] = ctx;
367         info->driver_data[1] = dev_cmd;
368
369         spin_lock(&priv->sta_lock);
370
371         if (ieee80211_is_data_qos(fc) && !ieee80211_is_qos_nullfunc(fc)) {
372                 u8 *qc = NULL;
373                 struct iwl_tid_data *tid_data;
374                 qc = ieee80211_get_qos_ctl(hdr);
375                 tid = qc[0] & IEEE80211_QOS_CTL_TID_MASK;
376                 if (WARN_ON_ONCE(tid >= IWL_MAX_TID_COUNT))
377                         goto drop_unlock_sta;
378                 tid_data = &priv->tid_data[sta_id][tid];
379
380                 /* aggregation is on for this <sta,tid> */
381                 if (info->flags & IEEE80211_TX_CTL_AMPDU &&
382                     tid_data->agg.state != IWL_AGG_ON) {
383                         IWL_ERR(priv, "TX_CTL_AMPDU while not in AGG:"
384                                 " Tx flags = 0x%08x, agg.state = %d",
385                                 info->flags, tid_data->agg.state);
386                         IWL_ERR(priv, "sta_id = %d, tid = %d seq_num = %d",
387                                 sta_id, tid, SEQ_TO_SN(tid_data->seq_number));
388                         goto drop_unlock_sta;
389                 }
390
391                 /* We can receive packets from the stack in IWL_AGG_{ON,OFF}
392                  * only. Check this here.
393                  */
394                 if (WARN_ONCE(tid_data->agg.state != IWL_AGG_ON &&
395                     tid_data->agg.state != IWL_AGG_OFF,
396                     "Tx while agg.state = %d", tid_data->agg.state))
397                         goto drop_unlock_sta;
398
399                 seq_number = tid_data->seq_number;
400                 seq_number &= IEEE80211_SCTL_SEQ;
401                 hdr->seq_ctrl &= cpu_to_le16(IEEE80211_SCTL_FRAG);
402                 hdr->seq_ctrl |= cpu_to_le16(seq_number);
403                 seq_number += 0x10;
404         }
405
406         /* Copy MAC header from skb into command buffer */
407         memcpy(tx_cmd->hdr, hdr, hdr_len);
408
409         if (iwl_trans_tx(trans(priv), skb, dev_cmd, ctx->ctxid, sta_id, tid))
410                 goto drop_unlock_sta;
411
412         if (ieee80211_is_data_qos(fc) && !ieee80211_is_qos_nullfunc(fc) &&
413             !ieee80211_has_morefrags(fc))
414                 priv->tid_data[sta_id][tid].seq_number = seq_number;
415
416         spin_unlock(&priv->sta_lock);
417
418         /*
419          * Avoid atomic ops if it isn't an associated client.
420          * Also, if this is a packet for aggregation, don't
421          * increase the counter because the ucode will stop
422          * aggregation queues when their respective station
423          * goes to sleep.
424          */
425         if (sta_priv && sta_priv->client && !is_agg)
426                 atomic_inc(&sta_priv->pending_frames);
427
428         return 0;
429
430 drop_unlock_sta:
431         if (dev_cmd)
432                 kmem_cache_free(priv->tx_cmd_pool, dev_cmd);
433         spin_unlock(&priv->sta_lock);
434 drop_unlock_priv:
435         return -1;
436 }
437
438 int iwlagn_tx_agg_stop(struct iwl_priv *priv, struct ieee80211_vif *vif,
439                         struct ieee80211_sta *sta, u16 tid)
440 {
441         struct iwl_tid_data *tid_data;
442         int sta_id;
443
444         sta_id = iwl_sta_id(sta);
445
446         if (sta_id == IWL_INVALID_STATION) {
447                 IWL_ERR(priv, "Invalid station for AGG tid %d\n", tid);
448                 return -ENXIO;
449         }
450
451         spin_lock_bh(&priv->sta_lock);
452
453         tid_data = &priv->tid_data[sta_id][tid];
454
455         switch (priv->tid_data[sta_id][tid].agg.state) {
456         case IWL_EMPTYING_HW_QUEUE_ADDBA:
457                 /*
458                 * This can happen if the peer stops aggregation
459                 * again before we've had a chance to drain the
460                 * queue we selected previously, i.e. before the
461                 * session was really started completely.
462                 */
463                 IWL_DEBUG_HT(priv, "AGG stop before setup done\n");
464                 goto turn_off;
465         case IWL_AGG_ON:
466                 break;
467         default:
468                 IWL_WARN(priv, "Stopping AGG while state not ON "
469                          "or starting for %d on %d (%d)\n", sta_id, tid,
470                          priv->tid_data[sta_id][tid].agg.state);
471                 spin_unlock_bh(&priv->sta_lock);
472                 return 0;
473         }
474
475         tid_data->agg.ssn = SEQ_TO_SN(tid_data->seq_number);
476
477         /* There are still packets for this RA / TID in the HW */
478         if (tid_data->agg.ssn != tid_data->next_reclaimed) {
479                 IWL_DEBUG_TX_QUEUES(priv, "Can't proceed: ssn %d, "
480                                     "next_recl = %d",
481                                     tid_data->agg.ssn,
482                                     tid_data->next_reclaimed);
483                 priv->tid_data[sta_id][tid].agg.state =
484                         IWL_EMPTYING_HW_QUEUE_DELBA;
485                 spin_unlock_bh(&priv->sta_lock);
486                 return 0;
487         }
488
489         IWL_DEBUG_TX_QUEUES(priv, "Can proceed: ssn = next_recl = %d",
490                             tid_data->agg.ssn);
491 turn_off:
492         priv->tid_data[sta_id][tid].agg.state = IWL_AGG_OFF;
493
494         spin_unlock_bh(&priv->sta_lock);
495
496         iwl_trans_tx_agg_disable(trans(priv), sta_id, tid);
497
498         ieee80211_stop_tx_ba_cb_irqsafe(vif, sta->addr, tid);
499
500         return 0;
501 }
502
503 int iwlagn_tx_agg_start(struct iwl_priv *priv, struct ieee80211_vif *vif,
504                         struct ieee80211_sta *sta, u16 tid, u16 *ssn)
505 {
506         struct iwl_tid_data *tid_data;
507         int sta_id;
508         int ret;
509
510         IWL_DEBUG_HT(priv, "TX AGG request on ra = %pM tid = %d\n",
511                      sta->addr, tid);
512
513         sta_id = iwl_sta_id(sta);
514         if (sta_id == IWL_INVALID_STATION) {
515                 IWL_ERR(priv, "Start AGG on invalid station\n");
516                 return -ENXIO;
517         }
518         if (unlikely(tid >= IWL_MAX_TID_COUNT))
519                 return -EINVAL;
520
521         if (priv->tid_data[sta_id][tid].agg.state != IWL_AGG_OFF) {
522                 IWL_ERR(priv, "Start AGG when state is not IWL_AGG_OFF !\n");
523                 return -ENXIO;
524         }
525
526         ret = iwl_sta_tx_modify_enable_tid(priv, sta_id, tid);
527         if (ret)
528                 return ret;
529
530         spin_lock_bh(&priv->sta_lock);
531
532         tid_data = &priv->tid_data[sta_id][tid];
533         tid_data->agg.ssn = SEQ_TO_SN(tid_data->seq_number);
534
535         *ssn = tid_data->agg.ssn;
536
537         ret = iwl_trans_tx_agg_alloc(trans(priv), sta_id, tid);
538         if (ret) {
539                 spin_unlock_bh(&priv->sta_lock);
540                 return ret;
541         }
542
543         if (*ssn == tid_data->next_reclaimed) {
544                 IWL_DEBUG_TX_QUEUES(priv, "Can proceed: ssn = next_recl = %d",
545                                     tid_data->agg.ssn);
546                 tid_data->agg.state = IWL_AGG_ON;
547                 ieee80211_start_tx_ba_cb_irqsafe(vif, sta->addr, tid);
548         } else {
549                 IWL_DEBUG_TX_QUEUES(priv, "Can't proceed: ssn %d, "
550                                     "next_reclaimed = %d",
551                                     tid_data->agg.ssn,
552                                     tid_data->next_reclaimed);
553                 tid_data->agg.state = IWL_EMPTYING_HW_QUEUE_ADDBA;
554         }
555
556         spin_unlock_bh(&priv->sta_lock);
557
558         return ret;
559 }
560
561 int iwlagn_tx_agg_oper(struct iwl_priv *priv, struct ieee80211_vif *vif,
562                         struct ieee80211_sta *sta, u16 tid, u8 buf_size)
563 {
564         struct iwl_station_priv *sta_priv = (void *) sta->drv_priv;
565         struct iwl_rxon_context *ctx = iwl_rxon_ctx_from_vif(vif);
566         u16 ssn;
567
568         buf_size = min_t(int, buf_size, LINK_QUAL_AGG_FRAME_LIMIT_DEF);
569
570         spin_lock_bh(&priv->sta_lock);
571         ssn = priv->tid_data[sta_priv->sta_id][tid].agg.ssn;
572         spin_unlock_bh(&priv->sta_lock);
573
574         iwl_trans_tx_agg_setup(trans(priv), ctx->ctxid, sta_priv->sta_id, tid,
575                                buf_size, ssn);
576
577         /*
578          * If the limit is 0, then it wasn't initialised yet,
579          * use the default. We can do that since we take the
580          * minimum below, and we don't want to go above our
581          * default due to hardware restrictions.
582          */
583         if (sta_priv->max_agg_bufsize == 0)
584                 sta_priv->max_agg_bufsize =
585                         LINK_QUAL_AGG_FRAME_LIMIT_DEF;
586
587         /*
588          * Even though in theory the peer could have different
589          * aggregation reorder buffer sizes for different sessions,
590          * our ucode doesn't allow for that and has a global limit
591          * for each station. Therefore, use the minimum of all the
592          * aggregation sessions and our default value.
593          */
594         sta_priv->max_agg_bufsize =
595                 min(sta_priv->max_agg_bufsize, buf_size);
596
597         if (hw_params(priv).use_rts_for_aggregation) {
598                 /*
599                  * switch to RTS/CTS if it is the prefer protection
600                  * method for HT traffic
601                  */
602
603                 sta_priv->lq_sta.lq.general_params.flags |=
604                         LINK_QUAL_FLAGS_SET_STA_TLC_RTS_MSK;
605         }
606         priv->agg_tids_count++;
607         IWL_DEBUG_HT(priv, "priv->agg_tids_count = %u\n",
608                      priv->agg_tids_count);
609
610         sta_priv->lq_sta.lq.agg_params.agg_frame_cnt_limit =
611                 sta_priv->max_agg_bufsize;
612
613         IWL_DEBUG_HT(priv, "Tx aggregation enabled on ra = %pM tid = %d\n",
614                  sta->addr, tid);
615
616         return iwl_send_lq_cmd(priv, ctx,
617                         &sta_priv->lq_sta.lq, CMD_ASYNC, false);
618 }
619
620 static void iwlagn_check_ratid_empty(struct iwl_priv *priv, int sta_id, u8 tid)
621 {
622         struct iwl_tid_data *tid_data = &priv->tid_data[sta_id][tid];
623         enum iwl_rxon_context_id ctx;
624         struct ieee80211_vif *vif;
625         u8 *addr;
626
627         lockdep_assert_held(&priv->sta_lock);
628
629         addr = priv->stations[sta_id].sta.sta.addr;
630         ctx = priv->stations[sta_id].ctxid;
631         vif = priv->contexts[ctx].vif;
632
633         switch (priv->tid_data[sta_id][tid].agg.state) {
634         case IWL_EMPTYING_HW_QUEUE_DELBA:
635                 /* There are no packets for this RA / TID in the HW any more */
636                 if (tid_data->agg.ssn == tid_data->next_reclaimed) {
637                         IWL_DEBUG_TX_QUEUES(priv,
638                                 "Can continue DELBA flow ssn = next_recl ="
639                                 " %d", tid_data->next_reclaimed);
640                         iwl_trans_tx_agg_disable(trans(priv), sta_id, tid);
641                         tid_data->agg.state = IWL_AGG_OFF;
642                         ieee80211_stop_tx_ba_cb_irqsafe(vif, addr, tid);
643                 }
644                 break;
645         case IWL_EMPTYING_HW_QUEUE_ADDBA:
646                 /* There are no packets for this RA / TID in the HW any more */
647                 if (tid_data->agg.ssn == tid_data->next_reclaimed) {
648                         IWL_DEBUG_TX_QUEUES(priv,
649                                 "Can continue ADDBA flow ssn = next_recl ="
650                                 " %d", tid_data->next_reclaimed);
651                         tid_data->agg.state = IWL_AGG_ON;
652                         ieee80211_start_tx_ba_cb_irqsafe(vif, addr, tid);
653                 }
654                 break;
655         default:
656                 break;
657         }
658 }
659
660 static void iwlagn_non_agg_tx_status(struct iwl_priv *priv,
661                                      struct iwl_rxon_context *ctx,
662                                      const u8 *addr1)
663 {
664         struct ieee80211_sta *sta;
665         struct iwl_station_priv *sta_priv;
666
667         rcu_read_lock();
668         sta = ieee80211_find_sta(ctx->vif, addr1);
669         if (sta) {
670                 sta_priv = (void *)sta->drv_priv;
671                 /* avoid atomic ops if this isn't a client */
672                 if (sta_priv->client &&
673                     atomic_dec_return(&sta_priv->pending_frames) == 0)
674                         ieee80211_sta_block_awake(priv->hw, sta, false);
675         }
676         rcu_read_unlock();
677 }
678
679 /**
680  * translate ucode response to mac80211 tx status control values
681  */
682 static void iwlagn_hwrate_to_tx_control(struct iwl_priv *priv, u32 rate_n_flags,
683                                   struct ieee80211_tx_info *info)
684 {
685         struct ieee80211_tx_rate *r = &info->control.rates[0];
686
687         info->antenna_sel_tx =
688                 ((rate_n_flags & RATE_MCS_ANT_ABC_MSK) >> RATE_MCS_ANT_POS);
689         if (rate_n_flags & RATE_MCS_HT_MSK)
690                 r->flags |= IEEE80211_TX_RC_MCS;
691         if (rate_n_flags & RATE_MCS_GF_MSK)
692                 r->flags |= IEEE80211_TX_RC_GREEN_FIELD;
693         if (rate_n_flags & RATE_MCS_HT40_MSK)
694                 r->flags |= IEEE80211_TX_RC_40_MHZ_WIDTH;
695         if (rate_n_flags & RATE_MCS_DUP_MSK)
696                 r->flags |= IEEE80211_TX_RC_DUP_DATA;
697         if (rate_n_flags & RATE_MCS_SGI_MSK)
698                 r->flags |= IEEE80211_TX_RC_SHORT_GI;
699         r->idx = iwlagn_hwrate_to_mac80211_idx(rate_n_flags, info->band);
700 }
701
702 #ifdef CONFIG_IWLWIFI_DEBUG
703 const char *iwl_get_tx_fail_reason(u32 status)
704 {
705 #define TX_STATUS_FAIL(x) case TX_STATUS_FAIL_ ## x: return #x
706 #define TX_STATUS_POSTPONE(x) case TX_STATUS_POSTPONE_ ## x: return #x
707
708         switch (status & TX_STATUS_MSK) {
709         case TX_STATUS_SUCCESS:
710                 return "SUCCESS";
711         TX_STATUS_POSTPONE(DELAY);
712         TX_STATUS_POSTPONE(FEW_BYTES);
713         TX_STATUS_POSTPONE(BT_PRIO);
714         TX_STATUS_POSTPONE(QUIET_PERIOD);
715         TX_STATUS_POSTPONE(CALC_TTAK);
716         TX_STATUS_FAIL(INTERNAL_CROSSED_RETRY);
717         TX_STATUS_FAIL(SHORT_LIMIT);
718         TX_STATUS_FAIL(LONG_LIMIT);
719         TX_STATUS_FAIL(FIFO_UNDERRUN);
720         TX_STATUS_FAIL(DRAIN_FLOW);
721         TX_STATUS_FAIL(RFKILL_FLUSH);
722         TX_STATUS_FAIL(LIFE_EXPIRE);
723         TX_STATUS_FAIL(DEST_PS);
724         TX_STATUS_FAIL(HOST_ABORTED);
725         TX_STATUS_FAIL(BT_RETRY);
726         TX_STATUS_FAIL(STA_INVALID);
727         TX_STATUS_FAIL(FRAG_DROPPED);
728         TX_STATUS_FAIL(TID_DISABLE);
729         TX_STATUS_FAIL(FIFO_FLUSHED);
730         TX_STATUS_FAIL(INSUFFICIENT_CF_POLL);
731         TX_STATUS_FAIL(PASSIVE_NO_RX);
732         TX_STATUS_FAIL(NO_BEACON_ON_RADAR);
733         }
734
735         return "UNKNOWN";
736
737 #undef TX_STATUS_FAIL
738 #undef TX_STATUS_POSTPONE
739 }
740 #endif /* CONFIG_IWLWIFI_DEBUG */
741
742 static void iwlagn_count_agg_tx_err_status(struct iwl_priv *priv, u16 status)
743 {
744         status &= AGG_TX_STATUS_MSK;
745
746         switch (status) {
747         case AGG_TX_STATE_UNDERRUN_MSK:
748                 priv->reply_agg_tx_stats.underrun++;
749                 break;
750         case AGG_TX_STATE_BT_PRIO_MSK:
751                 priv->reply_agg_tx_stats.bt_prio++;
752                 break;
753         case AGG_TX_STATE_FEW_BYTES_MSK:
754                 priv->reply_agg_tx_stats.few_bytes++;
755                 break;
756         case AGG_TX_STATE_ABORT_MSK:
757                 priv->reply_agg_tx_stats.abort++;
758                 break;
759         case AGG_TX_STATE_LAST_SENT_TTL_MSK:
760                 priv->reply_agg_tx_stats.last_sent_ttl++;
761                 break;
762         case AGG_TX_STATE_LAST_SENT_TRY_CNT_MSK:
763                 priv->reply_agg_tx_stats.last_sent_try++;
764                 break;
765         case AGG_TX_STATE_LAST_SENT_BT_KILL_MSK:
766                 priv->reply_agg_tx_stats.last_sent_bt_kill++;
767                 break;
768         case AGG_TX_STATE_SCD_QUERY_MSK:
769                 priv->reply_agg_tx_stats.scd_query++;
770                 break;
771         case AGG_TX_STATE_TEST_BAD_CRC32_MSK:
772                 priv->reply_agg_tx_stats.bad_crc32++;
773                 break;
774         case AGG_TX_STATE_RESPONSE_MSK:
775                 priv->reply_agg_tx_stats.response++;
776                 break;
777         case AGG_TX_STATE_DUMP_TX_MSK:
778                 priv->reply_agg_tx_stats.dump_tx++;
779                 break;
780         case AGG_TX_STATE_DELAY_TX_MSK:
781                 priv->reply_agg_tx_stats.delay_tx++;
782                 break;
783         default:
784                 priv->reply_agg_tx_stats.unknown++;
785                 break;
786         }
787 }
788
789 static void iwl_rx_reply_tx_agg(struct iwl_priv *priv,
790                                 struct iwlagn_tx_resp *tx_resp)
791 {
792         struct agg_tx_status *frame_status = &tx_resp->status;
793         int tid = (tx_resp->ra_tid & IWLAGN_TX_RES_TID_MSK) >>
794                 IWLAGN_TX_RES_TID_POS;
795         int sta_id = (tx_resp->ra_tid & IWLAGN_TX_RES_RA_MSK) >>
796                 IWLAGN_TX_RES_RA_POS;
797         struct iwl_ht_agg *agg = &priv->tid_data[sta_id][tid].agg;
798         u32 status = le16_to_cpu(tx_resp->status.status);
799         int i;
800
801         WARN_ON(tid == IWL_TID_NON_QOS);
802
803         if (agg->wait_for_ba)
804                 IWL_DEBUG_TX_REPLY(priv,
805                         "got tx response w/o block-ack\n");
806
807         agg->rate_n_flags = le32_to_cpu(tx_resp->rate_n_flags);
808         agg->wait_for_ba = (tx_resp->frame_count > 1);
809
810         /*
811          * If the BT kill count is non-zero, we'll get this
812          * notification again.
813          */
814         if (tx_resp->bt_kill_count && tx_resp->frame_count == 1 &&
815             cfg(priv)->bt_params &&
816             cfg(priv)->bt_params->advanced_bt_coexist) {
817                 IWL_DEBUG_COEX(priv, "receive reply tx w/ bt_kill\n");
818         }
819
820         if (tx_resp->frame_count == 1)
821                 return;
822
823         /* Construct bit-map of pending frames within Tx window */
824         for (i = 0; i < tx_resp->frame_count; i++) {
825                 u16 fstatus = le16_to_cpu(frame_status[i].status);
826
827                 if (status & AGG_TX_STATUS_MSK)
828                         iwlagn_count_agg_tx_err_status(priv, fstatus);
829
830                 if (status & (AGG_TX_STATE_FEW_BYTES_MSK |
831                               AGG_TX_STATE_ABORT_MSK))
832                         continue;
833
834                 IWL_DEBUG_TX_REPLY(priv, "status %s (0x%08x), "
835                                    "try-count (0x%08x)\n",
836                                    iwl_get_agg_tx_fail_reason(fstatus),
837                                    fstatus & AGG_TX_STATUS_MSK,
838                                    fstatus & AGG_TX_TRY_MSK);
839         }
840 }
841
842 #ifdef CONFIG_IWLWIFI_DEBUG
843 #define AGG_TX_STATE_FAIL(x) case AGG_TX_STATE_ ## x: return #x
844
845 const char *iwl_get_agg_tx_fail_reason(u16 status)
846 {
847         status &= AGG_TX_STATUS_MSK;
848         switch (status) {
849         case AGG_TX_STATE_TRANSMITTED:
850                 return "SUCCESS";
851                 AGG_TX_STATE_FAIL(UNDERRUN_MSK);
852                 AGG_TX_STATE_FAIL(BT_PRIO_MSK);
853                 AGG_TX_STATE_FAIL(FEW_BYTES_MSK);
854                 AGG_TX_STATE_FAIL(ABORT_MSK);
855                 AGG_TX_STATE_FAIL(LAST_SENT_TTL_MSK);
856                 AGG_TX_STATE_FAIL(LAST_SENT_TRY_CNT_MSK);
857                 AGG_TX_STATE_FAIL(LAST_SENT_BT_KILL_MSK);
858                 AGG_TX_STATE_FAIL(SCD_QUERY_MSK);
859                 AGG_TX_STATE_FAIL(TEST_BAD_CRC32_MSK);
860                 AGG_TX_STATE_FAIL(RESPONSE_MSK);
861                 AGG_TX_STATE_FAIL(DUMP_TX_MSK);
862                 AGG_TX_STATE_FAIL(DELAY_TX_MSK);
863         }
864
865         return "UNKNOWN";
866 }
867 #endif /* CONFIG_IWLWIFI_DEBUG */
868
869 static inline u32 iwlagn_get_scd_ssn(struct iwlagn_tx_resp *tx_resp)
870 {
871         return le32_to_cpup((__le32 *)&tx_resp->status +
872                             tx_resp->frame_count) & MAX_SN;
873 }
874
875 static void iwlagn_count_tx_err_status(struct iwl_priv *priv, u16 status)
876 {
877         status &= TX_STATUS_MSK;
878
879         switch (status) {
880         case TX_STATUS_POSTPONE_DELAY:
881                 priv->reply_tx_stats.pp_delay++;
882                 break;
883         case TX_STATUS_POSTPONE_FEW_BYTES:
884                 priv->reply_tx_stats.pp_few_bytes++;
885                 break;
886         case TX_STATUS_POSTPONE_BT_PRIO:
887                 priv->reply_tx_stats.pp_bt_prio++;
888                 break;
889         case TX_STATUS_POSTPONE_QUIET_PERIOD:
890                 priv->reply_tx_stats.pp_quiet_period++;
891                 break;
892         case TX_STATUS_POSTPONE_CALC_TTAK:
893                 priv->reply_tx_stats.pp_calc_ttak++;
894                 break;
895         case TX_STATUS_FAIL_INTERNAL_CROSSED_RETRY:
896                 priv->reply_tx_stats.int_crossed_retry++;
897                 break;
898         case TX_STATUS_FAIL_SHORT_LIMIT:
899                 priv->reply_tx_stats.short_limit++;
900                 break;
901         case TX_STATUS_FAIL_LONG_LIMIT:
902                 priv->reply_tx_stats.long_limit++;
903                 break;
904         case TX_STATUS_FAIL_FIFO_UNDERRUN:
905                 priv->reply_tx_stats.fifo_underrun++;
906                 break;
907         case TX_STATUS_FAIL_DRAIN_FLOW:
908                 priv->reply_tx_stats.drain_flow++;
909                 break;
910         case TX_STATUS_FAIL_RFKILL_FLUSH:
911                 priv->reply_tx_stats.rfkill_flush++;
912                 break;
913         case TX_STATUS_FAIL_LIFE_EXPIRE:
914                 priv->reply_tx_stats.life_expire++;
915                 break;
916         case TX_STATUS_FAIL_DEST_PS:
917                 priv->reply_tx_stats.dest_ps++;
918                 break;
919         case TX_STATUS_FAIL_HOST_ABORTED:
920                 priv->reply_tx_stats.host_abort++;
921                 break;
922         case TX_STATUS_FAIL_BT_RETRY:
923                 priv->reply_tx_stats.bt_retry++;
924                 break;
925         case TX_STATUS_FAIL_STA_INVALID:
926                 priv->reply_tx_stats.sta_invalid++;
927                 break;
928         case TX_STATUS_FAIL_FRAG_DROPPED:
929                 priv->reply_tx_stats.frag_drop++;
930                 break;
931         case TX_STATUS_FAIL_TID_DISABLE:
932                 priv->reply_tx_stats.tid_disable++;
933                 break;
934         case TX_STATUS_FAIL_FIFO_FLUSHED:
935                 priv->reply_tx_stats.fifo_flush++;
936                 break;
937         case TX_STATUS_FAIL_INSUFFICIENT_CF_POLL:
938                 priv->reply_tx_stats.insuff_cf_poll++;
939                 break;
940         case TX_STATUS_FAIL_PASSIVE_NO_RX:
941                 priv->reply_tx_stats.fail_hw_drop++;
942                 break;
943         case TX_STATUS_FAIL_NO_BEACON_ON_RADAR:
944                 priv->reply_tx_stats.sta_color_mismatch++;
945                 break;
946         default:
947                 priv->reply_tx_stats.unknown++;
948                 break;
949         }
950 }
951
952 static void iwlagn_set_tx_status(struct iwl_priv *priv,
953                                  struct ieee80211_tx_info *info,
954                                  struct iwlagn_tx_resp *tx_resp,
955                                  bool is_agg)
956 {
957         u16  status = le16_to_cpu(tx_resp->status.status);
958
959         info->status.rates[0].count = tx_resp->failure_frame + 1;
960         if (is_agg)
961                 info->flags &= ~IEEE80211_TX_CTL_AMPDU;
962         info->flags |= iwl_tx_status_to_mac80211(status);
963         iwlagn_hwrate_to_tx_control(priv, le32_to_cpu(tx_resp->rate_n_flags),
964                                     info);
965         if (!iwl_is_tx_success(status))
966                 iwlagn_count_tx_err_status(priv, status);
967 }
968
969 static void iwl_check_abort_status(struct iwl_priv *priv,
970                             u8 frame_count, u32 status)
971 {
972         if (frame_count == 1 && status == TX_STATUS_FAIL_RFKILL_FLUSH) {
973                 IWL_ERR(priv, "Tx flush command to flush out all frames\n");
974                 if (!test_bit(STATUS_EXIT_PENDING, &priv->shrd->status))
975                         queue_work(priv->workqueue, &priv->tx_flush);
976         }
977 }
978
979 int iwlagn_rx_reply_tx(struct iwl_priv *priv, struct iwl_rx_cmd_buffer *rxb,
980                                struct iwl_device_cmd *cmd)
981 {
982         struct iwl_rx_packet *pkt = rxb_addr(rxb);
983         u16 sequence = le16_to_cpu(pkt->hdr.sequence);
984         int txq_id = SEQ_TO_QUEUE(sequence);
985         int cmd_index __maybe_unused = SEQ_TO_INDEX(sequence);
986         struct iwlagn_tx_resp *tx_resp = (void *)&pkt->u.raw[0];
987         struct ieee80211_hdr *hdr;
988         u32 status = le16_to_cpu(tx_resp->status.status);
989         u16 ssn = iwlagn_get_scd_ssn(tx_resp);
990         int tid;
991         int sta_id;
992         int freed;
993         struct ieee80211_tx_info *info;
994         struct sk_buff_head skbs;
995         struct sk_buff *skb;
996         struct iwl_rxon_context *ctx;
997         bool is_agg = (txq_id >= IWLAGN_FIRST_AMPDU_QUEUE);
998
999         tid = (tx_resp->ra_tid & IWLAGN_TX_RES_TID_MSK) >>
1000                 IWLAGN_TX_RES_TID_POS;
1001         sta_id = (tx_resp->ra_tid & IWLAGN_TX_RES_RA_MSK) >>
1002                 IWLAGN_TX_RES_RA_POS;
1003
1004         spin_lock(&priv->sta_lock);
1005
1006         if (is_agg)
1007                 iwl_rx_reply_tx_agg(priv, tx_resp);
1008
1009         __skb_queue_head_init(&skbs);
1010
1011         if (tx_resp->frame_count == 1) {
1012                 u16 next_reclaimed = le16_to_cpu(tx_resp->seq_ctl);
1013                 next_reclaimed = SEQ_TO_SN(next_reclaimed + 0x10);
1014
1015                 if (is_agg) {
1016                         /* If this is an aggregation queue, we can rely on the
1017                          * ssn since the wifi sequence number corresponds to
1018                          * the index in the TFD ring (%256).
1019                          * The seq_ctl is the sequence control of the packet
1020                          * to which this Tx response relates. But if there is a
1021                          * hole in the bitmap of the BA we received, this Tx
1022                          * response may allow to reclaim the hole and all the
1023                          * subsequent packets that were already acked.
1024                          * In that case, seq_ctl != ssn, and the next packet
1025                          * to be reclaimed will be ssn and not seq_ctl.
1026                          */
1027                         next_reclaimed = ssn;
1028                 }
1029
1030                 if (tid != IWL_TID_NON_QOS) {
1031                         priv->tid_data[sta_id][tid].next_reclaimed =
1032                                 next_reclaimed;
1033                         IWL_DEBUG_TX_REPLY(priv, "Next reclaimed packet:%d",
1034                                                   next_reclaimed);
1035                 }
1036
1037                 /*we can free until ssn % q.n_bd not inclusive */
1038                 WARN_ON(iwl_trans_reclaim(trans(priv), sta_id, tid, txq_id,
1039                                   ssn, status, &skbs));
1040                 iwlagn_check_ratid_empty(priv, sta_id, tid);
1041                 freed = 0;
1042
1043                 /* process frames */
1044                 skb_queue_walk(&skbs, skb) {
1045                         hdr = (struct ieee80211_hdr *)skb->data;
1046
1047                         if (!ieee80211_is_data_qos(hdr->frame_control))
1048                                 priv->last_seq_ctl = tx_resp->seq_ctl;
1049
1050                         info = IEEE80211_SKB_CB(skb);
1051                         ctx = info->driver_data[0];
1052                         kmem_cache_free(priv->tx_cmd_pool,
1053                                         (info->driver_data[1]));
1054
1055                         memset(&info->status, 0, sizeof(info->status));
1056
1057                         if (status == TX_STATUS_FAIL_PASSIVE_NO_RX &&
1058                             iwl_is_associated_ctx(ctx) && ctx->vif &&
1059                             ctx->vif->type == NL80211_IFTYPE_STATION) {
1060                                 ctx->last_tx_rejected = true;
1061                                 iwl_trans_stop_queue(trans(priv), txq_id,
1062                                         "Tx on passive channel");
1063
1064                                 IWL_DEBUG_TX_REPLY(priv,
1065                                            "TXQ %d status %s (0x%08x) "
1066                                            "rate_n_flags 0x%x retries %d\n",
1067                                            txq_id,
1068                                            iwl_get_tx_fail_reason(status),
1069                                            status,
1070                                            le32_to_cpu(tx_resp->rate_n_flags),
1071                                            tx_resp->failure_frame);
1072
1073                                 IWL_DEBUG_TX_REPLY(priv,
1074                                            "FrameCnt = %d, idx=%d\n",
1075                                            tx_resp->frame_count, cmd_index);
1076                         }
1077
1078                         /* check if BAR is needed */
1079                         if (is_agg && !iwl_is_tx_success(status))
1080                                 info->flags |= IEEE80211_TX_STAT_AMPDU_NO_BACK;
1081                         iwlagn_set_tx_status(priv, IEEE80211_SKB_CB(skb),
1082                                      tx_resp, is_agg);
1083                         if (!is_agg)
1084                                 iwlagn_non_agg_tx_status(priv, ctx, hdr->addr1);
1085
1086                         freed++;
1087                 }
1088
1089                 WARN_ON(!is_agg && freed != 1);
1090         }
1091
1092         iwl_check_abort_status(priv, tx_resp->frame_count, status);
1093         spin_unlock(&priv->sta_lock);
1094
1095         while (!skb_queue_empty(&skbs)) {
1096                 skb = __skb_dequeue(&skbs);
1097                 ieee80211_tx_status(priv->hw, skb);
1098         }
1099
1100         return 0;
1101 }
1102
1103 /**
1104  * iwlagn_rx_reply_compressed_ba - Handler for REPLY_COMPRESSED_BA
1105  *
1106  * Handles block-acknowledge notification from device, which reports success
1107  * of frames sent via aggregation.
1108  */
1109 int iwlagn_rx_reply_compressed_ba(struct iwl_priv *priv,
1110                                    struct iwl_rx_cmd_buffer *rxb,
1111                                    struct iwl_device_cmd *cmd)
1112 {
1113         struct iwl_rx_packet *pkt = rxb_addr(rxb);
1114         struct iwl_compressed_ba_resp *ba_resp = &pkt->u.compressed_ba;
1115         struct iwl_ht_agg *agg;
1116         struct sk_buff_head reclaimed_skbs;
1117         struct ieee80211_tx_info *info;
1118         struct ieee80211_hdr *hdr;
1119         struct sk_buff *skb;
1120         int sta_id;
1121         int tid;
1122         int freed;
1123
1124         /* "flow" corresponds to Tx queue */
1125         u16 scd_flow = le16_to_cpu(ba_resp->scd_flow);
1126
1127         /* "ssn" is start of block-ack Tx window, corresponds to index
1128          * (in Tx queue's circular buffer) of first TFD/frame in window */
1129         u16 ba_resp_scd_ssn = le16_to_cpu(ba_resp->scd_ssn);
1130
1131         if (scd_flow >= hw_params(priv).max_txq_num) {
1132                 IWL_ERR(priv,
1133                         "BUG_ON scd_flow is bigger than number of queues\n");
1134                 return 0;
1135         }
1136
1137         sta_id = ba_resp->sta_id;
1138         tid = ba_resp->tid;
1139         agg = &priv->tid_data[sta_id][tid].agg;
1140
1141         spin_lock(&priv->sta_lock);
1142
1143         if (unlikely(!agg->wait_for_ba)) {
1144                 if (unlikely(ba_resp->bitmap))
1145                         IWL_ERR(priv, "Received BA when not expected\n");
1146                 spin_unlock(&priv->sta_lock);
1147                 return 0;
1148         }
1149
1150         __skb_queue_head_init(&reclaimed_skbs);
1151
1152         /* Release all TFDs before the SSN, i.e. all TFDs in front of
1153          * block-ack window (we assume that they've been successfully
1154          * transmitted ... if not, it's too late anyway). */
1155         if (iwl_trans_reclaim(trans(priv), sta_id, tid, scd_flow,
1156                               ba_resp_scd_ssn, 0, &reclaimed_skbs)) {
1157                 spin_unlock(&priv->sta_lock);
1158                 return 0;
1159         }
1160
1161         IWL_DEBUG_TX_REPLY(priv, "REPLY_COMPRESSED_BA [%d] Received from %pM, "
1162                            "sta_id = %d\n",
1163                            agg->wait_for_ba,
1164                            (u8 *) &ba_resp->sta_addr_lo32,
1165                            ba_resp->sta_id);
1166         IWL_DEBUG_TX_REPLY(priv, "TID = %d, SeqCtl = %d, bitmap = 0x%llx, "
1167                            "scd_flow = %d, scd_ssn = %d\n",
1168                            ba_resp->tid, le16_to_cpu(ba_resp->seq_ctl),
1169                            (unsigned long long)le64_to_cpu(ba_resp->bitmap),
1170                            scd_flow, ba_resp_scd_ssn);
1171
1172         /* Mark that the expected block-ack response arrived */
1173         agg->wait_for_ba = false;
1174
1175         /* Sanity check values reported by uCode */
1176         if (ba_resp->txed_2_done > ba_resp->txed) {
1177                 IWL_DEBUG_TX_REPLY(priv,
1178                         "bogus sent(%d) and ack(%d) count\n",
1179                         ba_resp->txed, ba_resp->txed_2_done);
1180                 /*
1181                  * set txed_2_done = txed,
1182                  * so it won't impact rate scale
1183                  */
1184                 ba_resp->txed = ba_resp->txed_2_done;
1185         }
1186         IWL_DEBUG_HT(priv, "agg frames sent:%d, acked:%d\n",
1187                         ba_resp->txed, ba_resp->txed_2_done);
1188
1189         priv->tid_data[sta_id][tid].next_reclaimed = ba_resp_scd_ssn;
1190
1191         iwlagn_check_ratid_empty(priv, sta_id, tid);
1192         freed = 0;
1193
1194         skb_queue_walk(&reclaimed_skbs, skb) {
1195                 hdr = (struct ieee80211_hdr *)skb->data;
1196
1197                 if (ieee80211_is_data_qos(hdr->frame_control))
1198                         freed++;
1199                 else
1200                         WARN_ON_ONCE(1);
1201
1202                 info = IEEE80211_SKB_CB(skb);
1203                 kmem_cache_free(priv->tx_cmd_pool, (info->driver_data[1]));
1204
1205                 if (freed == 1) {
1206                         /* this is the first skb we deliver in this batch */
1207                         /* put the rate scaling data there */
1208                         info = IEEE80211_SKB_CB(skb);
1209                         memset(&info->status, 0, sizeof(info->status));
1210                         info->flags |= IEEE80211_TX_STAT_ACK;
1211                         info->flags |= IEEE80211_TX_STAT_AMPDU;
1212                         info->status.ampdu_ack_len = ba_resp->txed_2_done;
1213                         info->status.ampdu_len = ba_resp->txed;
1214                         iwlagn_hwrate_to_tx_control(priv, agg->rate_n_flags,
1215                                                     info);
1216                 }
1217         }
1218
1219         spin_unlock(&priv->sta_lock);
1220
1221         while (!skb_queue_empty(&reclaimed_skbs)) {
1222                 skb = __skb_dequeue(&reclaimed_skbs);
1223                 ieee80211_tx_status(priv->hw, skb);
1224         }
1225
1226         return 0;
1227 }