mac80211: change TX aggregation locking
[pandora-kernel.git] / net / mac80211 / agg-tx.c
1 /*
2  * HT handling
3  *
4  * Copyright 2003, Jouni Malinen <jkmaline@cc.hut.fi>
5  * Copyright 2002-2005, Instant802 Networks, Inc.
6  * Copyright 2005-2006, Devicescape Software, Inc.
7  * Copyright 2006-2007  Jiri Benc <jbenc@suse.cz>
8  * Copyright 2007, Michael Wu <flamingice@sourmilk.net>
9  * Copyright 2007-2010, Intel Corporation
10  *
11  * This program is free software; you can redistribute it and/or modify
12  * it under the terms of the GNU General Public License version 2 as
13  * published by the Free Software Foundation.
14  */
15
16 #include <linux/ieee80211.h>
17 #include <linux/slab.h>
18 #include <net/mac80211.h>
19 #include "ieee80211_i.h"
20 #include "driver-ops.h"
21 #include "wme.h"
22
23 /**
24  * DOC: TX aggregation
25  *
26  * Aggregation on the TX side requires setting the hardware flag
27  * %IEEE80211_HW_AMPDU_AGGREGATION as well as, if present, the @ampdu_queues
28  * hardware parameter to the number of hardware AMPDU queues. If there are no
29  * hardware queues then the driver will (currently) have to do all frame
30  * buffering.
31  *
32  * When TX aggregation is started by some subsystem (usually the rate control
33  * algorithm would be appropriate) by calling the
34  * ieee80211_start_tx_ba_session() function, the driver will be notified via
35  * its @ampdu_action function, with the %IEEE80211_AMPDU_TX_START action.
36  *
37  * In response to that, the driver is later required to call the
38  * ieee80211_start_tx_ba_cb() (or ieee80211_start_tx_ba_cb_irqsafe())
39  * function, which will start the aggregation session.
40  *
41  * Similarly, when the aggregation session is stopped by
42  * ieee80211_stop_tx_ba_session(), the driver's @ampdu_action function will
43  * be called with the action %IEEE80211_AMPDU_TX_STOP. In this case, the
44  * call must not fail, and the driver must later call ieee80211_stop_tx_ba_cb()
45  * (or ieee80211_stop_tx_ba_cb_irqsafe()).
46  */
47
48 static void ieee80211_send_addba_request(struct ieee80211_sub_if_data *sdata,
49                                          const u8 *da, u16 tid,
50                                          u8 dialog_token, u16 start_seq_num,
51                                          u16 agg_size, u16 timeout)
52 {
53         struct ieee80211_local *local = sdata->local;
54         struct sk_buff *skb;
55         struct ieee80211_mgmt *mgmt;
56         u16 capab;
57
58         skb = dev_alloc_skb(sizeof(*mgmt) + local->hw.extra_tx_headroom);
59
60         if (!skb) {
61                 printk(KERN_ERR "%s: failed to allocate buffer "
62                                 "for addba request frame\n", sdata->name);
63                 return;
64         }
65         skb_reserve(skb, local->hw.extra_tx_headroom);
66         mgmt = (struct ieee80211_mgmt *) skb_put(skb, 24);
67         memset(mgmt, 0, 24);
68         memcpy(mgmt->da, da, ETH_ALEN);
69         memcpy(mgmt->sa, sdata->vif.addr, ETH_ALEN);
70         if (sdata->vif.type == NL80211_IFTYPE_AP ||
71             sdata->vif.type == NL80211_IFTYPE_AP_VLAN)
72                 memcpy(mgmt->bssid, sdata->vif.addr, ETH_ALEN);
73         else if (sdata->vif.type == NL80211_IFTYPE_STATION)
74                 memcpy(mgmt->bssid, sdata->u.mgd.bssid, ETH_ALEN);
75
76         mgmt->frame_control = cpu_to_le16(IEEE80211_FTYPE_MGMT |
77                                           IEEE80211_STYPE_ACTION);
78
79         skb_put(skb, 1 + sizeof(mgmt->u.action.u.addba_req));
80
81         mgmt->u.action.category = WLAN_CATEGORY_BACK;
82         mgmt->u.action.u.addba_req.action_code = WLAN_ACTION_ADDBA_REQ;
83
84         mgmt->u.action.u.addba_req.dialog_token = dialog_token;
85         capab = (u16)(1 << 1);          /* bit 1 aggregation policy */
86         capab |= (u16)(tid << 2);       /* bit 5:2 TID number */
87         capab |= (u16)(agg_size << 6);  /* bit 15:6 max size of aggergation */
88
89         mgmt->u.action.u.addba_req.capab = cpu_to_le16(capab);
90
91         mgmt->u.action.u.addba_req.timeout = cpu_to_le16(timeout);
92         mgmt->u.action.u.addba_req.start_seq_num =
93                                         cpu_to_le16(start_seq_num << 4);
94
95         ieee80211_tx_skb(sdata, skb);
96 }
97
98 void ieee80211_send_bar(struct ieee80211_sub_if_data *sdata, u8 *ra, u16 tid, u16 ssn)
99 {
100         struct ieee80211_local *local = sdata->local;
101         struct sk_buff *skb;
102         struct ieee80211_bar *bar;
103         u16 bar_control = 0;
104
105         skb = dev_alloc_skb(sizeof(*bar) + local->hw.extra_tx_headroom);
106         if (!skb) {
107                 printk(KERN_ERR "%s: failed to allocate buffer for "
108                         "bar frame\n", sdata->name);
109                 return;
110         }
111         skb_reserve(skb, local->hw.extra_tx_headroom);
112         bar = (struct ieee80211_bar *)skb_put(skb, sizeof(*bar));
113         memset(bar, 0, sizeof(*bar));
114         bar->frame_control = cpu_to_le16(IEEE80211_FTYPE_CTL |
115                                          IEEE80211_STYPE_BACK_REQ);
116         memcpy(bar->ra, ra, ETH_ALEN);
117         memcpy(bar->ta, sdata->vif.addr, ETH_ALEN);
118         bar_control |= (u16)IEEE80211_BAR_CTRL_ACK_POLICY_NORMAL;
119         bar_control |= (u16)IEEE80211_BAR_CTRL_CBMTID_COMPRESSED_BA;
120         bar_control |= (u16)(tid << 12);
121         bar->control = cpu_to_le16(bar_control);
122         bar->start_seq_num = cpu_to_le16(ssn);
123
124         IEEE80211_SKB_CB(skb)->flags |= IEEE80211_TX_INTFL_DONT_ENCRYPT;
125         ieee80211_tx_skb(sdata, skb);
126 }
127
128 static void kfree_tid_tx(struct rcu_head *rcu_head)
129 {
130         struct tid_ampdu_tx *tid_tx =
131             container_of(rcu_head, struct tid_ampdu_tx, rcu_head);
132
133         kfree(tid_tx);
134 }
135
136 int ___ieee80211_stop_tx_ba_session(struct sta_info *sta, u16 tid,
137                                     enum ieee80211_back_parties initiator)
138 {
139         struct ieee80211_local *local = sta->local;
140         struct tid_ampdu_tx *tid_tx = sta->ampdu_mlme.tid_tx[tid];
141         int ret;
142
143         lockdep_assert_held(&sta->ampdu_mlme.mtx);
144
145         if (!tid_tx)
146                 return -ENOENT;
147
148         spin_lock_bh(&sta->lock);
149
150         if (test_bit(HT_AGG_STATE_WANT_START, &tid_tx->state)) {
151                 /* not even started yet! */
152                 rcu_assign_pointer(sta->ampdu_mlme.tid_tx[tid], NULL);
153                 spin_unlock_bh(&sta->lock);
154                 call_rcu(&tid_tx->rcu_head, kfree_tid_tx);
155                 return 0;
156         }
157
158         spin_unlock_bh(&sta->lock);
159
160 #ifdef CONFIG_MAC80211_HT_DEBUG
161         printk(KERN_DEBUG "Tx BA session stop requested for %pM tid %u\n",
162                sta->sta.addr, tid);
163 #endif /* CONFIG_MAC80211_HT_DEBUG */
164
165         set_bit(HT_AGG_STATE_STOPPING, &tid_tx->state);
166
167         /*
168          * After this packets are no longer handed right through
169          * to the driver but are put onto tid_tx->pending instead,
170          * with locking to ensure proper access.
171          */
172         clear_bit(HT_AGG_STATE_OPERATIONAL, &tid_tx->state);
173
174         tid_tx->stop_initiator = initiator;
175
176         ret = drv_ampdu_action(local, sta->sdata,
177                                IEEE80211_AMPDU_TX_STOP,
178                                &sta->sta, tid, NULL);
179
180         /* HW shall not deny going back to legacy */
181         if (WARN_ON(ret)) {
182                 /*
183                  * We may have pending packets get stuck in this case...
184                  * Not bothering with a workaround for now.
185                  */
186         }
187
188         return ret;
189 }
190
191 /*
192  * After sending add Block Ack request we activated a timer until
193  * add Block Ack response will arrive from the recipient.
194  * If this timer expires sta_addba_resp_timer_expired will be executed.
195  */
196 static void sta_addba_resp_timer_expired(unsigned long data)
197 {
198         /* not an elegant detour, but there is no choice as the timer passes
199          * only one argument, and both sta_info and TID are needed, so init
200          * flow in sta_info_create gives the TID as data, while the timer_to_id
201          * array gives the sta through container_of */
202         u16 tid = *(u8 *)data;
203         struct sta_info *sta = container_of((void *)data,
204                 struct sta_info, timer_to_tid[tid]);
205         struct tid_ampdu_tx *tid_tx;
206
207         /* check if the TID waits for addBA response */
208         rcu_read_lock();
209         tid_tx = rcu_dereference(sta->ampdu_mlme.tid_tx[tid]);
210         if (!tid_tx ||
211             test_bit(HT_AGG_STATE_RESPONSE_RECEIVED, &tid_tx->state)) {
212                 rcu_read_unlock();
213 #ifdef CONFIG_MAC80211_HT_DEBUG
214                 printk(KERN_DEBUG "timer expired on tid %d but we are not "
215                                 "(or no longer) expecting addBA response there\n",
216                         tid);
217 #endif
218                 return;
219         }
220
221 #ifdef CONFIG_MAC80211_HT_DEBUG
222         printk(KERN_DEBUG "addBA response timer expired on tid %d\n", tid);
223 #endif
224
225         ieee80211_stop_tx_ba_session(&sta->sta, tid);
226         rcu_read_unlock();
227 }
228
229 static inline int ieee80211_ac_from_tid(int tid)
230 {
231         return ieee802_1d_to_ac[tid & 7];
232 }
233
234 /*
235  * When multiple aggregation sessions on multiple stations
236  * are being created/destroyed simultaneously, we need to
237  * refcount the global queue stop caused by that in order
238  * to not get into a situation where one of the aggregation
239  * setup or teardown re-enables queues before the other is
240  * ready to handle that.
241  *
242  * These two functions take care of this issue by keeping
243  * a global "agg_queue_stop" refcount.
244  */
245 static void __acquires(agg_queue)
246 ieee80211_stop_queue_agg(struct ieee80211_local *local, int tid)
247 {
248         int queue = ieee80211_ac_from_tid(tid);
249
250         if (atomic_inc_return(&local->agg_queue_stop[queue]) == 1)
251                 ieee80211_stop_queue_by_reason(
252                         &local->hw, queue,
253                         IEEE80211_QUEUE_STOP_REASON_AGGREGATION);
254         __acquire(agg_queue);
255 }
256
257 static void __releases(agg_queue)
258 ieee80211_wake_queue_agg(struct ieee80211_local *local, int tid)
259 {
260         int queue = ieee80211_ac_from_tid(tid);
261
262         if (atomic_dec_return(&local->agg_queue_stop[queue]) == 0)
263                 ieee80211_wake_queue_by_reason(
264                         &local->hw, queue,
265                         IEEE80211_QUEUE_STOP_REASON_AGGREGATION);
266         __release(agg_queue);
267 }
268
269 void ieee80211_tx_ba_session_handle_start(struct sta_info *sta, int tid)
270 {
271         struct tid_ampdu_tx *tid_tx = sta->ampdu_mlme.tid_tx[tid];
272         struct ieee80211_local *local = sta->local;
273         struct ieee80211_sub_if_data *sdata = sta->sdata;
274         u16 start_seq_num;
275         int ret;
276
277         lockdep_assert_held(&sta->ampdu_mlme.mtx);
278
279         /*
280          * While we're asking the driver about the aggregation,
281          * stop the AC queue so that we don't have to worry
282          * about frames that came in while we were doing that,
283          * which would require us to put them to the AC pending
284          * afterwards which just makes the code more complex.
285          */
286         ieee80211_stop_queue_agg(local, tid);
287
288         clear_bit(HT_AGG_STATE_WANT_START, &tid_tx->state);
289
290         /*
291          * make sure no packets are being processed to get
292          * valid starting sequence number
293          */
294         synchronize_net();
295
296         start_seq_num = sta->tid_seq[tid] >> 4;
297
298         ret = drv_ampdu_action(local, sdata, IEEE80211_AMPDU_TX_START,
299                                &sta->sta, tid, &start_seq_num);
300         if (ret) {
301 #ifdef CONFIG_MAC80211_HT_DEBUG
302                 printk(KERN_DEBUG "BA request denied - HW unavailable for"
303                                         " tid %d\n", tid);
304 #endif
305                 spin_lock_bh(&sta->lock);
306                 rcu_assign_pointer(sta->ampdu_mlme.tid_tx[tid], NULL);
307                 spin_unlock_bh(&sta->lock);
308
309                 ieee80211_wake_queue_agg(local, tid);
310                 call_rcu(&tid_tx->rcu_head, kfree_tid_tx);
311                 return;
312         }
313
314         /* we can take packets again now */
315         ieee80211_wake_queue_agg(local, tid);
316
317         /* activate the timer for the recipient's addBA response */
318         mod_timer(&tid_tx->addba_resp_timer, jiffies + ADDBA_RESP_INTERVAL);
319 #ifdef CONFIG_MAC80211_HT_DEBUG
320         printk(KERN_DEBUG "activated addBA response timer on tid %d\n", tid);
321 #endif
322
323         spin_lock_bh(&sta->lock);
324         sta->ampdu_mlme.addba_req_num[tid]++;
325         spin_unlock_bh(&sta->lock);
326
327         /* send AddBA request */
328         ieee80211_send_addba_request(sdata, sta->sta.addr, tid,
329                                      tid_tx->dialog_token, start_seq_num,
330                                      0x40, 5000);
331 }
332
333 int ieee80211_start_tx_ba_session(struct ieee80211_sta *pubsta, u16 tid)
334 {
335         struct sta_info *sta = container_of(pubsta, struct sta_info, sta);
336         struct ieee80211_sub_if_data *sdata = sta->sdata;
337         struct ieee80211_local *local = sdata->local;
338         struct tid_ampdu_tx *tid_tx;
339         int ret = 0;
340
341         trace_api_start_tx_ba_session(pubsta, tid);
342
343         if (WARN_ON(!local->ops->ampdu_action))
344                 return -EINVAL;
345
346         if ((tid >= STA_TID_NUM) ||
347             !(local->hw.flags & IEEE80211_HW_AMPDU_AGGREGATION))
348                 return -EINVAL;
349
350 #ifdef CONFIG_MAC80211_HT_DEBUG
351         printk(KERN_DEBUG "Open BA session requested for %pM tid %u\n",
352                pubsta->addr, tid);
353 #endif /* CONFIG_MAC80211_HT_DEBUG */
354
355         /*
356          * The aggregation code is not prepared to handle
357          * anything but STA/AP due to the BSSID handling.
358          * IBSS could work in the code but isn't supported
359          * by drivers or the standard.
360          */
361         if (sdata->vif.type != NL80211_IFTYPE_STATION &&
362             sdata->vif.type != NL80211_IFTYPE_AP_VLAN &&
363             sdata->vif.type != NL80211_IFTYPE_AP)
364                 return -EINVAL;
365
366         if (test_sta_flags(sta, WLAN_STA_BLOCK_BA)) {
367 #ifdef CONFIG_MAC80211_HT_DEBUG
368                 printk(KERN_DEBUG "BA sessions blocked. "
369                        "Denying BA session request\n");
370 #endif
371                 return -EINVAL;
372         }
373
374         spin_lock_bh(&sta->lock);
375
376         /* we have tried too many times, receiver does not want A-MPDU */
377         if (sta->ampdu_mlme.addba_req_num[tid] > HT_AGG_MAX_RETRIES) {
378                 ret = -EBUSY;
379                 goto err_unlock_sta;
380         }
381
382         tid_tx = sta->ampdu_mlme.tid_tx[tid];
383         /* check if the TID is not in aggregation flow already */
384         if (tid_tx) {
385 #ifdef CONFIG_MAC80211_HT_DEBUG
386                 printk(KERN_DEBUG "BA request denied - session is not "
387                                  "idle on tid %u\n", tid);
388 #endif /* CONFIG_MAC80211_HT_DEBUG */
389                 ret = -EAGAIN;
390                 goto err_unlock_sta;
391         }
392
393         /* prepare A-MPDU MLME for Tx aggregation */
394         tid_tx = kzalloc(sizeof(struct tid_ampdu_tx), GFP_ATOMIC);
395         if (!tid_tx) {
396 #ifdef CONFIG_MAC80211_HT_DEBUG
397                 if (net_ratelimit())
398                         printk(KERN_ERR "allocate tx mlme to tid %d failed\n",
399                                         tid);
400 #endif
401                 ret = -ENOMEM;
402                 goto err_unlock_sta;
403         }
404
405         skb_queue_head_init(&tid_tx->pending);
406         __set_bit(HT_AGG_STATE_WANT_START, &tid_tx->state);
407
408         /* Tx timer */
409         tid_tx->addba_resp_timer.function = sta_addba_resp_timer_expired;
410         tid_tx->addba_resp_timer.data = (unsigned long)&sta->timer_to_tid[tid];
411         init_timer(&tid_tx->addba_resp_timer);
412
413         /* assign a dialog token */
414         sta->ampdu_mlme.dialog_token_allocator++;
415         tid_tx->dialog_token = sta->ampdu_mlme.dialog_token_allocator;
416
417         /* finally, assign it to the array */
418         rcu_assign_pointer(sta->ampdu_mlme.tid_tx[tid], tid_tx);
419
420         ieee80211_queue_work(&local->hw, &sta->ampdu_mlme.work);
421
422         /* this flow continues off the work */
423  err_unlock_sta:
424         spin_unlock_bh(&sta->lock);
425         return ret;
426 }
427 EXPORT_SYMBOL(ieee80211_start_tx_ba_session);
428
429 /*
430  * splice packets from the STA's pending to the local pending,
431  * requires a call to ieee80211_agg_splice_finish later
432  */
433 static void __acquires(agg_queue)
434 ieee80211_agg_splice_packets(struct ieee80211_local *local,
435                              struct tid_ampdu_tx *tid_tx, u16 tid)
436 {
437         int queue = ieee80211_ac_from_tid(tid);
438         unsigned long flags;
439
440         ieee80211_stop_queue_agg(local, tid);
441
442         if (WARN(!tid_tx, "TID %d gone but expected when splicing aggregates"
443                           " from the pending queue\n", tid))
444                 return;
445
446         if (!skb_queue_empty(&tid_tx->pending)) {
447                 spin_lock_irqsave(&local->queue_stop_reason_lock, flags);
448                 /* copy over remaining packets */
449                 skb_queue_splice_tail_init(&tid_tx->pending,
450                                            &local->pending[queue]);
451                 spin_unlock_irqrestore(&local->queue_stop_reason_lock, flags);
452         }
453 }
454
455 static void __releases(agg_queue)
456 ieee80211_agg_splice_finish(struct ieee80211_local *local, u16 tid)
457 {
458         ieee80211_wake_queue_agg(local, tid);
459 }
460
461 static void ieee80211_agg_tx_operational(struct ieee80211_local *local,
462                                          struct sta_info *sta, u16 tid)
463 {
464         lockdep_assert_held(&sta->ampdu_mlme.mtx);
465
466 #ifdef CONFIG_MAC80211_HT_DEBUG
467         printk(KERN_DEBUG "Aggregation is on for tid %d\n", tid);
468 #endif
469
470         drv_ampdu_action(local, sta->sdata,
471                          IEEE80211_AMPDU_TX_OPERATIONAL,
472                          &sta->sta, tid, NULL);
473
474         /*
475          * synchronize with TX path, while splicing the TX path
476          * should block so it won't put more packets onto pending.
477          */
478         spin_lock_bh(&sta->lock);
479
480         ieee80211_agg_splice_packets(local, sta->ampdu_mlme.tid_tx[tid], tid);
481         /*
482          * Now mark as operational. This will be visible
483          * in the TX path, and lets it go lock-free in
484          * the common case.
485          */
486         set_bit(HT_AGG_STATE_OPERATIONAL, &sta->ampdu_mlme.tid_tx[tid]->state);
487         ieee80211_agg_splice_finish(local, tid);
488
489         spin_unlock_bh(&sta->lock);
490 }
491
492 void ieee80211_start_tx_ba_cb(struct ieee80211_vif *vif, u8 *ra, u16 tid)
493 {
494         struct ieee80211_sub_if_data *sdata = vif_to_sdata(vif);
495         struct ieee80211_local *local = sdata->local;
496         struct sta_info *sta;
497         struct tid_ampdu_tx *tid_tx;
498
499         trace_api_start_tx_ba_cb(sdata, ra, tid);
500
501         if (tid >= STA_TID_NUM) {
502 #ifdef CONFIG_MAC80211_HT_DEBUG
503                 printk(KERN_DEBUG "Bad TID value: tid = %d (>= %d)\n",
504                                 tid, STA_TID_NUM);
505 #endif
506                 return;
507         }
508
509         mutex_lock(&local->sta_mtx);
510         sta = sta_info_get(sdata, ra);
511         if (!sta) {
512                 mutex_unlock(&local->sta_mtx);
513 #ifdef CONFIG_MAC80211_HT_DEBUG
514                 printk(KERN_DEBUG "Could not find station: %pM\n", ra);
515 #endif
516                 return;
517         }
518
519         mutex_lock(&sta->ampdu_mlme.mtx);
520         tid_tx = sta->ampdu_mlme.tid_tx[tid];
521
522         if (WARN_ON(!tid_tx)) {
523 #ifdef CONFIG_MAC80211_HT_DEBUG
524                 printk(KERN_DEBUG "addBA was not requested!\n");
525 #endif
526                 goto unlock;
527         }
528
529         if (WARN_ON(test_and_set_bit(HT_AGG_STATE_DRV_READY, &tid_tx->state)))
530                 goto unlock;
531
532         if (test_bit(HT_AGG_STATE_RESPONSE_RECEIVED, &tid_tx->state))
533                 ieee80211_agg_tx_operational(local, sta, tid);
534
535  unlock:
536         mutex_unlock(&sta->ampdu_mlme.mtx);
537         mutex_unlock(&local->sta_mtx);
538 }
539
540 void ieee80211_start_tx_ba_cb_irqsafe(struct ieee80211_vif *vif,
541                                       const u8 *ra, u16 tid)
542 {
543         struct ieee80211_sub_if_data *sdata = vif_to_sdata(vif);
544         struct ieee80211_local *local = sdata->local;
545         struct ieee80211_ra_tid *ra_tid;
546         struct sk_buff *skb = dev_alloc_skb(0);
547
548         if (unlikely(!skb)) {
549 #ifdef CONFIG_MAC80211_HT_DEBUG
550                 if (net_ratelimit())
551                         printk(KERN_WARNING "%s: Not enough memory, "
552                                "dropping start BA session", sdata->name);
553 #endif
554                 return;
555         }
556         ra_tid = (struct ieee80211_ra_tid *) &skb->cb;
557         memcpy(&ra_tid->ra, ra, ETH_ALEN);
558         ra_tid->tid = tid;
559
560         skb->pkt_type = IEEE80211_SDATA_QUEUE_AGG_START;
561         skb_queue_tail(&sdata->skb_queue, skb);
562         ieee80211_queue_work(&local->hw, &sdata->work);
563 }
564 EXPORT_SYMBOL(ieee80211_start_tx_ba_cb_irqsafe);
565
566 int __ieee80211_stop_tx_ba_session(struct sta_info *sta, u16 tid,
567                                    enum ieee80211_back_parties initiator)
568 {
569         int ret;
570
571         mutex_lock(&sta->ampdu_mlme.mtx);
572
573         ret = ___ieee80211_stop_tx_ba_session(sta, tid, initiator);
574
575         mutex_unlock(&sta->ampdu_mlme.mtx);
576
577         return ret;
578 }
579
580 int ieee80211_stop_tx_ba_session(struct ieee80211_sta *pubsta, u16 tid)
581 {
582         struct sta_info *sta = container_of(pubsta, struct sta_info, sta);
583         struct ieee80211_sub_if_data *sdata = sta->sdata;
584         struct ieee80211_local *local = sdata->local;
585         struct tid_ampdu_tx *tid_tx;
586         int ret = 0;
587
588         trace_api_stop_tx_ba_session(pubsta, tid);
589
590         if (!local->ops->ampdu_action)
591                 return -EINVAL;
592
593         if (tid >= STA_TID_NUM)
594                 return -EINVAL;
595
596         spin_lock_bh(&sta->lock);
597         tid_tx = sta->ampdu_mlme.tid_tx[tid];
598
599         if (!tid_tx) {
600                 ret = -ENOENT;
601                 goto unlock;
602         }
603
604         if (test_bit(HT_AGG_STATE_STOPPING, &tid_tx->state)) {
605                 /* already in progress stopping it */
606                 ret = 0;
607                 goto unlock;
608         }
609
610         set_bit(HT_AGG_STATE_WANT_STOP, &tid_tx->state);
611         ieee80211_queue_work(&local->hw, &sta->ampdu_mlme.work);
612
613  unlock:
614         spin_unlock_bh(&sta->lock);
615         return ret;
616 }
617 EXPORT_SYMBOL(ieee80211_stop_tx_ba_session);
618
619 void ieee80211_stop_tx_ba_cb(struct ieee80211_vif *vif, u8 *ra, u8 tid)
620 {
621         struct ieee80211_sub_if_data *sdata = vif_to_sdata(vif);
622         struct ieee80211_local *local = sdata->local;
623         struct sta_info *sta;
624         struct tid_ampdu_tx *tid_tx;
625
626         trace_api_stop_tx_ba_cb(sdata, ra, tid);
627
628         if (tid >= STA_TID_NUM) {
629 #ifdef CONFIG_MAC80211_HT_DEBUG
630                 printk(KERN_DEBUG "Bad TID value: tid = %d (>= %d)\n",
631                                 tid, STA_TID_NUM);
632 #endif
633                 return;
634         }
635
636 #ifdef CONFIG_MAC80211_HT_DEBUG
637         printk(KERN_DEBUG "Stopping Tx BA session for %pM tid %d\n",
638                ra, tid);
639 #endif /* CONFIG_MAC80211_HT_DEBUG */
640
641         mutex_lock(&local->sta_mtx);
642
643         sta = sta_info_get(sdata, ra);
644         if (!sta) {
645 #ifdef CONFIG_MAC80211_HT_DEBUG
646                 printk(KERN_DEBUG "Could not find station: %pM\n", ra);
647 #endif
648                 goto unlock;
649         }
650
651         mutex_lock(&sta->ampdu_mlme.mtx);
652         spin_lock_bh(&sta->lock);
653         tid_tx = sta->ampdu_mlme.tid_tx[tid];
654
655         if (!tid_tx || !test_bit(HT_AGG_STATE_STOPPING, &tid_tx->state)) {
656 #ifdef CONFIG_MAC80211_HT_DEBUG
657                 printk(KERN_DEBUG "unexpected callback to A-MPDU stop\n");
658 #endif
659                 goto unlock_sta;
660         }
661
662         if (tid_tx->stop_initiator == WLAN_BACK_INITIATOR)
663                 ieee80211_send_delba(sta->sdata, ra, tid,
664                         WLAN_BACK_INITIATOR, WLAN_REASON_QSTA_NOT_USE);
665
666         /*
667          * When we get here, the TX path will not be lockless any more wrt.
668          * aggregation, since the OPERATIONAL bit has long been cleared.
669          * Thus it will block on getting the lock, if it occurs. So if we
670          * stop the queue now, we will not get any more packets, and any
671          * that might be being processed will wait for us here, thereby
672          * guaranteeing that no packets go to the tid_tx pending queue any
673          * more.
674          */
675
676         ieee80211_agg_splice_packets(local, tid_tx, tid);
677
678         /* future packets must not find the tid_tx struct any more */
679         rcu_assign_pointer(sta->ampdu_mlme.tid_tx[tid], NULL);
680
681         ieee80211_agg_splice_finish(local, tid);
682
683         call_rcu(&tid_tx->rcu_head, kfree_tid_tx);
684
685  unlock_sta:
686         spin_unlock_bh(&sta->lock);
687         mutex_unlock(&sta->ampdu_mlme.mtx);
688  unlock:
689         mutex_unlock(&local->sta_mtx);
690 }
691
692 void ieee80211_stop_tx_ba_cb_irqsafe(struct ieee80211_vif *vif,
693                                      const u8 *ra, u16 tid)
694 {
695         struct ieee80211_sub_if_data *sdata = vif_to_sdata(vif);
696         struct ieee80211_local *local = sdata->local;
697         struct ieee80211_ra_tid *ra_tid;
698         struct sk_buff *skb = dev_alloc_skb(0);
699
700         if (unlikely(!skb)) {
701 #ifdef CONFIG_MAC80211_HT_DEBUG
702                 if (net_ratelimit())
703                         printk(KERN_WARNING "%s: Not enough memory, "
704                                "dropping stop BA session", sdata->name);
705 #endif
706                 return;
707         }
708         ra_tid = (struct ieee80211_ra_tid *) &skb->cb;
709         memcpy(&ra_tid->ra, ra, ETH_ALEN);
710         ra_tid->tid = tid;
711
712         skb->pkt_type = IEEE80211_SDATA_QUEUE_AGG_STOP;
713         skb_queue_tail(&sdata->skb_queue, skb);
714         ieee80211_queue_work(&local->hw, &sdata->work);
715 }
716 EXPORT_SYMBOL(ieee80211_stop_tx_ba_cb_irqsafe);
717
718
719 void ieee80211_process_addba_resp(struct ieee80211_local *local,
720                                   struct sta_info *sta,
721                                   struct ieee80211_mgmt *mgmt,
722                                   size_t len)
723 {
724         struct tid_ampdu_tx *tid_tx;
725         u16 capab, tid;
726
727         capab = le16_to_cpu(mgmt->u.action.u.addba_resp.capab);
728         tid = (capab & IEEE80211_ADDBA_PARAM_TID_MASK) >> 2;
729
730         mutex_lock(&sta->ampdu_mlme.mtx);
731
732         tid_tx = sta->ampdu_mlme.tid_tx[tid];
733         if (!tid_tx)
734                 goto out;
735
736         if (mgmt->u.action.u.addba_resp.dialog_token != tid_tx->dialog_token) {
737 #ifdef CONFIG_MAC80211_HT_DEBUG
738                 printk(KERN_DEBUG "wrong addBA response token, tid %d\n", tid);
739 #endif
740                 goto out;
741         }
742
743         del_timer(&tid_tx->addba_resp_timer);
744
745 #ifdef CONFIG_MAC80211_HT_DEBUG
746         printk(KERN_DEBUG "switched off addBA timer for tid %d\n", tid);
747 #endif
748
749         if (le16_to_cpu(mgmt->u.action.u.addba_resp.status)
750                         == WLAN_STATUS_SUCCESS) {
751                 if (test_and_set_bit(HT_AGG_STATE_RESPONSE_RECEIVED,
752                                      &tid_tx->state)) {
753                         /* ignore duplicate response */
754                         goto out;
755                 }
756
757                 if (test_bit(HT_AGG_STATE_DRV_READY, &tid_tx->state))
758                         ieee80211_agg_tx_operational(local, sta, tid);
759
760                 sta->ampdu_mlme.addba_req_num[tid] = 0;
761         } else {
762                 ___ieee80211_stop_tx_ba_session(sta, tid, WLAN_BACK_INITIATOR);
763         }
764
765  out:
766         mutex_unlock(&sta->ampdu_mlme.mtx);
767 }