Merge branch 'for-3.2/drivers' of git://git.kernel.dk/linux-block
[pandora-kernel.git] / drivers / net / wireless / iwlwifi / iwl-trans.h
1 /******************************************************************************
2  *
3  * This file is provided under a dual BSD/GPLv2 license.  When using or
4  * redistributing this file, you may do so under either license.
5  *
6  * GPL LICENSE SUMMARY
7  *
8  * Copyright(c) 2007 - 2011 Intel Corporation. All rights reserved.
9  *
10  * This program is free software; you can redistribute it and/or modify
11  * it under the terms of version 2 of the GNU General Public License as
12  * published by the Free Software Foundation.
13  *
14  * This program is distributed in the hope that it will be useful, but
15  * WITHOUT ANY WARRANTY; without even the implied warranty of
16  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
17  * General Public License for more details.
18  *
19  * You should have received a copy of the GNU General Public License
20  * along with this program; if not, write to the Free Software
21  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110,
22  * USA
23  *
24  * The full GNU General Public License is included in this distribution
25  * in the file called LICENSE.GPL.
26  *
27  * Contact Information:
28  *  Intel Linux Wireless <ilw@linux.intel.com>
29  * Intel Corporation, 5200 N.E. Elam Young Parkway, Hillsboro, OR 97124-6497
30  *
31  * BSD LICENSE
32  *
33  * Copyright(c) 2005 - 2011 Intel Corporation. All rights reserved.
34  * All rights reserved.
35  *
36  * Redistribution and use in source and binary forms, with or without
37  * modification, are permitted provided that the following conditions
38  * are met:
39  *
40  *  * Redistributions of source code must retain the above copyright
41  *    notice, this list of conditions and the following disclaimer.
42  *  * Redistributions in binary form must reproduce the above copyright
43  *    notice, this list of conditions and the following disclaimer in
44  *    the documentation and/or other materials provided with the
45  *    distribution.
46  *  * Neither the name Intel Corporation nor the names of its
47  *    contributors may be used to endorse or promote products derived
48  *    from this software without specific prior written permission.
49  *
50  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
51  * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
52  * LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
53  * A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
54  * OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
55  * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
56  * LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
57  * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
58  * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
59  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
60  * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
61  *
62  *****************************************************************************/
63 #ifndef __iwl_trans_h__
64 #define __iwl_trans_h__
65
66 #include <linux/debugfs.h>
67 #include <linux/skbuff.h>
68
69 #include "iwl-shared.h"
70 #include "iwl-commands.h"
71
72  /*This file includes the declaration that are exported from the transport
73  * layer */
74
75 struct iwl_priv;
76 struct iwl_shared;
77
78 #define SEQ_TO_SN(seq) (((seq) & IEEE80211_SCTL_SEQ) >> 4)
79 #define SN_TO_SEQ(ssn) (((ssn) << 4) & IEEE80211_SCTL_SEQ)
80 #define MAX_SN ((IEEE80211_SCTL_SEQ) >> 4)
81
82 enum {
83         CMD_SYNC = 0,
84         CMD_ASYNC = BIT(0),
85         CMD_WANT_SKB = BIT(1),
86         CMD_ON_DEMAND = BIT(2),
87 };
88
89 #define DEF_CMD_PAYLOAD_SIZE 320
90
91 /**
92  * struct iwl_device_cmd
93  *
94  * For allocation of the command and tx queues, this establishes the overall
95  * size of the largest command we send to uCode, except for commands that
96  * aren't fully copied and use other TFD space.
97  */
98 struct iwl_device_cmd {
99         struct iwl_cmd_header hdr;      /* uCode API */
100         u8 payload[DEF_CMD_PAYLOAD_SIZE];
101 } __packed;
102
103 #define TFD_MAX_PAYLOAD_SIZE (sizeof(struct iwl_device_cmd))
104
105 #define IWL_MAX_CMD_TFDS        2
106
107 enum iwl_hcmd_dataflag {
108         IWL_HCMD_DFL_NOCOPY     = BIT(0),
109 };
110
111 /**
112  * struct iwl_host_cmd - Host command to the uCode
113  * @data: array of chunks that composes the data of the host command
114  * @reply_page: pointer to the page that holds the response to the host command
115  * @handler_status: return value of the handler of the command
116  *      (put in setup_rx_handlers) - valid for SYNC mode only
117  * @callback:
118  * @flags: can be CMD_* note CMD_WANT_SKB is incompatible withe CMD_ASYNC
119  * @len: array of the lenths of the chunks in data
120  * @dataflags:
121  * @id: id of the host command
122  */
123 struct iwl_host_cmd {
124         const void *data[IWL_MAX_CMD_TFDS];
125         unsigned long reply_page;
126         int handler_status;
127
128         u32 flags;
129         u16 len[IWL_MAX_CMD_TFDS];
130         u8 dataflags[IWL_MAX_CMD_TFDS];
131         u8 id;
132 };
133
134 /**
135  * struct iwl_trans_ops - transport specific operations
136  * @alloc: allocates the meta data (not the queues themselves)
137  * @request_irq: requests IRQ - will be called before the FW load in probe flow
138  * @start_device: allocates and inits all the resources for the transport
139  *                layer.
140  * @prepare_card_hw: claim the ownership on the HW. Will be called during
141  *                   probe.
142  * @tx_start: starts and configures all the Tx fifo - usually done once the fw
143  *           is alive.
144  * @wake_any_queue: wake all the queues of a specfic context IWL_RXON_CTX_*
145  * @stop_device:stops the whole device (embedded CPU put to reset)
146  * @send_cmd:send a host command
147  * @tx: send an skb
148  * @reclaim: free packet until ssn. Returns a list of freed packets.
149  * @tx_agg_alloc: allocate resources for a TX BA session
150  * @tx_agg_setup: setup a tx queue for AMPDU - will be called once the HW is
151  *                 ready and a successful ADDBA response has been received.
152  * @tx_agg_disable: de-configure a Tx queue to send AMPDUs
153  * @kick_nic: remove the RESET from the embedded CPU and let it run
154  * @free: release all the ressource for the transport layer itself such as
155  *        irq, tasklet etc...
156  * @stop_queue: stop a specific queue
157  * @check_stuck_queue: check if a specific queue is stuck
158  * @wait_tx_queue_empty: wait until all tx queues are empty
159  * @dbgfs_register: add the dbgfs files under this directory. Files will be
160  *      automatically deleted.
161  * @suspend: stop the device unless WoWLAN is configured
162  * @resume: resume activity of the device
163  */
164 struct iwl_trans_ops {
165
166         struct iwl_trans *(*alloc)(struct iwl_shared *shrd);
167         int (*request_irq)(struct iwl_trans *iwl_trans);
168         int (*start_device)(struct iwl_trans *trans);
169         int (*prepare_card_hw)(struct iwl_trans *trans);
170         void (*stop_device)(struct iwl_trans *trans);
171         void (*tx_start)(struct iwl_trans *trans);
172
173         void (*wake_any_queue)(struct iwl_trans *trans,
174                                enum iwl_rxon_context_id ctx);
175
176         int (*send_cmd)(struct iwl_trans *trans, struct iwl_host_cmd *cmd);
177
178         int (*tx)(struct iwl_trans *trans, struct sk_buff *skb,
179                 struct iwl_device_cmd *dev_cmd, enum iwl_rxon_context_id ctx,
180                 u8 sta_id);
181         void (*reclaim)(struct iwl_trans *trans, int sta_id, int tid,
182                         int txq_id, int ssn, u32 status,
183                         struct sk_buff_head *skbs);
184
185         int (*tx_agg_disable)(struct iwl_trans *trans,
186                               enum iwl_rxon_context_id ctx, int sta_id,
187                               int tid);
188         int (*tx_agg_alloc)(struct iwl_trans *trans,
189                             enum iwl_rxon_context_id ctx, int sta_id, int tid,
190                             u16 *ssn);
191         void (*tx_agg_setup)(struct iwl_trans *trans,
192                              enum iwl_rxon_context_id ctx, int sta_id, int tid,
193                              int frame_limit);
194
195         void (*kick_nic)(struct iwl_trans *trans);
196
197         void (*free)(struct iwl_trans *trans);
198
199         void (*stop_queue)(struct iwl_trans *trans, int q);
200
201         int (*dbgfs_register)(struct iwl_trans *trans, struct dentry* dir);
202         int (*check_stuck_queue)(struct iwl_trans *trans, int q);
203         int (*wait_tx_queue_empty)(struct iwl_trans *trans);
204 #ifdef CONFIG_PM_SLEEP
205         int (*suspend)(struct iwl_trans *trans);
206         int (*resume)(struct iwl_trans *trans);
207 #endif
208 };
209
210 /**
211  * struct iwl_trans - transport common data
212  * @ops - pointer to iwl_trans_ops
213  * @shrd - pointer to iwl_shared which holds shared data from the upper layer
214  * @hcmd_lock: protects HCMD
215  */
216 struct iwl_trans {
217         const struct iwl_trans_ops *ops;
218         struct iwl_shared *shrd;
219         spinlock_t hcmd_lock;
220
221         /* pointer to trans specific struct */
222         /*Ensure that this pointer will always be aligned to sizeof pointer */
223         char trans_specific[0] __attribute__((__aligned__(sizeof(void *))));
224 };
225
226 static inline int iwl_trans_request_irq(struct iwl_trans *trans)
227 {
228         return trans->ops->request_irq(trans);
229 }
230
231 static inline int iwl_trans_start_device(struct iwl_trans *trans)
232 {
233         return trans->ops->start_device(trans);
234 }
235
236 static inline int iwl_trans_prepare_card_hw(struct iwl_trans *trans)
237 {
238         return trans->ops->prepare_card_hw(trans);
239 }
240
241 static inline void iwl_trans_stop_device(struct iwl_trans *trans)
242 {
243         trans->ops->stop_device(trans);
244 }
245
246 static inline void iwl_trans_tx_start(struct iwl_trans *trans)
247 {
248         trans->ops->tx_start(trans);
249 }
250
251 static inline void iwl_trans_wake_any_queue(struct iwl_trans *trans,
252                                             enum iwl_rxon_context_id ctx)
253 {
254         trans->ops->wake_any_queue(trans, ctx);
255 }
256
257
258 static inline int iwl_trans_send_cmd(struct iwl_trans *trans,
259                                 struct iwl_host_cmd *cmd)
260 {
261         return trans->ops->send_cmd(trans, cmd);
262 }
263
264 int iwl_trans_send_cmd_pdu(struct iwl_trans *trans, u8 id,
265                            u32 flags, u16 len, const void *data);
266
267 static inline int iwl_trans_tx(struct iwl_trans *trans, struct sk_buff *skb,
268                 struct iwl_device_cmd *dev_cmd, enum iwl_rxon_context_id ctx,
269                 u8 sta_id)
270 {
271         return trans->ops->tx(trans, skb, dev_cmd, ctx, sta_id);
272 }
273
274 static inline void iwl_trans_reclaim(struct iwl_trans *trans, int sta_id,
275                                  int tid, int txq_id, int ssn, u32 status,
276                                  struct sk_buff_head *skbs)
277 {
278         trans->ops->reclaim(trans, sta_id, tid, txq_id, ssn, status, skbs);
279 }
280
281 static inline int iwl_trans_tx_agg_disable(struct iwl_trans *trans,
282                                             enum iwl_rxon_context_id ctx,
283                                             int sta_id, int tid)
284 {
285         return trans->ops->tx_agg_disable(trans, ctx, sta_id, tid);
286 }
287
288 static inline int iwl_trans_tx_agg_alloc(struct iwl_trans *trans,
289                                          enum iwl_rxon_context_id ctx,
290                                          int sta_id, int tid, u16 *ssn)
291 {
292         return trans->ops->tx_agg_alloc(trans, ctx, sta_id, tid, ssn);
293 }
294
295
296 static inline void iwl_trans_tx_agg_setup(struct iwl_trans *trans,
297                                            enum iwl_rxon_context_id ctx,
298                                            int sta_id, int tid,
299                                            int frame_limit)
300 {
301         trans->ops->tx_agg_setup(trans, ctx, sta_id, tid, frame_limit);
302 }
303
304 static inline void iwl_trans_kick_nic(struct iwl_trans *trans)
305 {
306         trans->ops->kick_nic(trans);
307 }
308
309 static inline void iwl_trans_free(struct iwl_trans *trans)
310 {
311         trans->ops->free(trans);
312 }
313
314 static inline void iwl_trans_stop_queue(struct iwl_trans *trans, int q)
315 {
316         trans->ops->stop_queue(trans, q);
317 }
318
319 static inline int iwl_trans_wait_tx_queue_empty(struct iwl_trans *trans)
320 {
321         return trans->ops->wait_tx_queue_empty(trans);
322 }
323
324 static inline int iwl_trans_check_stuck_queue(struct iwl_trans *trans, int q)
325 {
326         return trans->ops->check_stuck_queue(trans, q);
327 }
328 static inline int iwl_trans_dbgfs_register(struct iwl_trans *trans,
329                                             struct dentry *dir)
330 {
331         return trans->ops->dbgfs_register(trans, dir);
332 }
333
334 #ifdef CONFIG_PM_SLEEP
335 static inline int iwl_trans_suspend(struct iwl_trans *trans)
336 {
337         return trans->ops->suspend(trans);
338 }
339
340 static inline int iwl_trans_resume(struct iwl_trans *trans)
341 {
342         return trans->ops->resume(trans);
343 }
344 #endif
345
346 /*****************************************************
347 * Transport layers implementations
348 ******************************************************/
349 extern const struct iwl_trans_ops trans_ops_pcie;
350
351 #endif /* __iwl_trans_h__ */