iwlagn: move iwl_suspend / iwl_resume to the transport layer
[pandora-kernel.git] / drivers / net / wireless / iwlwifi / iwl-trans.h
1 /******************************************************************************
2  *
3  * This file is provided under a dual BSD/GPLv2 license.  When using or
4  * redistributing this file, you may do so under either license.
5  *
6  * GPL LICENSE SUMMARY
7  *
8  * Copyright(c) 2007 - 2011 Intel Corporation. All rights reserved.
9  *
10  * This program is free software; you can redistribute it and/or modify
11  * it under the terms of version 2 of the GNU General Public License as
12  * published by the Free Software Foundation.
13  *
14  * This program is distributed in the hope that it will be useful, but
15  * WITHOUT ANY WARRANTY; without even the implied warranty of
16  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
17  * General Public License for more details.
18  *
19  * You should have received a copy of the GNU General Public License
20  * along with this program; if not, write to the Free Software
21  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110,
22  * USA
23  *
24  * The full GNU General Public License is included in this distribution
25  * in the file called LICENSE.GPL.
26  *
27  * Contact Information:
28  *  Intel Linux Wireless <ilw@linux.intel.com>
29  * Intel Corporation, 5200 N.E. Elam Young Parkway, Hillsboro, OR 97124-6497
30  *
31  * BSD LICENSE
32  *
33  * Copyright(c) 2005 - 2011 Intel Corporation. All rights reserved.
34  * All rights reserved.
35  *
36  * Redistribution and use in source and binary forms, with or without
37  * modification, are permitted provided that the following conditions
38  * are met:
39  *
40  *  * Redistributions of source code must retain the above copyright
41  *    notice, this list of conditions and the following disclaimer.
42  *  * Redistributions in binary form must reproduce the above copyright
43  *    notice, this list of conditions and the following disclaimer in
44  *    the documentation and/or other materials provided with the
45  *    distribution.
46  *  * Neither the name Intel Corporation nor the names of its
47  *    contributors may be used to endorse or promote products derived
48  *    from this software without specific prior written permission.
49  *
50  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
51  * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
52  * LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
53  * A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
54  * OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
55  * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
56  * LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
57  * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
58  * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
59  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
60  * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
61  *
62  *****************************************************************************/
63 #ifndef __iwl_trans_h__
64 #define __iwl_trans_h__
65
66 #include <linux/debugfs.h>
67
68  /*This file includes the declaration that are exported from the transport
69  * layer */
70
71 struct iwl_priv;
72 struct iwl_rxon_context;
73 struct iwl_host_cmd;
74 struct iwl_shared;
75
76 /**
77  * struct iwl_trans_ops - transport specific operations
78  * @alloc: allocates the meta data (not the queues themselves)
79  * @request_irq: requests IRQ - will be called before the FW load in probe flow
80  * @start_device: allocates and inits all the resources for the transport
81  *                layer.
82  * @prepare_card_hw: claim the ownership on the HW. Will be called during
83  *                   probe.
84  * @tx_start: starts and configures all the Tx fifo - usually done once the fw
85  *           is alive.
86  * @stop_device:stops the whole device (embedded CPU put to reset)
87  * @rx_free: frees the rx memory
88  * @tx_free: frees the tx memory
89  * @send_cmd:send a host command
90  * @send_cmd_pdu:send a host command: flags can be CMD_*
91  * @get_tx_cmd: returns a pointer to a new Tx cmd for the upper layer use
92  * @tx: send an skb
93  * @txq_agg_setup: setup a tx queue for AMPDU - will be called once the HW is
94  *                 ready and a successful ADDBA response has been received.
95  * @txq_agg_disable: de-configure a Tx queue to send AMPDUs
96  * @kick_nic: remove the RESET from the embedded CPU and let it run
97  * @sync_irq: the upper layer will typically disable interrupt and call this
98  *            handler. After this handler returns, it is guaranteed that all
99  *            the ISR / tasklet etc... have finished running and the transport
100  *            layer shall not pass any Rx.
101  * @free: release all the ressource for the transport layer itself such as
102  *        irq, tasklet etc...
103  * @dbgfs_register: add the dbgfs files under this directory. Files will be
104  *      automatically deleted.
105  * @suspend: stop the device unless WoWLAN is configured
106  * @resume: resume activity of the device
107  */
108 struct iwl_trans_ops {
109
110         struct iwl_trans *(*alloc)(struct iwl_shared *shrd);
111         int (*request_irq)(struct iwl_trans *iwl_trans);
112         int (*start_device)(struct iwl_priv *priv);
113         int (*prepare_card_hw)(struct iwl_priv *priv);
114         void (*stop_device)(struct iwl_priv *priv);
115         void (*tx_start)(struct iwl_priv *priv);
116         void (*tx_free)(struct iwl_priv *priv);
117         void (*rx_free)(struct iwl_trans *trans);
118
119         int (*send_cmd)(struct iwl_priv *priv, struct iwl_host_cmd *cmd);
120
121         int (*send_cmd_pdu)(struct iwl_priv *priv, u8 id, u32 flags, u16 len,
122                      const void *data);
123         struct iwl_tx_cmd * (*get_tx_cmd)(struct iwl_priv *priv, int txq_id);
124         int (*tx)(struct iwl_priv *priv, struct sk_buff *skb,
125                 struct iwl_tx_cmd *tx_cmd, int txq_id, __le16 fc, bool ampdu,
126                 struct iwl_rxon_context *ctx);
127
128         int (*txq_agg_disable)(struct iwl_priv *priv, u16 txq_id,
129                                   u16 ssn_idx, u8 tx_fifo);
130         void (*txq_agg_setup)(struct iwl_priv *priv, int sta_id, int tid,
131                                                 int frame_limit);
132
133         void (*kick_nic)(struct iwl_priv *priv);
134
135         void (*sync_irq)(struct iwl_priv *priv);
136         void (*free)(struct iwl_priv *priv);
137
138         int (*dbgfs_register)(struct iwl_trans *trans, struct dentry* dir);
139         int (*suspend)(struct iwl_trans *trans);
140         int (*resume)(struct iwl_trans *trans);
141 };
142
143 /**
144  * struct iwl_trans - transport common data
145  * @ops - pointer to iwl_trans_ops
146  * @shrd - pointer to iwl_shared which holds shared data from the upper layer
147  */
148 struct iwl_trans {
149         const struct iwl_trans_ops *ops;
150         struct iwl_shared *shrd;
151
152         /* pointer to trans specific struct */
153         /*Ensure that this pointer will always be aligned to sizeof pointer */
154         char trans_specific[0] __attribute__((__aligned__(sizeof(void *))));
155 };
156
157 static inline int iwl_trans_request_irq(struct iwl_trans *trans)
158 {
159         return trans->ops->request_irq(trans);
160 }
161
162 static inline int iwl_trans_start_device(struct iwl_trans *trans)
163 {
164         return trans->ops->start_device(priv(trans));
165 }
166
167 static inline int iwl_trans_prepare_card_hw(struct iwl_trans *trans)
168 {
169         return trans->ops->prepare_card_hw(priv(trans));
170 }
171
172 static inline void iwl_trans_stop_device(struct iwl_trans *trans)
173 {
174         trans->ops->stop_device(priv(trans));
175 }
176
177 static inline void iwl_trans_tx_start(struct iwl_trans *trans)
178 {
179         trans->ops->tx_start(priv(trans));
180 }
181
182 static inline void iwl_trans_rx_free(struct iwl_trans *trans)
183 {
184         trans->ops->rx_free(trans);
185 }
186
187 static inline void iwl_trans_tx_free(struct iwl_trans *trans)
188 {
189         trans->ops->tx_free(priv(trans));
190 }
191
192 static inline int iwl_trans_send_cmd(struct iwl_trans *trans,
193                                 struct iwl_host_cmd *cmd)
194 {
195         return trans->ops->send_cmd(priv(trans), cmd);
196 }
197
198 static inline int iwl_trans_send_cmd_pdu(struct iwl_trans *trans, u8 id,
199                                         u32 flags, u16 len, const void *data)
200 {
201         return trans->ops->send_cmd_pdu(priv(trans), id, flags, len, data);
202 }
203
204 static inline struct iwl_tx_cmd *iwl_trans_get_tx_cmd(struct iwl_trans *trans,
205                                         int txq_id)
206 {
207         return trans->ops->get_tx_cmd(priv(trans), txq_id);
208 }
209
210 static inline int iwl_trans_tx(struct iwl_trans *trans, struct sk_buff *skb,
211                 struct iwl_tx_cmd *tx_cmd, int txq_id, __le16 fc, bool ampdu,
212                 struct iwl_rxon_context *ctx)
213 {
214         return trans->ops->tx(priv(trans), skb, tx_cmd, txq_id, fc, ampdu, ctx);
215 }
216
217 static inline int iwl_trans_txq_agg_disable(struct iwl_trans *trans, u16 txq_id,
218                           u16 ssn_idx, u8 tx_fifo)
219 {
220         return trans->ops->txq_agg_disable(priv(trans), txq_id,
221                                            ssn_idx, tx_fifo);
222 }
223
224 static inline void iwl_trans_txq_agg_setup(struct iwl_trans *trans, int sta_id,
225                                                 int tid, int frame_limit)
226 {
227         trans->ops->txq_agg_setup(priv(trans), sta_id, tid, frame_limit);
228 }
229
230 static inline void iwl_trans_kick_nic(struct iwl_trans *trans)
231 {
232         trans->ops->kick_nic(priv(trans));
233 }
234
235 static inline void iwl_trans_sync_irq(struct iwl_trans *trans)
236 {
237         trans->ops->sync_irq(priv(trans));
238 }
239
240 static inline void iwl_trans_free(struct iwl_trans *trans)
241 {
242         trans->ops->free(priv(trans));
243 }
244
245 static inline int iwl_trans_dbgfs_register(struct iwl_trans *trans,
246                                             struct dentry *dir)
247 {
248         return trans->ops->dbgfs_register(trans, dir);
249 }
250
251 static inline int iwl_trans_suspend(struct iwl_trans *trans)
252 {
253         return trans->ops->suspend(trans);
254 }
255
256 static inline int iwl_trans_resume(struct iwl_trans *trans)
257 {
258         return trans->ops->resume(trans);
259 }
260
261 /*****************************************************
262 * Transport layers implementations
263 ******************************************************/
264 extern const struct iwl_trans_ops trans_ops_pcie;
265
266 /*TODO: this functions should NOT be exported from trans module - export it
267  * until the reclaim flow will be brought to the transport module too */
268
269 struct iwl_tx_queue;
270 void iwlagn_txq_inval_byte_cnt_tbl(struct iwl_priv *priv,
271                                           struct iwl_tx_queue *txq);
272
273 #endif /* __iwl_trans_h__ */