firewire: core: add CSR abdicate support
[pandora-kernel.git] / drivers / firewire / core-card.c
1 /*
2  * Copyright (C) 2005-2007  Kristian Hoegsberg <krh@bitplanet.net>
3  *
4  * This program is free software; you can redistribute it and/or modify
5  * it under the terms of the GNU General Public License as published by
6  * the Free Software Foundation; either version 2 of the License, or
7  * (at your option) any later version.
8  *
9  * This program is distributed in the hope that it will be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12  * GNU General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program; if not, write to the Free Software Foundation,
16  * Inc., 59 Temple Place - Suite 330, Boston, MA 02111-1307, USA.
17  */
18
19 #include <linux/bug.h>
20 #include <linux/completion.h>
21 #include <linux/crc-itu-t.h>
22 #include <linux/device.h>
23 #include <linux/errno.h>
24 #include <linux/firewire.h>
25 #include <linux/firewire-constants.h>
26 #include <linux/jiffies.h>
27 #include <linux/kernel.h>
28 #include <linux/kref.h>
29 #include <linux/list.h>
30 #include <linux/module.h>
31 #include <linux/mutex.h>
32 #include <linux/spinlock.h>
33 #include <linux/workqueue.h>
34
35 #include <asm/atomic.h>
36 #include <asm/byteorder.h>
37
38 #include "core.h"
39
40 int fw_compute_block_crc(__be32 *block)
41 {
42         int length;
43         u16 crc;
44
45         length = (be32_to_cpu(block[0]) >> 16) & 0xff;
46         crc = crc_itu_t(0, (u8 *)&block[1], length * 4);
47         *block |= cpu_to_be32(crc);
48
49         return length;
50 }
51
52 static DEFINE_MUTEX(card_mutex);
53 static LIST_HEAD(card_list);
54
55 static LIST_HEAD(descriptor_list);
56 static int descriptor_count;
57
58 static __be32 tmp_config_rom[256];
59 /* ROM header, bus info block, root dir header, capabilities = 7 quadlets */
60 static size_t config_rom_length = 1 + 4 + 1 + 1;
61
62 #define BIB_CRC(v)              ((v) <<  0)
63 #define BIB_CRC_LENGTH(v)       ((v) << 16)
64 #define BIB_INFO_LENGTH(v)      ((v) << 24)
65 #define BIB_BUS_NAME            0x31333934 /* "1394" */
66 #define BIB_LINK_SPEED(v)       ((v) <<  0)
67 #define BIB_GENERATION(v)       ((v) <<  4)
68 #define BIB_MAX_ROM(v)          ((v) <<  8)
69 #define BIB_MAX_RECEIVE(v)      ((v) << 12)
70 #define BIB_CYC_CLK_ACC(v)      ((v) << 16)
71 #define BIB_PMC                 ((1) << 27)
72 #define BIB_BMC                 ((1) << 28)
73 #define BIB_ISC                 ((1) << 29)
74 #define BIB_CMC                 ((1) << 30)
75 #define BIB_IRMC                ((1) << 31)
76 #define NODE_CAPABILITIES       0x0c0083c0 /* per IEEE 1394 clause 8.3.2.6.5.2 */
77
78 static void generate_config_rom(struct fw_card *card, __be32 *config_rom)
79 {
80         struct fw_descriptor *desc;
81         int i, j, k, length;
82
83         /*
84          * Initialize contents of config rom buffer.  On the OHCI
85          * controller, block reads to the config rom accesses the host
86          * memory, but quadlet read access the hardware bus info block
87          * registers.  That's just crack, but it means we should make
88          * sure the contents of bus info block in host memory matches
89          * the version stored in the OHCI registers.
90          */
91
92         config_rom[0] = cpu_to_be32(
93                 BIB_CRC_LENGTH(4) | BIB_INFO_LENGTH(4) | BIB_CRC(0));
94         config_rom[1] = cpu_to_be32(BIB_BUS_NAME);
95         config_rom[2] = cpu_to_be32(
96                 BIB_LINK_SPEED(card->link_speed) |
97                 BIB_GENERATION(card->config_rom_generation++ % 14 + 2) |
98                 BIB_MAX_ROM(2) |
99                 BIB_MAX_RECEIVE(card->max_receive) |
100                 BIB_BMC | BIB_ISC | BIB_CMC | BIB_IRMC);
101         config_rom[3] = cpu_to_be32(card->guid >> 32);
102         config_rom[4] = cpu_to_be32(card->guid);
103
104         /* Generate root directory. */
105         config_rom[6] = cpu_to_be32(NODE_CAPABILITIES);
106         i = 7;
107         j = 7 + descriptor_count;
108
109         /* Generate root directory entries for descriptors. */
110         list_for_each_entry (desc, &descriptor_list, link) {
111                 if (desc->immediate > 0)
112                         config_rom[i++] = cpu_to_be32(desc->immediate);
113                 config_rom[i] = cpu_to_be32(desc->key | (j - i));
114                 i++;
115                 j += desc->length;
116         }
117
118         /* Update root directory length. */
119         config_rom[5] = cpu_to_be32((i - 5 - 1) << 16);
120
121         /* End of root directory, now copy in descriptors. */
122         list_for_each_entry (desc, &descriptor_list, link) {
123                 for (k = 0; k < desc->length; k++)
124                         config_rom[i + k] = cpu_to_be32(desc->data[k]);
125                 i += desc->length;
126         }
127
128         /* Calculate CRCs for all blocks in the config rom.  This
129          * assumes that CRC length and info length are identical for
130          * the bus info block, which is always the case for this
131          * implementation. */
132         for (i = 0; i < j; i += length + 1)
133                 length = fw_compute_block_crc(config_rom + i);
134
135         WARN_ON(j != config_rom_length);
136 }
137
138 static void update_config_roms(void)
139 {
140         struct fw_card *card;
141
142         list_for_each_entry (card, &card_list, link) {
143                 generate_config_rom(card, tmp_config_rom);
144                 card->driver->set_config_rom(card, tmp_config_rom,
145                                              config_rom_length);
146         }
147 }
148
149 static size_t required_space(struct fw_descriptor *desc)
150 {
151         /* descriptor + entry into root dir + optional immediate entry */
152         return desc->length + 1 + (desc->immediate > 0 ? 1 : 0);
153 }
154
155 int fw_core_add_descriptor(struct fw_descriptor *desc)
156 {
157         size_t i;
158         int ret;
159
160         /*
161          * Check descriptor is valid; the length of all blocks in the
162          * descriptor has to add up to exactly the length of the
163          * block.
164          */
165         i = 0;
166         while (i < desc->length)
167                 i += (desc->data[i] >> 16) + 1;
168
169         if (i != desc->length)
170                 return -EINVAL;
171
172         mutex_lock(&card_mutex);
173
174         if (config_rom_length + required_space(desc) > 256) {
175                 ret = -EBUSY;
176         } else {
177                 list_add_tail(&desc->link, &descriptor_list);
178                 config_rom_length += required_space(desc);
179                 descriptor_count++;
180                 if (desc->immediate > 0)
181                         descriptor_count++;
182                 update_config_roms();
183                 ret = 0;
184         }
185
186         mutex_unlock(&card_mutex);
187
188         return ret;
189 }
190 EXPORT_SYMBOL(fw_core_add_descriptor);
191
192 void fw_core_remove_descriptor(struct fw_descriptor *desc)
193 {
194         mutex_lock(&card_mutex);
195
196         list_del(&desc->link);
197         config_rom_length -= required_space(desc);
198         descriptor_count--;
199         if (desc->immediate > 0)
200                 descriptor_count--;
201         update_config_roms();
202
203         mutex_unlock(&card_mutex);
204 }
205 EXPORT_SYMBOL(fw_core_remove_descriptor);
206
207 static void allocate_broadcast_channel(struct fw_card *card, int generation)
208 {
209         int channel, bandwidth = 0;
210
211         fw_iso_resource_manage(card, generation, 1ULL << 31, &channel,
212                                &bandwidth, true, card->bm_transaction_data);
213         if (channel == 31) {
214                 card->broadcast_channel_allocated = true;
215                 device_for_each_child(card->device, (void *)(long)generation,
216                                       fw_device_set_broadcast_channel);
217         }
218 }
219
220 static const char gap_count_table[] = {
221         63, 5, 7, 8, 10, 13, 16, 18, 21, 24, 26, 29, 32, 35, 37, 40
222 };
223
224 void fw_schedule_bm_work(struct fw_card *card, unsigned long delay)
225 {
226         fw_card_get(card);
227         if (!schedule_delayed_work(&card->work, delay))
228                 fw_card_put(card);
229 }
230
231 static void fw_card_bm_work(struct work_struct *work)
232 {
233         struct fw_card *card = container_of(work, struct fw_card, work.work);
234         struct fw_device *root_device;
235         struct fw_node *root_node;
236         unsigned long flags;
237         int root_id, new_root_id, irm_id, local_id;
238         int gap_count, generation, grace, rcode;
239         bool do_reset = false;
240         bool root_device_is_running;
241         bool root_device_is_cmc;
242
243         spin_lock_irqsave(&card->lock, flags);
244
245         if (card->local_node == NULL) {
246                 spin_unlock_irqrestore(&card->lock, flags);
247                 goto out_put_card;
248         }
249
250         generation = card->generation;
251         root_node = card->root_node;
252         fw_node_get(root_node);
253         root_device = root_node->data;
254         root_device_is_running = root_device &&
255                         atomic_read(&root_device->state) == FW_DEVICE_RUNNING;
256         root_device_is_cmc = root_device && root_device->cmc;
257         root_id  = root_node->node_id;
258         irm_id   = card->irm_node->node_id;
259         local_id = card->local_node->node_id;
260
261         grace = time_after(jiffies, card->reset_jiffies + DIV_ROUND_UP(HZ, 8));
262
263         if ((is_next_generation(generation, card->bm_generation) &&
264              !card->bm_abdicate) ||
265             (card->bm_generation != generation && grace)) {
266                 /*
267                  * This first step is to figure out who is IRM and
268                  * then try to become bus manager.  If the IRM is not
269                  * well defined (e.g. does not have an active link
270                  * layer or does not responds to our lock request, we
271                  * will have to do a little vigilante bus management.
272                  * In that case, we do a goto into the gap count logic
273                  * so that when we do the reset, we still optimize the
274                  * gap count.  That could well save a reset in the
275                  * next generation.
276                  */
277
278                 if (!card->irm_node->link_on) {
279                         new_root_id = local_id;
280                         fw_notify("IRM has link off, making local node (%02x) root.\n",
281                                   new_root_id);
282                         goto pick_me;
283                 }
284
285                 card->bm_transaction_data[0] = cpu_to_be32(0x3f);
286                 card->bm_transaction_data[1] = cpu_to_be32(local_id);
287
288                 spin_unlock_irqrestore(&card->lock, flags);
289
290                 rcode = fw_run_transaction(card, TCODE_LOCK_COMPARE_SWAP,
291                                 irm_id, generation, SCODE_100,
292                                 CSR_REGISTER_BASE + CSR_BUS_MANAGER_ID,
293                                 card->bm_transaction_data,
294                                 sizeof(card->bm_transaction_data));
295
296                 if (rcode == RCODE_GENERATION)
297                         /* Another bus reset, BM work has been rescheduled. */
298                         goto out;
299
300                 if (rcode == RCODE_COMPLETE &&
301                     card->bm_transaction_data[0] != cpu_to_be32(0x3f)) {
302
303                         /* Somebody else is BM.  Only act as IRM. */
304                         if (local_id == irm_id)
305                                 allocate_broadcast_channel(card, generation);
306
307                         goto out;
308                 }
309
310                 if (rcode == RCODE_SEND_ERROR) {
311                         /*
312                          * We have been unable to send the lock request due to
313                          * some local problem.  Let's try again later and hope
314                          * that the problem has gone away by then.
315                          */
316                         fw_schedule_bm_work(card, DIV_ROUND_UP(HZ, 8));
317                         goto out;
318                 }
319
320                 spin_lock_irqsave(&card->lock, flags);
321
322                 if (rcode != RCODE_COMPLETE) {
323                         /*
324                          * The lock request failed, maybe the IRM
325                          * isn't really IRM capable after all. Let's
326                          * do a bus reset and pick the local node as
327                          * root, and thus, IRM.
328                          */
329                         new_root_id = local_id;
330                         fw_notify("BM lock failed, making local node (%02x) root.\n",
331                                   new_root_id);
332                         goto pick_me;
333                 }
334         } else if (card->bm_generation != generation) {
335                 /*
336                  * We weren't BM in the last generation, and the last
337                  * bus reset is less than 125ms ago.  Reschedule this job.
338                  */
339                 spin_unlock_irqrestore(&card->lock, flags);
340                 fw_schedule_bm_work(card, DIV_ROUND_UP(HZ, 8));
341                 goto out;
342         }
343
344         /*
345          * We're bus manager for this generation, so next step is to
346          * make sure we have an active cycle master and do gap count
347          * optimization.
348          */
349         card->bm_generation = generation;
350
351         if (root_device == NULL) {
352                 /*
353                  * Either link_on is false, or we failed to read the
354                  * config rom.  In either case, pick another root.
355                  */
356                 new_root_id = local_id;
357         } else if (!root_device_is_running) {
358                 /*
359                  * If we haven't probed this device yet, bail out now
360                  * and let's try again once that's done.
361                  */
362                 spin_unlock_irqrestore(&card->lock, flags);
363                 goto out;
364         } else if (root_device_is_cmc) {
365                 /*
366                  * FIXME: I suppose we should set the cmstr bit in the
367                  * STATE_CLEAR register of this node, as described in
368                  * 1394-1995, 8.4.2.6.  Also, send out a force root
369                  * packet for this node.
370                  */
371                 new_root_id = root_id;
372         } else {
373                 /*
374                  * Current root has an active link layer and we
375                  * successfully read the config rom, but it's not
376                  * cycle master capable.
377                  */
378                 new_root_id = local_id;
379         }
380
381  pick_me:
382         /*
383          * Pick a gap count from 1394a table E-1.  The table doesn't cover
384          * the typically much larger 1394b beta repeater delays though.
385          */
386         if (!card->beta_repeaters_present &&
387             root_node->max_hops < ARRAY_SIZE(gap_count_table))
388                 gap_count = gap_count_table[root_node->max_hops];
389         else
390                 gap_count = 63;
391
392         /*
393          * Finally, figure out if we should do a reset or not.  If we have
394          * done less than 5 resets with the same physical topology and we
395          * have either a new root or a new gap count setting, let's do it.
396          */
397
398         if (card->bm_retries++ < 5 &&
399             (card->gap_count != gap_count || new_root_id != root_id))
400                 do_reset = true;
401
402         spin_unlock_irqrestore(&card->lock, flags);
403
404         if (do_reset) {
405                 fw_notify("phy config: card %d, new root=%x, gap_count=%d\n",
406                           card->index, new_root_id, gap_count);
407                 fw_send_phy_config(card, new_root_id, generation, gap_count);
408                 fw_core_initiate_bus_reset(card, 1);
409                 /* Will allocate broadcast channel after the reset. */
410         } else {
411                 if (local_id == irm_id)
412                         allocate_broadcast_channel(card, generation);
413         }
414
415  out:
416         fw_node_put(root_node);
417  out_put_card:
418         fw_card_put(card);
419 }
420
421 void fw_card_initialize(struct fw_card *card,
422                         const struct fw_card_driver *driver,
423                         struct device *device)
424 {
425         static atomic_t index = ATOMIC_INIT(-1);
426
427         card->index = atomic_inc_return(&index);
428         card->driver = driver;
429         card->device = device;
430         card->current_tlabel = 0;
431         card->tlabel_mask = 0;
432         card->split_timeout_hi = 0;
433         card->split_timeout_lo = 800 << 19;
434         card->split_timeout_cycles = 800;
435         card->split_timeout_jiffies = DIV_ROUND_UP(HZ, 10);
436         card->color = 0;
437         card->broadcast_channel = BROADCAST_CHANNEL_INITIAL;
438
439         kref_init(&card->kref);
440         init_completion(&card->done);
441         INIT_LIST_HEAD(&card->transaction_list);
442         spin_lock_init(&card->lock);
443
444         card->local_node = NULL;
445
446         INIT_DELAYED_WORK(&card->work, fw_card_bm_work);
447 }
448 EXPORT_SYMBOL(fw_card_initialize);
449
450 int fw_card_add(struct fw_card *card,
451                 u32 max_receive, u32 link_speed, u64 guid)
452 {
453         int ret;
454
455         card->max_receive = max_receive;
456         card->link_speed = link_speed;
457         card->guid = guid;
458
459         mutex_lock(&card_mutex);
460
461         generate_config_rom(card, tmp_config_rom);
462         ret = card->driver->enable(card, tmp_config_rom, config_rom_length);
463         if (ret == 0)
464                 list_add_tail(&card->link, &card_list);
465
466         mutex_unlock(&card_mutex);
467
468         return ret;
469 }
470 EXPORT_SYMBOL(fw_card_add);
471
472
473 /*
474  * The next few functions implement a dummy driver that is used once a card
475  * driver shuts down an fw_card.  This allows the driver to cleanly unload,
476  * as all IO to the card will be handled (and failed) by the dummy driver
477  * instead of calling into the module.  Only functions for iso context
478  * shutdown still need to be provided by the card driver.
479  */
480
481 static int dummy_enable(struct fw_card *card,
482                         const __be32 *config_rom, size_t length)
483 {
484         BUG();
485         return -1;
486 }
487
488 static int dummy_update_phy_reg(struct fw_card *card, int address,
489                                 int clear_bits, int set_bits)
490 {
491         return -ENODEV;
492 }
493
494 static int dummy_set_config_rom(struct fw_card *card,
495                                 const __be32 *config_rom, size_t length)
496 {
497         /*
498          * We take the card out of card_list before setting the dummy
499          * driver, so this should never get called.
500          */
501         BUG();
502         return -1;
503 }
504
505 static void dummy_send_request(struct fw_card *card, struct fw_packet *packet)
506 {
507         packet->callback(packet, card, -ENODEV);
508 }
509
510 static void dummy_send_response(struct fw_card *card, struct fw_packet *packet)
511 {
512         packet->callback(packet, card, -ENODEV);
513 }
514
515 static int dummy_cancel_packet(struct fw_card *card, struct fw_packet *packet)
516 {
517         return -ENOENT;
518 }
519
520 static int dummy_enable_phys_dma(struct fw_card *card,
521                                  int node_id, int generation)
522 {
523         return -ENODEV;
524 }
525
526 static const struct fw_card_driver dummy_driver_template = {
527         .enable          = dummy_enable,
528         .update_phy_reg  = dummy_update_phy_reg,
529         .set_config_rom  = dummy_set_config_rom,
530         .send_request    = dummy_send_request,
531         .cancel_packet   = dummy_cancel_packet,
532         .send_response   = dummy_send_response,
533         .enable_phys_dma = dummy_enable_phys_dma,
534 };
535
536 void fw_card_release(struct kref *kref)
537 {
538         struct fw_card *card = container_of(kref, struct fw_card, kref);
539
540         complete(&card->done);
541 }
542
543 void fw_core_remove_card(struct fw_card *card)
544 {
545         struct fw_card_driver dummy_driver = dummy_driver_template;
546
547         card->driver->update_phy_reg(card, 4,
548                                      PHY_LINK_ACTIVE | PHY_CONTENDER, 0);
549         fw_core_initiate_bus_reset(card, 1);
550
551         mutex_lock(&card_mutex);
552         list_del_init(&card->link);
553         mutex_unlock(&card_mutex);
554
555         /* Switch off most of the card driver interface. */
556         dummy_driver.free_iso_context   = card->driver->free_iso_context;
557         dummy_driver.stop_iso           = card->driver->stop_iso;
558         card->driver = &dummy_driver;
559
560         fw_destroy_nodes(card);
561
562         /* Wait for all users, especially device workqueue jobs, to finish. */
563         fw_card_put(card);
564         wait_for_completion(&card->done);
565
566         WARN_ON(!list_empty(&card->transaction_list));
567 }
568 EXPORT_SYMBOL(fw_core_remove_card);
569
570 int fw_core_initiate_bus_reset(struct fw_card *card, int short_reset)
571 {
572         int reg = short_reset ? 5 : 1;
573         int bit = short_reset ? PHY_BUS_SHORT_RESET : PHY_BUS_RESET;
574
575         return card->driver->update_phy_reg(card, reg, 0, bit);
576 }
577 EXPORT_SYMBOL(fw_core_initiate_bus_reset);