SUNRPC: Use RCU to dereference the rpc_clnt.cl_xprt field
[pandora-kernel.git] / fs / nfs / callback_proc.c
1 /*
2  * linux/fs/nfs/callback_proc.c
3  *
4  * Copyright (C) 2004 Trond Myklebust
5  *
6  * NFSv4 callback procedures
7  */
8 #include <linux/nfs4.h>
9 #include <linux/nfs_fs.h>
10 #include <linux/slab.h>
11 #include <linux/rcupdate.h>
12 #include "nfs4_fs.h"
13 #include "callback.h"
14 #include "delegation.h"
15 #include "internal.h"
16 #include "pnfs.h"
17
18 #ifdef NFS_DEBUG
19 #define NFSDBG_FACILITY NFSDBG_CALLBACK
20 #endif
21
22 __be32 nfs4_callback_getattr(struct cb_getattrargs *args,
23                              struct cb_getattrres *res,
24                              struct cb_process_state *cps)
25 {
26         struct nfs_delegation *delegation;
27         struct nfs_inode *nfsi;
28         struct inode *inode;
29
30         res->status = htonl(NFS4ERR_OP_NOT_IN_SESSION);
31         if (!cps->clp) /* Always set for v4.0. Set in cb_sequence for v4.1 */
32                 goto out;
33
34         res->bitmap[0] = res->bitmap[1] = 0;
35         res->status = htonl(NFS4ERR_BADHANDLE);
36
37         dprintk_rcu("NFS: GETATTR callback request from %s\n",
38                 rpc_peeraddr2str(cps->clp->cl_rpcclient, RPC_DISPLAY_ADDR));
39
40         inode = nfs_delegation_find_inode(cps->clp, &args->fh);
41         if (inode == NULL)
42                 goto out;
43         nfsi = NFS_I(inode);
44         rcu_read_lock();
45         delegation = rcu_dereference(nfsi->delegation);
46         if (delegation == NULL || (delegation->type & FMODE_WRITE) == 0)
47                 goto out_iput;
48         res->size = i_size_read(inode);
49         res->change_attr = delegation->change_attr;
50         if (nfsi->npages != 0)
51                 res->change_attr++;
52         res->ctime = inode->i_ctime;
53         res->mtime = inode->i_mtime;
54         res->bitmap[0] = (FATTR4_WORD0_CHANGE|FATTR4_WORD0_SIZE) &
55                 args->bitmap[0];
56         res->bitmap[1] = (FATTR4_WORD1_TIME_METADATA|FATTR4_WORD1_TIME_MODIFY) &
57                 args->bitmap[1];
58         res->status = 0;
59 out_iput:
60         rcu_read_unlock();
61         iput(inode);
62 out:
63         dprintk("%s: exit with status = %d\n", __func__, ntohl(res->status));
64         return res->status;
65 }
66
67 __be32 nfs4_callback_recall(struct cb_recallargs *args, void *dummy,
68                             struct cb_process_state *cps)
69 {
70         struct inode *inode;
71         __be32 res;
72         
73         res = htonl(NFS4ERR_OP_NOT_IN_SESSION);
74         if (!cps->clp) /* Always set for v4.0. Set in cb_sequence for v4.1 */
75                 goto out;
76
77         dprintk_rcu("NFS: RECALL callback request from %s\n",
78                 rpc_peeraddr2str(cps->clp->cl_rpcclient, RPC_DISPLAY_ADDR));
79
80         res = htonl(NFS4ERR_BADHANDLE);
81         inode = nfs_delegation_find_inode(cps->clp, &args->fh);
82         if (inode == NULL)
83                 goto out;
84         /* Set up a helper thread to actually return the delegation */
85         switch (nfs_async_inode_return_delegation(inode, &args->stateid)) {
86         case 0:
87                 res = 0;
88                 break;
89         case -ENOENT:
90                 if (res != 0)
91                         res = htonl(NFS4ERR_BAD_STATEID);
92                 break;
93         default:
94                 res = htonl(NFS4ERR_RESOURCE);
95         }
96         iput(inode);
97 out:
98         dprintk("%s: exit with status = %d\n", __func__, ntohl(res));
99         return res;
100 }
101
102 int nfs4_validate_delegation_stateid(struct nfs_delegation *delegation, const nfs4_stateid *stateid)
103 {
104         if (delegation == NULL || memcmp(delegation->stateid.data, stateid->data,
105                                          sizeof(delegation->stateid.data)) != 0)
106                 return 0;
107         return 1;
108 }
109
110 #if defined(CONFIG_NFS_V4_1)
111
112 /*
113  * Lookup a layout by filehandle.
114  *
115  * Note: gets a refcount on the layout hdr and on its respective inode.
116  * Caller must put the layout hdr and the inode.
117  *
118  * TODO: keep track of all layouts (and delegations) in a hash table
119  * hashed by filehandle.
120  */
121 static struct pnfs_layout_hdr * get_layout_by_fh_locked(struct nfs_client *clp, struct nfs_fh *fh)
122 {
123         struct nfs_server *server;
124         struct inode *ino;
125         struct pnfs_layout_hdr *lo;
126
127         list_for_each_entry_rcu(server, &clp->cl_superblocks, client_link) {
128                 list_for_each_entry(lo, &server->layouts, plh_layouts) {
129                         if (nfs_compare_fh(fh, &NFS_I(lo->plh_inode)->fh))
130                                 continue;
131                         ino = igrab(lo->plh_inode);
132                         if (!ino)
133                                 continue;
134                         get_layout_hdr(lo);
135                         return lo;
136                 }
137         }
138
139         return NULL;
140 }
141
142 static struct pnfs_layout_hdr * get_layout_by_fh(struct nfs_client *clp, struct nfs_fh *fh)
143 {
144         struct pnfs_layout_hdr *lo;
145
146         spin_lock(&clp->cl_lock);
147         rcu_read_lock();
148         lo = get_layout_by_fh_locked(clp, fh);
149         rcu_read_unlock();
150         spin_unlock(&clp->cl_lock);
151
152         return lo;
153 }
154
155 static u32 initiate_file_draining(struct nfs_client *clp,
156                                   struct cb_layoutrecallargs *args)
157 {
158         struct inode *ino;
159         struct pnfs_layout_hdr *lo;
160         u32 rv = NFS4ERR_NOMATCHING_LAYOUT;
161         LIST_HEAD(free_me_list);
162
163         lo = get_layout_by_fh(clp, &args->cbl_fh);
164         if (!lo)
165                 return NFS4ERR_NOMATCHING_LAYOUT;
166
167         ino = lo->plh_inode;
168         spin_lock(&ino->i_lock);
169         if (test_bit(NFS_LAYOUT_BULK_RECALL, &lo->plh_flags) ||
170             mark_matching_lsegs_invalid(lo, &free_me_list,
171                                         &args->cbl_range))
172                 rv = NFS4ERR_DELAY;
173         else
174                 rv = NFS4ERR_NOMATCHING_LAYOUT;
175         pnfs_set_layout_stateid(lo, &args->cbl_stateid, true);
176         spin_unlock(&ino->i_lock);
177         pnfs_free_lseg_list(&free_me_list);
178         put_layout_hdr(lo);
179         iput(ino);
180         return rv;
181 }
182
183 static u32 initiate_bulk_draining(struct nfs_client *clp,
184                                   struct cb_layoutrecallargs *args)
185 {
186         struct nfs_server *server;
187         struct pnfs_layout_hdr *lo;
188         struct inode *ino;
189         u32 rv = NFS4ERR_NOMATCHING_LAYOUT;
190         struct pnfs_layout_hdr *tmp;
191         LIST_HEAD(recall_list);
192         LIST_HEAD(free_me_list);
193         struct pnfs_layout_range range = {
194                 .iomode = IOMODE_ANY,
195                 .offset = 0,
196                 .length = NFS4_MAX_UINT64,
197         };
198
199         spin_lock(&clp->cl_lock);
200         rcu_read_lock();
201         list_for_each_entry_rcu(server, &clp->cl_superblocks, client_link) {
202                 if ((args->cbl_recall_type == RETURN_FSID) &&
203                     memcmp(&server->fsid, &args->cbl_fsid,
204                            sizeof(struct nfs_fsid)))
205                         continue;
206
207                 list_for_each_entry(lo, &server->layouts, plh_layouts) {
208                         if (!igrab(lo->plh_inode))
209                                 continue;
210                         get_layout_hdr(lo);
211                         BUG_ON(!list_empty(&lo->plh_bulk_recall));
212                         list_add(&lo->plh_bulk_recall, &recall_list);
213                 }
214         }
215         rcu_read_unlock();
216         spin_unlock(&clp->cl_lock);
217
218         list_for_each_entry_safe(lo, tmp,
219                                  &recall_list, plh_bulk_recall) {
220                 ino = lo->plh_inode;
221                 spin_lock(&ino->i_lock);
222                 set_bit(NFS_LAYOUT_BULK_RECALL, &lo->plh_flags);
223                 if (mark_matching_lsegs_invalid(lo, &free_me_list, &range))
224                         rv = NFS4ERR_DELAY;
225                 list_del_init(&lo->plh_bulk_recall);
226                 spin_unlock(&ino->i_lock);
227                 pnfs_free_lseg_list(&free_me_list);
228                 put_layout_hdr(lo);
229                 iput(ino);
230         }
231         return rv;
232 }
233
234 static u32 do_callback_layoutrecall(struct nfs_client *clp,
235                                     struct cb_layoutrecallargs *args)
236 {
237         u32 res;
238
239         dprintk("%s enter, type=%i\n", __func__, args->cbl_recall_type);
240         if (args->cbl_recall_type == RETURN_FILE)
241                 res = initiate_file_draining(clp, args);
242         else
243                 res = initiate_bulk_draining(clp, args);
244         dprintk("%s returning %i\n", __func__, res);
245         return res;
246
247 }
248
249 __be32 nfs4_callback_layoutrecall(struct cb_layoutrecallargs *args,
250                                   void *dummy, struct cb_process_state *cps)
251 {
252         u32 res;
253
254         dprintk("%s: -->\n", __func__);
255
256         if (cps->clp)
257                 res = do_callback_layoutrecall(cps->clp, args);
258         else
259                 res = NFS4ERR_OP_NOT_IN_SESSION;
260
261         dprintk("%s: exit with status = %d\n", __func__, res);
262         return cpu_to_be32(res);
263 }
264
265 static void pnfs_recall_all_layouts(struct nfs_client *clp)
266 {
267         struct cb_layoutrecallargs args;
268
269         /* Pretend we got a CB_LAYOUTRECALL(ALL) */
270         memset(&args, 0, sizeof(args));
271         args.cbl_recall_type = RETURN_ALL;
272         /* FIXME we ignore errors, what should we do? */
273         do_callback_layoutrecall(clp, &args);
274 }
275
276 __be32 nfs4_callback_devicenotify(struct cb_devicenotifyargs *args,
277                                   void *dummy, struct cb_process_state *cps)
278 {
279         int i;
280         __be32 res = 0;
281         struct nfs_client *clp = cps->clp;
282         struct nfs_server *server = NULL;
283
284         dprintk("%s: -->\n", __func__);
285
286         if (!clp) {
287                 res = cpu_to_be32(NFS4ERR_OP_NOT_IN_SESSION);
288                 goto out;
289         }
290
291         for (i = 0; i < args->ndevs; i++) {
292                 struct cb_devicenotifyitem *dev = &args->devs[i];
293
294                 if (!server ||
295                     server->pnfs_curr_ld->id != dev->cbd_layout_type) {
296                         rcu_read_lock();
297                         list_for_each_entry_rcu(server, &clp->cl_superblocks, client_link)
298                                 if (server->pnfs_curr_ld &&
299                                     server->pnfs_curr_ld->id == dev->cbd_layout_type) {
300                                         rcu_read_unlock();
301                                         goto found;
302                                 }
303                         rcu_read_unlock();
304                         dprintk("%s: layout type %u not found\n",
305                                 __func__, dev->cbd_layout_type);
306                         continue;
307                 }
308
309         found:
310                 if (dev->cbd_notify_type == NOTIFY_DEVICEID4_CHANGE)
311                         dprintk("%s: NOTIFY_DEVICEID4_CHANGE not supported, "
312                                 "deleting instead\n", __func__);
313                 nfs4_delete_deviceid(server->pnfs_curr_ld, clp, &dev->cbd_dev_id);
314         }
315
316 out:
317         kfree(args->devs);
318         dprintk("%s: exit with status = %u\n",
319                 __func__, be32_to_cpu(res));
320         return res;
321 }
322
323 int nfs41_validate_delegation_stateid(struct nfs_delegation *delegation, const nfs4_stateid *stateid)
324 {
325         if (delegation == NULL)
326                 return 0;
327
328         if (stateid->stateid.seqid != 0)
329                 return 0;
330         if (memcmp(&delegation->stateid.stateid.other,
331                    &stateid->stateid.other,
332                    NFS4_STATEID_OTHER_SIZE))
333                 return 0;
334
335         return 1;
336 }
337
338 /*
339  * Validate the sequenceID sent by the server.
340  * Return success if the sequenceID is one more than what we last saw on
341  * this slot, accounting for wraparound.  Increments the slot's sequence.
342  *
343  * We don't yet implement a duplicate request cache, instead we set the
344  * back channel ca_maxresponsesize_cached to zero. This is OK for now
345  * since we only currently implement idempotent callbacks anyway.
346  *
347  * We have a single slot backchannel at this time, so we don't bother
348  * checking the used_slots bit array on the table.  The lower layer guarantees
349  * a single outstanding callback request at a time.
350  */
351 static __be32
352 validate_seqid(struct nfs4_slot_table *tbl, struct cb_sequenceargs * args)
353 {
354         struct nfs4_slot *slot;
355
356         dprintk("%s enter. slotid %d seqid %d\n",
357                 __func__, args->csa_slotid, args->csa_sequenceid);
358
359         if (args->csa_slotid >= NFS41_BC_MAX_CALLBACKS)
360                 return htonl(NFS4ERR_BADSLOT);
361
362         slot = tbl->slots + args->csa_slotid;
363         dprintk("%s slot table seqid: %d\n", __func__, slot->seq_nr);
364
365         /* Normal */
366         if (likely(args->csa_sequenceid == slot->seq_nr + 1)) {
367                 slot->seq_nr++;
368                 goto out_ok;
369         }
370
371         /* Replay */
372         if (args->csa_sequenceid == slot->seq_nr) {
373                 dprintk("%s seqid %d is a replay\n",
374                         __func__, args->csa_sequenceid);
375                 /* Signal process_op to set this error on next op */
376                 if (args->csa_cachethis == 0)
377                         return htonl(NFS4ERR_RETRY_UNCACHED_REP);
378
379                 /* The ca_maxresponsesize_cached is 0 with no DRC */
380                 else if (args->csa_cachethis == 1)
381                         return htonl(NFS4ERR_REP_TOO_BIG_TO_CACHE);
382         }
383
384         /* Wraparound */
385         if (args->csa_sequenceid == 1 && (slot->seq_nr + 1) == 0) {
386                 slot->seq_nr = 1;
387                 goto out_ok;
388         }
389
390         /* Misordered request */
391         return htonl(NFS4ERR_SEQ_MISORDERED);
392 out_ok:
393         tbl->highest_used_slotid = args->csa_slotid;
394         return htonl(NFS4_OK);
395 }
396
397 /*
398  * For each referring call triple, check the session's slot table for
399  * a match.  If the slot is in use and the sequence numbers match, the
400  * client is still waiting for a response to the original request.
401  */
402 static bool referring_call_exists(struct nfs_client *clp,
403                                   uint32_t nrclists,
404                                   struct referring_call_list *rclists)
405 {
406         bool status = 0;
407         int i, j;
408         struct nfs4_session *session;
409         struct nfs4_slot_table *tbl;
410         struct referring_call_list *rclist;
411         struct referring_call *ref;
412
413         /*
414          * XXX When client trunking is implemented, this becomes
415          * a session lookup from within the loop
416          */
417         session = clp->cl_session;
418         tbl = &session->fc_slot_table;
419
420         for (i = 0; i < nrclists; i++) {
421                 rclist = &rclists[i];
422                 if (memcmp(session->sess_id.data,
423                            rclist->rcl_sessionid.data,
424                            NFS4_MAX_SESSIONID_LEN) != 0)
425                         continue;
426
427                 for (j = 0; j < rclist->rcl_nrefcalls; j++) {
428                         ref = &rclist->rcl_refcalls[j];
429
430                         dprintk("%s: sessionid %x:%x:%x:%x sequenceid %u "
431                                 "slotid %u\n", __func__,
432                                 ((u32 *)&rclist->rcl_sessionid.data)[0],
433                                 ((u32 *)&rclist->rcl_sessionid.data)[1],
434                                 ((u32 *)&rclist->rcl_sessionid.data)[2],
435                                 ((u32 *)&rclist->rcl_sessionid.data)[3],
436                                 ref->rc_sequenceid, ref->rc_slotid);
437
438                         spin_lock(&tbl->slot_tbl_lock);
439                         status = (test_bit(ref->rc_slotid, tbl->used_slots) &&
440                                   tbl->slots[ref->rc_slotid].seq_nr ==
441                                         ref->rc_sequenceid);
442                         spin_unlock(&tbl->slot_tbl_lock);
443                         if (status)
444                                 goto out;
445                 }
446         }
447
448 out:
449         return status;
450 }
451
452 __be32 nfs4_callback_sequence(struct cb_sequenceargs *args,
453                               struct cb_sequenceres *res,
454                               struct cb_process_state *cps)
455 {
456         struct nfs4_slot_table *tbl;
457         struct nfs_client *clp;
458         int i;
459         __be32 status = htonl(NFS4ERR_BADSESSION);
460
461         clp = nfs4_find_client_sessionid(cps->net, args->csa_addr, &args->csa_sessionid);
462         if (clp == NULL)
463                 goto out;
464
465         tbl = &clp->cl_session->bc_slot_table;
466
467         spin_lock(&tbl->slot_tbl_lock);
468         /* state manager is resetting the session */
469         if (test_bit(NFS4_SESSION_DRAINING, &clp->cl_session->session_state)) {
470                 spin_unlock(&tbl->slot_tbl_lock);
471                 status = htonl(NFS4ERR_DELAY);
472                 /* Return NFS4ERR_BADSESSION if we're draining the session
473                  * in order to reset it.
474                  */
475                 if (test_bit(NFS4CLNT_SESSION_RESET, &clp->cl_state))
476                         status = htonl(NFS4ERR_BADSESSION);
477                 goto out;
478         }
479
480         status = validate_seqid(&clp->cl_session->bc_slot_table, args);
481         spin_unlock(&tbl->slot_tbl_lock);
482         if (status)
483                 goto out;
484
485         cps->slotid = args->csa_slotid;
486
487         /*
488          * Check for pending referring calls.  If a match is found, a
489          * related callback was received before the response to the original
490          * call.
491          */
492         if (referring_call_exists(clp, args->csa_nrclists, args->csa_rclists)) {
493                 status = htonl(NFS4ERR_DELAY);
494                 goto out;
495         }
496
497         memcpy(&res->csr_sessionid, &args->csa_sessionid,
498                sizeof(res->csr_sessionid));
499         res->csr_sequenceid = args->csa_sequenceid;
500         res->csr_slotid = args->csa_slotid;
501         res->csr_highestslotid = NFS41_BC_MAX_CALLBACKS - 1;
502         res->csr_target_highestslotid = NFS41_BC_MAX_CALLBACKS - 1;
503
504 out:
505         cps->clp = clp; /* put in nfs4_callback_compound */
506         for (i = 0; i < args->csa_nrclists; i++)
507                 kfree(args->csa_rclists[i].rcl_refcalls);
508         kfree(args->csa_rclists);
509
510         if (status == htonl(NFS4ERR_RETRY_UNCACHED_REP)) {
511                 cps->drc_status = status;
512                 status = 0;
513         } else
514                 res->csr_status = status;
515
516         dprintk("%s: exit with status = %d res->csr_status %d\n", __func__,
517                 ntohl(status), ntohl(res->csr_status));
518         return status;
519 }
520
521 static bool
522 validate_bitmap_values(unsigned long mask)
523 {
524         return (mask & ~RCA4_TYPE_MASK_ALL) == 0;
525 }
526
527 __be32 nfs4_callback_recallany(struct cb_recallanyargs *args, void *dummy,
528                                struct cb_process_state *cps)
529 {
530         __be32 status;
531         fmode_t flags = 0;
532
533         status = cpu_to_be32(NFS4ERR_OP_NOT_IN_SESSION);
534         if (!cps->clp) /* set in cb_sequence */
535                 goto out;
536
537         dprintk_rcu("NFS: RECALL_ANY callback request from %s\n",
538                 rpc_peeraddr2str(cps->clp->cl_rpcclient, RPC_DISPLAY_ADDR));
539
540         status = cpu_to_be32(NFS4ERR_INVAL);
541         if (!validate_bitmap_values(args->craa_type_mask))
542                 goto out;
543
544         status = cpu_to_be32(NFS4_OK);
545         if (test_bit(RCA4_TYPE_MASK_RDATA_DLG, (const unsigned long *)
546                      &args->craa_type_mask))
547                 flags = FMODE_READ;
548         if (test_bit(RCA4_TYPE_MASK_WDATA_DLG, (const unsigned long *)
549                      &args->craa_type_mask))
550                 flags |= FMODE_WRITE;
551         if (test_bit(RCA4_TYPE_MASK_FILE_LAYOUT, (const unsigned long *)
552                      &args->craa_type_mask))
553                 pnfs_recall_all_layouts(cps->clp);
554         if (flags)
555                 nfs_expire_all_delegation_types(cps->clp, flags);
556 out:
557         dprintk("%s: exit with status = %d\n", __func__, ntohl(status));
558         return status;
559 }
560
561 /* Reduce the fore channel's max_slots to the target value */
562 __be32 nfs4_callback_recallslot(struct cb_recallslotargs *args, void *dummy,
563                                 struct cb_process_state *cps)
564 {
565         struct nfs4_slot_table *fc_tbl;
566         __be32 status;
567
568         status = htonl(NFS4ERR_OP_NOT_IN_SESSION);
569         if (!cps->clp) /* set in cb_sequence */
570                 goto out;
571
572         dprintk_rcu("NFS: CB_RECALL_SLOT request from %s target max slots %d\n",
573                 rpc_peeraddr2str(cps->clp->cl_rpcclient, RPC_DISPLAY_ADDR),
574                 args->crsa_target_max_slots);
575
576         fc_tbl = &cps->clp->cl_session->fc_slot_table;
577
578         status = htonl(NFS4ERR_BAD_HIGH_SLOT);
579         if (args->crsa_target_max_slots > fc_tbl->max_slots ||
580             args->crsa_target_max_slots < 1)
581                 goto out;
582
583         status = htonl(NFS4_OK);
584         if (args->crsa_target_max_slots == fc_tbl->max_slots)
585                 goto out;
586
587         fc_tbl->target_max_slots = args->crsa_target_max_slots;
588         nfs41_handle_recall_slot(cps->clp);
589 out:
590         dprintk("%s: exit with status = %d\n", __func__, ntohl(status));
591         return status;
592 }
593 #endif /* CONFIG_NFS_V4_1 */