ceph: fix cap flush race reentrancy
authorSage Weil <sage@newdream.net>
Tue, 24 May 2011 18:46:31 +0000 (11:46 -0700)
committerSage Weil <sage@newdream.net>
Tue, 24 May 2011 18:52:12 +0000 (11:52 -0700)
commitdb3540522e955c1ebb391f4f5324dff4f20ecd09
tree8c25b07caa8614345c71f09e8872e60b68af4c31
parentcd634fb6eec72ef8e6dd677546b8d0ffdd2501eb
ceph: fix cap flush race reentrancy

In e9964c10 we change cap flushing to do a delicate dance because some
inodes on the cap_dirty list could be in a migrating state (got EXPORT but
not IMPORT) in which we couldn't actually flush and move from
dirty->flushing, breaking the while (!empty) { process first } loop
structure.  It worked for a single sync thread, but was not reentrant and
triggered infinite loops when multiple syncers came along.

Instead, move inodes with dirty to a separate cap_dirty_migrating list
when in the limbo export-but-no-import state, allowing us to go back to
the simple loop structure (which was reentrant).  This is cleaner and more
robust.

Audited the cap_dirty users and this looks fine:
list_empty(&ci->i_dirty_item) is still a reliable indicator of whether we
have dirty caps (which list we're on is irrelevant) and list_del_init()
calls still do the right thing.

Signed-off-by: Sage Weil <sage@newdream.net>
fs/ceph/caps.c
fs/ceph/mds_client.c
fs/ceph/mds_client.h