md/raid5: fix long-standing problem with bitmap handling on write failure.
authorNeilBrown <neilb@suse.de>
Wed, 15 Jan 2014 22:35:38 +0000 (09:35 +1100)
committerBen Hutchings <ben@decadent.org.uk>
Tue, 1 Apr 2014 23:58:43 +0000 (00:58 +0100)
commitadce73dfdacf706d8e3c389518ff24464965e4f1
tree02073a957745d4351748c1bde7cd4db3155486ac
parent7a9175abf3816d07fc8b87d74f3b4e4f19728f69
md/raid5: fix long-standing problem with bitmap handling on write failure.

commit 9f97e4b128d2ea90a5f5063ea0ee3b0911f4c669 upstream.

Before a write starts we set a bit in the write-intent bitmap.
When the write completes we clear that bit if the write was successful
to all devices.  However if the write wasn't fully successful we
should not clear the bit.  If the faulty drive is subsequently
re-added, the fact that the bit is still set ensure that we will
re-write the data that is missing.

This logic is mediated by the STRIPE_DEGRADED flag - we only clear the
bitmap bit when this flag is not set.
Currently we correctly set the flag if a write starts when some
devices are failed or missing.  But we do *not* set the flag if some
device failed during the write attempt.
This is wrong and can result in clearing the bit inappropriately.

So: set the flag when a write fails.

This bug has been present since bitmaps were introduces, so the fix is
suitable for any -stable kernel.

Reported-by: Ethan Wilson <ethan.wilson@shiftmail.org>
Signed-off-by: NeilBrown <neilb@suse.de>
[bwh: Backported to 3.2: adjust context, indentation]
Signed-off-by: Ben Hutchings <ben@decadent.org.uk>
drivers/md/raid5.c