<div dir="ltr">No one has any suggestions?  Would this scenario I have been toying with work:  remove the brick from the node with the out of sync snapshots, destroy all associated logical volumes, and  then add the brick back as an arbiter node?<br><br></div><div class="gmail_extra"><br><div class="gmail_quote">On 1 June 2016 at 13:40, Alastair Neil <span dir="ltr">&lt;<a href="mailto:ajneil.tech@gmail.com" target="_blank">ajneil.tech@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">I have a replica 3 volume that has snapshot scheduled using snap_scheduler.py<div><br></div><div>I recently tried to remove a snapshot and the command failed on one node:</div><div><br></div><div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex">snapshot delete: failed: Commit failed on <a href="http://gluster0.vsnet.gmu.edu" target="_blank">gluster0.vsnet.gmu.edu</a>. Please check log file for details.<br>Snapshot command failed</blockquote></div><div><br></div><div>How do I recover from this failure.  Clearly I need to remove the snapshot from the offending server but this does not seem possible as the snapshot no longer exists on the other two nodes.</div><div>Suggestions welcome.</div><span class="HOEnZb"><font color="#888888"><div><br></div><div>-Alastair</div><div><br></div><div><br></div></font></span></div>
</blockquote></div><br></div>