<div dir="auto"><div><div class="gmail_extra"><div class="gmail_quote">Il 05 gen 2017 6:33 PM, &quot;Joe Julian&quot; &lt;<a href="mailto:joe@julianfamily.org">joe@julianfamily.org</a>&gt; ha scritto:<blockquote class="quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div bgcolor="#FFFFFF" text="#000000">
    That&#39;s still not without it&#39;s drawbacks, though I&#39;m sure my instance
    is pretty rare. Ceph&#39;s automatic migration of data caused a
    cascading failure and a complete loss of 580Tb of data due to a
    hardware bug. If it had been on gluster, none of it would have been
    lost.</div></blockquote></div></div></div><div dir="auto"><br></div><div dir="auto">I&#39;m not talking only about automatic rebalance but mostly about ability to add a single brick/server to a replica 3 volume</div><div dir="auto"><br></div><div dir="auto">Anyway,  could you please share more details about the experience you had wiith ceph and about what you mean with hardware bug?</div><div dir="auto"></div></div>