<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Sep 16, 2016 at 10:23 PM, Gandalf Corvotempesta <span dir="ltr">&lt;<a href="mailto:gandalf.corvotempesta@gmail.com" target="_blank">gandalf.corvotempesta@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Next year i&#39;ll start with our first production cluster.<br>
I&#39;ll put on that many VMs images (XenServer, ProxMox, ...).<br>
<br>
Currently I have 3 SuperMicro 6028R-E1CR12T to be used as storage nodes.<br>
<br>
I&#39;ll put 2 more 10GbT cards on each.<br>
<br>
Primary goal is to have MAXIMUM data redundancy and protection.<br>
we can live with not top-notch performances but data protection must<br>
be assured all the time in all conditions.<br></blockquote><div><br></div><div>Are you willing to take VM snapshots at the right times?<br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Some questions:<br>
1) should I create any raid on each server? If yes, which level and how many?<br>
 - 4 RAID-5 with 3 disks each ? With this i&#39;ll create 4 bricks on each server<br>
 - 6 RAID-1 with 2 disks each ? With this i&#39;ll create 6 bricks on each<br>
server (but space wasted is too high)<br>
 - 2 RAID-6 with 6 disks each? With this i&#39;ll create 2 bricks on each server<br>
<br>
2) Should I use standard replication (replicate 3) or EC ?<br></blockquote><div><br></div><div>Please don&#39;t use EC for Random write workload, it is better for extending write workload at the moment. Replica 3/Arbiter is what I would suggest.<br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
3) Our servers has 2 SSD in the back. Can I use this as tiering ? <br></blockquote><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
4) Our servers has 1 SSD inside (not hotplug) for the OS. What would<br>
happens in case of a crash of this SSD ? Is gluster able to recover<br>
the whole failed node ?<br>
______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
</blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">Pranith<br></div></div>
</div></div>