<div dir="ltr">Hello,<div><br></div><div>For any system, 36 disks raise disk failure probability. Do you plan GlusterFS with only one server?</div><div><br></div><div>You should think about failure at each level and be prepared for it:</div><div><ul><li>Motherboard failure (full server down)</li><li>Disks failure</li><li>Network cable failure <br></li><li>File system corruption (time needed for fsck)</li><li>File/folder removed by mistake (backup)</li></ul><div>Using or not raid depend on your answer on these questions and performance needed. </div><div>It also depend how &quot;good&quot; is raid controller in your server, like if it has battery and 1GB of cache.</div></div><div><br></div><div>When many disks are bought at same time (1 order, serial number close to each other), they may fail in near time to each other (if something bad happened in manufactory).</div><div>I already saw like 3 disks failing in few days.</div><div><br></div><div>just my 2 cents,</div><div><br></div><div><br></div></div><div class="gmail_extra"><br clear="all"><div><div class="gmail_signature">Cordialement,<br>Mathieu CHATEAU<br><a href="http://www.lotp.fr" target="_blank">http://www.lotp.fr</a></div></div>
<br><div class="gmail_quote">2016-01-12 4:36 GMT+01:00 Pranith Kumar Karampuri <span dir="ltr">&lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
  
    
  
  <div bgcolor="#FFFFFF" text="#000000"><span class="">
    <br>
    <br>
    <div>On 01/12/2016 04:34 AM, Pawan Devaiah
      wrote:<br>
    </div>
    <blockquote type="cite">
      <div dir="ltr">Hi All,
        <div><br>
        </div>
        <div>We have a fairly powerful server sitting at office with 128
          Gig RAM and 36 X 4 TB drives. I am planning to utilize this
          server as a backend storage with GlusterFS on it.</div>
        <div>I have been doing lot of reading on Glusterfs, but I do not
          see any definite recommendation on having RAID on GLUSTER
          nodes.</div>
        <div>Is it recommended to have RAID on GLUSTER nodes specially
          for the bricks?</div>
        <div>If Yes, is it not contrary to the latest Erasure code
          implemented in Gluster or is it still not ready for production
          environment?</div>
        <div>I am happy to implement RAID but my two main concern are</div>
        <div>1. I want to make most of the disk space available.</div>
        <div>2. I am also concerned about the rebuild time after disk
          failure on the RAID.</div>
      </div>
    </blockquote></span>
    What is the workload you have?<br>
    <br>
    We found in our testing that random read/write workload with Erasure
    coded volumes is not as good as we get with replication. There are
    enhancements in progress at the moment to address these things which
    we are yet to merge and re-test.<br>
    <br>
    Pranith<br>
    <blockquote type="cite">
      <div dir="ltr">
        <div><br>
        </div>
        <div>Thanks</div>
        <div>Dev</div>
        <div><br>
        </div>
        <div><br>
        </div>
      </div>
      <br>
      <fieldset></fieldset>
      <br>
      <pre>_______________________________________________
Gluster-users mailing list
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a></pre>
    </blockquote>
    <br>
  </div>

<br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div>