<div dir="ltr">Hi Sasant,<div> We have created the disperse volume across nodes. We stopped all the upload operations and started the rebalance last night.After overnight re-balance, some harddisk is occupied 100%  and some disks have 13% disk space. </div><div><br></div><div>disk1 belongs to disperse-set-0  ..... disk36 belongs to disperse-set-35</div><div><br></div><div>df -h result of one data node</div><div><br></div><div><div><b>/dev/sdb1       3.7T  3.7T  545M 100% /media/disk1</b></div><div>/dev/sdc1       3.7T  3.2T  496G  <b>87% /media/disk2</b></div><div>/dev/sdd1       3.7T  3.7T   30G 100% /media/disk3</div><div>/dev/sde1       3.7T  3.5T  173G  96% /media/disk4</div><div>/dev/sdf1       3.7T  3.2T  458G  88% /media/disk5</div><div>/dev/sdg1       3.7T  3.5T  143G  97% /media/disk6</div><div>/dev/sdh1       3.7T  3.5T  220G  95% /media/disk7</div><div>/dev/sdi1       3.7T  3.3T  415G  89% /media/disk8</div><div>/dev/sdj1       3.7T  3.6T   72G  99% /media/disk9</div><div>/dev/sdk1       3.7T  3.5T  186G  96% /media/disk10</div><div>/dev/sdl1       3.7T  3.6T   65G  99% /media/disk11</div><div>/dev/sdm1       3.7T  3.5T  195G  95% /media/disk12</div><div>/dev/sdn1       3.7T  3.5T  199G  95% /media/disk13</div><div>/dev/sdo1       3.7T  3.6T   78G  98% /media/disk14</div><div>/dev/sdp1       3.7T  3.5T  200G  95% /media/disk15</div><div>/dev/sdq1       3.7T  3.6T  119G  97% /media/disk16</div><div>/dev/sdr1       3.7T  3.5T  206G  95% /media/disk17</div><div>/dev/sds1       3.7T  3.5T  193G  95% /media/disk18</div><div>/dev/sdt1       3.7T  3.6T  131G  97% /media/disk19</div><div>/dev/sdu1       3.7T  3.5T  141G  97% /media/disk20</div><div>/dev/sdv1       3.7T  3.5T  243G  94% /media/disk21</div><div>/dev/sdw1       3.7T  3.4T  299G  92% /media/disk22</div><div>/dev/sdx1       3.7T  3.5T  163G  96% /media/disk23</div><div>/dev/sdy1       3.7T  3.5T  168G  96% /media/disk24</div><div>/dev/sdz1       3.7T  3.5T  219G  95% /media/disk25</div><div><b>/dev/sdaa1      3.7T  3.7T   37G 100% /media/disk26</b></div><div>/dev/sdab1      3.7T  3.5T  172G  96% /media/disk27</div><div>/dev/sdac1      3.7T  3.4T  276G  93% /media/disk28</div><div>/dev/sdad1      3.7T  3.6T  108G  98% /media/disk29</div><div>/dev/sdae1      3.7T  3.3T  399G  90% /media/disk30</div><div>/dev/sdaf1      3.7T  3.5T  240G  94% /media/disk31</div><div>/dev/sdag1      3.7T  3.6T  122G  97% /media/disk32</div><div>/dev/sdah1      3.7T  3.5T  147G  97% /media/disk33</div><div>/dev/sdai1      3.7T  3.4T  342G  91% /media/disk34</div><div>/dev/sdaj1      3.7T  3.4T  288G  93% /media/disk35</div><div>/dev/sdak1      3.7T  3.4T  342G  91% /media/disk36</div><div><br></div><div><b>disk1 belongs to disperse-set-0.</b> Rebalancer logs shows, still rebalancer is trying to fill the disperse-set-0 after filling to 100%</div></div><div><br></div><div><div><div>[2015-08-24 19:52:53.036622] E [MSGID: 109023] [dht-rebalance.c:672:__dht_check_free_space] 0-glustertest-dht: data movement attempted from node (glustertest-disperse-7) to node <b>(glustertest-disperse-0) which does not have required free space</b> for (/Packages/Features/MPEG/A/AMEO-N-CHALLANGE_FTR_S_BEN-XX_IN-UA_51_HD_RIC_OV/AMEO-N-CHALLANGE_FTR_S_BEN-XX_IN-UA_51_HD_20110521_RIC_OV/AMI-NEBO-C_R3_AUDIO_190511.mxf)</div><div><br></div><div>[2015-08-24 19:52:53.042026] I [dht-rebalance.c:1002:dht_migrate_file] 0-glustertest-dht: /Packages/Features/MPEG/A/AMEO-N-CHALLANGE_FTR_S_BEN-XX_IN-UA_51_HD_RIC_OV/AMEO-N-CHALLANGE_FTR_S_BEN-XX_IN-UA_51_HD_20110521_RIC_OV/AMINEBO-CHALLANGE_BEN_R1-2-3-4-5-6_MPEG_200511-reel-5-mpeg2.mxf: attempting to move from glustertest-disperse-13 to glustertest-disperse-0</div></div></div><div><br></div><div>I think, <font size="4">cluster.weighted-rebalance and cluster.min-free-dis</font><font size="4">k</font> have bugs for re-balancing the data, based on weight and disk free space.</div><div><br></div><div>Thanks</div><div>Backer</div><div><br></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Aug 24, 2015 at 4:28 PM, Mohamed Pakkeer <span dir="ltr">&lt;<a href="mailto:mdfakkeer@gmail.com" target="_blank">mdfakkeer@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi Susant,<div><br></div><div>   Thanks for your quick reply. We are not updating any files. Actually we are archiving video files on this cluster. I think there is a bug in cluster.min-free-disk.</div><div><br></div><div>Also i would like to know about rebalance the cluster. Currently we have 20 nodes and 10 nodes hard disks are almost full . So we need to rebalance the data. If i run the rebalancer, it starts on first node(node1)  and starts the migration process. The first node cpu usage is always high during rebalance compare with rest of the cluster nodes.To reduce the cpu usage of rebalancer  datanode( node1), i peer a new node( without disk) for rebalance and start the rebalancer. It starts again the rebalancer on same node1. How can we run a rebalancer on a dedicated node?</div><div><br></div><div>Also we are facing memory leaks in fixlayout and heal full operations.</div><div><br></div><div>Regards</div><div>Backer</div></div><div class="gmail_extra"><div><div class="h5"><br><div class="gmail_quote">On Mon, Aug 24, 2015 at 2:57 PM, Susant Palai <span dir="ltr">&lt;<a href="mailto:spalai@redhat.com" target="_blank">spalai@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
  Cluster.min-free-disk controls new file creation on the bricks. If you happen to write to the existing files on the brick and that is leading to brick getting full, then most probably you should run a rebalance.<br>
<br>
Regards,<br>
Susant<br>
<div><div><br>
----- Original Message -----<br>
From: &quot;Mathieu Chateau&quot; &lt;<a href="mailto:mathieu.chateau@lotp.fr" target="_blank">mathieu.chateau@lotp.fr</a>&gt;<br>
To: &quot;Mohamed Pakkeer&quot; &lt;<a href="mailto:mdfakkeer@gmail.com" target="_blank">mdfakkeer@gmail.com</a>&gt;<br>
Cc: &quot;gluster-users&quot; &lt;<a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.org</a>&gt;, &quot;Gluster Devel&quot; &lt;<a href="mailto:gluster-devel@gluster.org" target="_blank">gluster-devel@gluster.org</a>&gt;<br>
Sent: Monday, 24 August, 2015 2:47:00 PM<br>
Subject: Re: [Gluster-users] cluster.min-free-disk is not working in distributed disperse volume<br>
<br>
<br>
<br>
<br>
720 brick! Respect !<br>
Le 24 août 2015 09:48, &quot;Mohamed Pakkeer&quot; &lt; <a href="mailto:mdfakkeer@gmail.com" target="_blank">mdfakkeer@gmail.com</a> &gt; a écrit :<br>
<br>
<br>
<br>
Hi,<br>
<br>
<br>
I have a cluster of 720 bricks, all bricks are 4TB in size. I have change the cluster.min-free-disk default value 10% to 3%. So all the disks should have 3% minimum disk space free. But some cluster disks are getting full now. Is there any additional configuration for keeping some percentage of disk space kept free?<br>
<br>
<br>
<br>
<br>
<br>
Volume Name: glustertest<br>
Type: Distributed-Disperse<br>
Volume ID: 2b575b5c-df2e-449c-abb9-c56cec27e609<br>
Status: Started<br>
Number of Bricks: 72 x (8 + 2) = 720<br>
Transport-type: tcp<br>
<br>
<br>
<br>
<br>
<br>
Options Reconfigured:<br>
features.default-soft-limit: 95%<br>
cluster.min-free-disk: 3%<br>
performance.readdir-ahead: on<br>
<br>
<br>
df -h of one node<br>
<br>
<br>
<br>
/dev/sdb1 3.7T 3.6T 132G 97% /media/disk1<br>
/dev/sdc1 3.7T 3.2T 479G 88% /media/disk2<br>
/dev/sdd1 3.7T 3.6T 109G 98% /media/disk3<br>
<br>
<br>
Any help will be greatly appreciated.<br>
<br>
<br>
<br>
<br>
Regards<br>
Backer<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div></div></div></div></blockquote></div><div class="gmail_signature"><br></div>
</div></div>