<div dir="ltr"><div><div><div><div><div><div><div><br></div>Hello Kevin,<br><br></div>I think you can&#39;t rebalance because you are not using a distributed gluster, you are using replicated gluster instead, I had a similar problem some time ago, and It is supposed that gluster self-heal will sync the replicas.<br><br>You can trigger the heal with: <br><br><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote">gluster volume heal nmd full<br></blockquote></div><div><br></div>Anyway after reading and googling a lot one member told me that we could resync fast if you do <br><br><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote">find -exec stat {} \;<br></blockquote><br></div>on a mounted client. This solution wasn&#39;t the ideal but started to resync faster than heal-self. Still slow 5MB/s but better than nothing.<br><br></div>I am starting with glusterfs too, but I am sure someone could help you better than me.<br><br></div>Kind regards.<br><br></div>Curro Rodríguez.<br><div><div><div><br><div><div><div><div><div><div><div class="gmail_extra"><div class="gmail_quote">On Fri, Jul 17, 2015 at 4:15 PM, Kevin Bridges <span dir="ltr">&lt;<a href="mailto:kevin@cyberswat.com" target="_blank">kevin@cyberswat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div>I lost one of my bricks and attempted to rebuild it.  I did not understand what I was doing and created a mess.  I&#39;m looking for guidance so that I don&#39;t create a bigger mess.<br><br>I believe that the gluster mount is relatively simple.  It&#39;s a 2 brick replicated volume (gluster01 &amp; gluster02).  I lost gluster02 and attempted to replace it.  Now that it is replaced, the files do not seem to match what is on the brick that I did not loose.  I would like to repair these bricks and then add more storage capacity to the volume.<br><br>Below is the output of the `df -h`, `gluster peer status`, and `gluster volume info` for each of the servers.  I&#39;m concerned by the `gluster peer status` and `gluster volume rebalance nmd status` commands.<br><br>Any help is vastly appreciated.<br><br>glusterfs 3.7.2 built on Jun 23 2015 12:13:13<br><br>[root@gluster01 /]# df -h<br>Filesystem      Size  Used Avail Use% Mounted on<br>/dev/xvde       7.9G  2.3G  5.3G  30% /<br>tmpfs           3.7G     0  3.7G   0% /dev/shm<br>/dev/xvdf1       63G   38G   23G  62% /srv/sdb1<br>[root@gluster01 /]# gluster peer status<br>Number of Peers: 1<br><br>Hostname: 10.0.2.85<br>Uuid: 5f75bd77-0faf-4fb8-9819-83326c4f77f7<br>State: Peer in Cluster (Connected)<br>Other names:<br><a href="http://gluster02.newmediadenver.com" target="_blank">gluster02.newmediadenver.com</a><br>[root@gluster01 /]# gluster volume info all<br><br>Volume Name: nmd<br>Type: Replicate<br>Volume ID: 62bec597-b479-4bfd-88dc-44f5bb88d737<br>Status: Started<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: gluster01.newmediadenver.com:/srv/sdb1/nmd<br>Brick2: gluster02.newmediadenver.com:/srv/sdb1/nmd<br>Options Reconfigured:<br>performance.readdir-ahead: on<br>[root@gluster01 /]# gluster volume info nmd<br><br>Volume Name: nmd<br>Type: Replicate<br>Volume ID: 62bec597-b479-4bfd-88dc-44f5bb88d737<br>Status: Started<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: gluster01.newmediadenver.com:/srv/sdb1/nmd<br>Brick2: gluster02.newmediadenver.com:/srv/sdb1/nmd<br>Options Reconfigured:<br>performance.readdir-ahead: on<br>[root@gluster01 /]# gluster volume rebalance nmd status<br>volume rebalance: nmd: failed: Volume nmd is not a distribute volume or contains only 1 brick.<br>Not performing rebalance<br><br>[root@gluster02 /]# df -h<br>Filesystem      Size  Used Avail Use% Mounted on<br>/dev/xvde       7.9G  2.5G  5.1G  33% /<br>tmpfs           3.7G     0  3.7G   0% /dev/shm<br>/dev/xvdh1       63G   30G   31G  50% /srv/sdb1<br>[root@gluster02 /]# gluster peer status<br>Number of Peers: 1<br><br>Hostname: <a href="http://gluster01.newmediadenver.com" target="_blank">gluster01.newmediadenver.com</a><br>Uuid: afb3e1c3-de9e-4c06-ba5c-5551b1d7030e<br>State: Peer in Cluster (Connected)<br>[root@gluster02 /]# gluster volume info all<br><br>Volume Name: nmd<br>Type: Replicate<br>Volume ID: 62bec597-b479-4bfd-88dc-44f5bb88d737<br>Status: Started<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: gluster01.newmediadenver.com:/srv/sdb1/nmd<br>Brick2: gluster02.newmediadenver.com:/srv/sdb1/nmd<br>Options Reconfigured:<br>performance.readdir-ahead: on<br>[root@gluster02 /]# gluster volume info nmd<br><br>Volume Name: nmd<br>Type: Replicate<br>Volume ID: 62bec597-b479-4bfd-88dc-44f5bb88d737<br>Status: Started<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: gluster01.newmediadenver.com:/srv/sdb1/nmd<br>Brick2: gluster02.newmediadenver.com:/srv/sdb1/nmd<br>Options Reconfigured:<br>performance.readdir-ahead: on<br>[root@gluster02 /]# gluster volume rebalance nmd status<br>volume rebalance: nmd: failed: Volume nmd is not a distribute volume or contains only 1 brick.<br>Not performing rebalance<br><br></div>Thanks,<br></div>Kevin Bridges<br></div>
<br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div></div></div></div></div></div></div></div></div></div></div>