<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Dec 6, 2016 at 10:08 PM, Miloš Čučulović - MDPI <span dir="ltr">&lt;<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Dear All,<br>
<br>
I have two servers, storage and storage2.<br>
The storage2 had a volume called storage.<br>
I then decided to add a replica brick (storage).<br>
<br>
I did this in the following way:<br>
<br>
1. sudo gluster peer probe storage (on storage server2)<br>
2. sudo gluster volume add-brick storage replica 2 storage:/data/data-cluster<br>
<br>
Then I was getting the following error:<br>
volume add-brick: failed: Operation failed<br>
<br>
But, it seems the brick was somehow added, as when checking on storage2:<br>
sudo gluster volume info storage<br>
I am getting:<br>
Status: Started<br>
Number of Bricks: 1 x 2 = 2<br>
Transport-type: tcp<br>
Bricks:<br>
Brick1: storage2:/data/data-cluster<br>
Brick2: storage:/data/data-cluster<br></blockquote><div></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
So, seems ok here, however, when doing:<br>
sudo gluster volume heal storage info<br>
I am getting:<br>
Volume storage is not of type replicate/disperse<br>
Volume heal failed.<br>
<br>
<br>
Also, when doing<br>
sudo gluster volume status all<br>
<br>
I am getting:<br>
Status of volume: storage<br>
Gluster process                       TCP Port  RDMA Port  Online  Pid<br>
------------------------------<wbr>------------------------------<wbr>------------------<br>
Brick storage2:/data/data-cluster    49152     0          Y       2160<br>
Brick storage:/data/data-cluster     N/A       N/A        N       N/A<br>
Self-heal Daemon on localhost        N/A       N/A        Y       7906<br>
Self-heal Daemon on storage          N/A       N/A        N       N/A<br>
<br>
Task Status of Volume storage<br>
------------------------------<wbr>------------------------------<wbr>------------------<br>
<br>
Any idea please?<br></blockquote><div><br></div><div></div><div>It looks like the brick didn&#39;t come up during an add-brick. Could you share cmd_history, glusterd and the new brick log file from both the nodes? As a workaround, could you try &#39;gluster volume start storage force&#39; and see if the issue persists?<br><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
<br>
-- <br>
- Kindest regards,<br>
<br>
Milos Cuculovic<br>
IT Manager<br>
<br>
---<br>
MDPI AG<br>
Postfach, CH-4020 Basel, Switzerland<br>
Office: St. Alban-Anlage 66, 4052 Basel, Switzerland<br>
Tel. +41 61 683 77 35<br>
Fax +41 61 302 89 18<br>
Email: <a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a><br>
Skype: milos.cuculovic.mdpi<br>
______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman<wbr>/listinfo/gluster-users</a><br>
</blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><br></div><div>~ Atin (atinm)<br></div></div></div></div>
</div></div>