<div dir="ltr"><div>I set uo a dispersed volume with 1 x (3 + 1) nodes ( i do know that 3+1 is not optimal).</div><div>Originally created in version 3.7 but recently upgraded without issue to 3.8.</div><div><br></div><div># gluster vol info</div>Volume Name: rvol<br>Type: Disperse<br>Volume ID: e8f15248-d9de-458e-9896-<wbr>f1a5782dcf74<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x (3 + 1) = 4<br>Transport-type: tcp<br>Bricks:<br>Brick1: calliope:/brick/p1<br>Brick2: euterpe:/brick/p1<br>Brick3: lemans:/brick/p1<br>Brick4: thalia:/brick/p1<br>Options Reconfigured:<br>performance.readdir-ahead: on<br>nfs.disable: off<div><br></div><div>I inadvertently allowed one of the nodes (thalia) to be reinstalled; which overwrote the system, but not the brick, and I need guidance in getting it back into the volume.</div><div><br></div><div>(on lemans)</div>gluster peer status<br>Number of Peers: 3<br><br>Hostname: calliope<br>Uuid: 72373eb1-8047-405a-a094-<wbr>891e559755da<br>State: Peer in Cluster (Connected)<br><br>Hostname: euterpe<br>Uuid: 9fafa5c4-1541-4aa0-9ea2-<wbr>923a756cadbb<br>State: Peer in Cluster (Connected)<br><br>Hostname: thalia<br>Uuid: 843169fa-3937-42de-8fda-<wbr>9819efc75fe8<br>State: Peer Rejected (Connected)<div><br></div><div>the thalia peer is rejected. If I try to peer probe thalia I am told it already part of the pool. If from thalia, I try to peer probe one of the others, I am told that they are already part of another pool.</div><div><br></div><div>I have tried removing the thalia brick with</div><div>gluster vol remove-brick rvol thalia:/brick/p1 start</div><div>but get the error</div>volume remove-brick start: failed: Remove brick incorrect brick count of 1 for disperse 4<div><br><div>I am not finding much guidance for this particular situation. I could use a suggestion on how to recover. It&#39;s a lab situation so no biggie if I lose it.</div><div>Cheers</div><div><br></div><div>Tony Schreiner</div></div></div>