<div dir="ltr">Also, if there is a cleaner way of doing this by removing and adding the node again through gluster commands that would be preferable. </div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Jul 30, 2015 at 1:58 AM, Prasun Gera <span dir="ltr">&lt;<a href="mailto:prasun.gera@gmail.com" target="_blank">prasun.gera@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi,<div>One of my nodes in an RHS 3.0 3x2 dist+replicated pool is down and not likely to recover. The machine doesn&#39;t have IPMI and I have limited access. Standard steps to recover it didn&#39;t work, and at this point the easiest option seems to get help in reinstalling the OS. I believe that the brick and other config files are intact. From RHS documentation on upgrading from an ISO, this is what I got:</div><div><br></div><div>1. Backup (/var/lib/glusterd, /etc/swift, /etc/samba, /etc/ctdb, /etc/glusterfs. /var/lib/samba, /var/lib/ctdb) . Backup entire /etc for selective restoration.</div><div><br></div><div>2. Stop the volume and all services everywhere. Install the OS on the affected node without touching the brick. Stop glusterd on this node too. </div><div><br></div><div>3. Backup /var/lib/glusterd from the newly installed OS.</div><div><br></div><div>4. Copy back /var/lib/glusterd and /etc/glusterfs from step 1. to the newly installed OS.</div><div><br></div><div>5. Copy back the latest hooks scripts (from step 3) to /var/lib/glusterd/hooks. This is probably not required since the steps were written for an upgrade whereas my version is the same. Right ?</div><div><br></div><div>6. glusterd --xlator-option *.upgrade=yes -N. Is this needed in my case ? It&#39;s not an upgrade.</div><div><br></div><div>7. Restart services and volume.</div><div><br></div><div>Do these steps sound all right ? Should I also restore /etc/nagios ? Or would nagios have to be reconfigured for the entire cluster ?</div><div><br></div><div><br></div><div>The reason for this failure was a botched kernel upgrade and a combination of some other factors which i&#39;m not sure yet. And I wasn&#39;t able to generate working initramfs using dracut in recovery. Interestingly, I noticed the following line in the new RHS 3.1 documentation. &quot;If dracut packages are previously installed, then exclude the dracut packages while updating to Red Hat Gluster Storage 3.1 during offline ISO update using the following command:</div><div># yum update -x dracut -x dracut-kernel&quot; . Is there some sort of a known issue ?</div></div>
</blockquote></div><br></div>