<p dir="ltr"></p>
<p dir="ltr">Sent from one plus one<br>
On Jun 20, 2015 6:03 PM, &quot;David Roundy&quot; &lt;<a href="mailto:roundyd@physics.oregonstate.edu">roundyd@physics.oregonstate.edu</a>&gt; wrote:<br>
&gt;<br>
&gt; Here are gluster peer status on the four nodes.  The fifth peer is my laptop (10.214.70.62), which I have peer probed, but not done anything else with.  The other news is that I have (since emailing yesterday) rebooted most of the nodes, which fixed the &quot;missing files&quot; problem.  Before doing this, I noticed that not all peers agreed in their peer status.  Shouldn&#39;t peer status of all-connected on one node mean that they are all connected?<br>
All nodes should have showed as connected. I would need all the glusterd and cmd history log files to analyze it.<br>
&gt;<br>
&gt; wentworth:~# gluster peer status<br>
&gt; Number of Peers: 4<br>
&gt;<br>
&gt; Hostname: <a href="http://bennet.physics.oregonstate.edu">bennet.physics.oregonstate.edu</a><br>
&gt; Uuid: 15dcda25-8043-4243-bbdc-168a73c91bcc<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt; Other names:<br>
&gt; 128.193.96.83<br>
&gt;<br>
&gt; Hostname: <a href="http://knightley.physics.oregonstate.edu">knightley.physics.oregonstate.edu</a><br>
&gt; Uuid: 9f61673a-7215-4f07-9e75-4ed3dbeaff7e<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt;<br>
&gt; Hostname: 10.214.70.62<br>
&gt; Uuid: 7bdfc78b-82a9-45a3-94fd-a1f14c04a8ff<br>
&gt; State: Peer in Cluster (Disconnected)<br>
&gt;<br>
&gt; Hostname: 128.193.96.93<br>
&gt; Uuid: 1b436ed4-44c9-414b-9cc6-74a38d97d66e<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt; Other names:<br>
&gt; <a href="http://elliot.physics.oregonstate.edu">elliot.physics.oregonstate.edu</a><br>
&gt;<br>
&gt; elliot:~# gluster peer status<br>
&gt; Number of Peers: 4<br>
&gt;<br>
&gt; Hostname: <a href="http://bennet.physics.oregonstate.edu">bennet.physics.oregonstate.edu</a><br>
&gt; Uuid: 15dcda25-8043-4243-bbdc-168a73c91bcc<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt; Other names:<br>
&gt; 128.193.96.83<br>
&gt;<br>
&gt; Hostname: <a href="http://knightley.physics.oregonstate.edu">knightley.physics.oregonstate.edu</a><br>
&gt; Uuid: 9f61673a-7215-4f07-9e75-4ed3dbeaff7e<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt;<br>
&gt; Hostname: 10.214.70.62<br>
&gt; Uuid: 7bdfc78b-82a9-45a3-94fd-a1f14c04a8ff<br>
&gt; State: Peer in Cluster (Disconnected)<br>
&gt;<br>
&gt; Hostname: <a href="http://wentworth.physics.oregonstate.edu">wentworth.physics.oregonstate.edu</a><br>
&gt; Uuid: 6f463d9d-c32e-4973-bbc5-06b782678ee7<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt;<br>
&gt; knightley:~# gluster peer status<br>
&gt; Number of Peers: 4<br>
&gt;<br>
&gt; Hostname: 10.214.70.62<br>
&gt; Uuid: 7bdfc78b-82a9-45a3-94fd-a1f14c04a8ff<br>
&gt; State: Peer in Cluster (Disconnected)<br>
&gt;<br>
&gt; Hostname: <a href="http://wentworth.physics.oregonstate.edu">wentworth.physics.oregonstate.edu</a><br>
&gt; Uuid: 6f463d9d-c32e-4973-bbc5-06b782678ee7<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt;<br>
&gt; Hostname: 128.193.96.93<br>
&gt; Uuid: 1b436ed4-44c9-414b-9cc6-74a38d97d66e<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt; Other names:<br>
&gt; <a href="http://elliot.physics.oregonstate.edu">elliot.physics.oregonstate.edu</a><br>
&gt;<br>
&gt; Hostname: <a href="http://bennet.physics.oregonstate.edu">bennet.physics.oregonstate.edu</a><br>
&gt; Uuid: 15dcda25-8043-4243-bbdc-168a73c91bcc<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt; Other names:<br>
&gt; 128.193.96.83<br>
&gt;<br>
&gt;<br>
&gt; bennet:~# gluster peer status<br>
&gt; Number of Peers: 4<br>
&gt;<br>
&gt; Hostname: <a href="http://knightley.physics.oregonstate.edu">knightley.physics.oregonstate.edu</a><br>
&gt; Uuid: 9f61673a-7215-4f07-9e75-4ed3dbeaff7e<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt;<br>
&gt; Hostname: 128.193.96.93<br>
&gt; Uuid: 1b436ed4-44c9-414b-9cc6-74a38d97d66e<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt; Other names:<br>
&gt; <a href="http://elliot.physics.oregonstate.edu">elliot.physics.oregonstate.edu</a><br>
&gt;<br>
&gt; Hostname: <a href="http://wentworth.physics.oregonstate.edu">wentworth.physics.oregonstate.edu</a><br>
&gt; Uuid: 6f463d9d-c32e-4973-bbc5-06b782678ee7<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt;<br>
&gt; Hostname: 10.214.70.62<br>
&gt; Uuid: 7bdfc78b-82a9-45a3-94fd-a1f14c04a8ff<br>
&gt; State: Peer in Cluster (Disconnected)<br>
&gt;<br>
&gt; wentworth:~# gluster volume status<br>
&gt; Status of volume: austen<br>
&gt; Gluster process Port Online Pid<br>
&gt; ------------------------------------------------------------------------------<br>
&gt; Brick elliot.physics.oregonstate.edu:/srv/brick 49152 Y 2272<br>
&gt; Brick wentworth.physics.oregonstate.edu:/srv/brick 49152 Y 1566<br>
&gt; Brick bennet:/srv/brick 49152 Y 1516<br>
&gt; Brick knightley:/srv/brick 49152 Y 2153<br>
&gt; NFS Server on localhost 2049 Y 1568<br>
&gt; Self-heal Daemon on localhost N/A Y 1570<br>
&gt; NFS Server on <a href="http://bennet.physics.oregonstate.edu">bennet.physics.oregonstate.edu</a> 2049 Y 1523<br>
&gt; Self-heal Daemon on <a href="http://bennet.physics.oregonstate.edu">bennet.physics.oregonstate.edu</a> N/A Y 1528<br>
&gt; NFS Server on 128.193.96.93 2049 Y 2279<br>
&gt; Self-heal Daemon on 128.193.96.93 N/A Y 2286<br>
&gt; NFS Server on <a href="http://knightley.physics.oregonstate.edu">knightley.physics.oregonstate.edu</a> 2049 Y 2160<br>
&gt; Self-heal Daemon on <a href="http://knightley.physics.oregonstate.edu">knightley.physics.oregonstate.edu</a> N/A Y 2165<br>
&gt;  <br>
&gt; Task Status of Volume austen<br>
&gt; ------------------------------------------------------------------------------<br>
&gt; There are no active volume tasks<br>
&gt;<br>
&gt;<br>
&gt; wentworth:~# gluster --version<br>
&gt; glusterfs 3.6.3 built on May 19 2015 19:27:14<br>
&gt; Repository revision: git://<a href="http://git.gluster.com/glusterfs.git">git.gluster.com/glusterfs.git</a><br>
&gt; Copyright (c) 2006-2011 Gluster Inc. &lt;<a href="http://www.gluster.com">http://www.gluster.com</a>&gt;<br>
&gt; GlusterFS comes with ABSOLUTELY NO WARRANTY.<br>
&gt; You may redistribute copies of GlusterFS under the terms of the GNU General Public License.<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Fri, Jun 19, 2015 at 8:53 PM Atin Mukherjee &lt;<a href="mailto:atin.mukherjee83@gmail.com">atin.mukherjee83@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Could you paste output of :<br>
&gt;&gt;<br>
&gt;&gt; gluster peer status from all the nodes?<br>
&gt;&gt;<br>
&gt;&gt; gluster volume status<br>
&gt;&gt;<br>
&gt;&gt; gluster --version<br>
&gt;&gt;<br>
&gt;&gt; Atin<br>
&gt;&gt;<br>
&gt;&gt; Sent from one plus one<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Jun 20, 2015 4:12 AM, &quot;David Roundy&quot; &lt;<a href="mailto:roundyd@physics.oregonstate.edu">roundyd@physics.oregonstate.edu</a>&gt; wrote:<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Hi all,<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; I&#39;m having some trouble where different nodes in my volume have differing ideas as to the state of the system.  This is a 4-node (one brick per node) cluster, with replica 2.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; I have identified two differing symptoms, I am hoping of the same problem.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; The first symptom is that two of the four nodes don&#39;t show files in some of the directories of the volume, which are present in the other two nodes.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; The second symptom is that I am having some compile commands (but not all) error with &quot;No space left on device&quot; when there is plenty of space on every brick.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; The second symptom seems harder to track down than the first.  Presumably my nodes are not properly synchronized in some way.  How would I track something like this down?<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; A side note:  I have had rebalance fix-layout seemingly hang with no evidence of progress, and a plain rebalance took a long time and I eventually stopped it.  I created the cluster two nodes at a time, with the understanding that I would be able to add pairs of nodes without problems, but it doesn&#39;t seem to be working out that way so far.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Any suggestions would be appreciated! As with my last question, I&#39;m not sure what further information will be helpful, and will be happy to provide more information!<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; David<br>
&gt;&gt; &gt;<br>
&gt;&gt;<br>
&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt; &gt; Gluster-users mailing list<br>
&gt;&gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</p>