<div style="line-height:1.7;color:#000000;font-size:14px;font-family:Arial"><br><div>Hi,</div><div>But I also don't know why glusterfsd can't be start by glusterd after B node rebooted.<span style="font-family: arial; line-height: 23.8px; white-space: pre-wrap;">The version of glusterfs on  A node and B node are both 3.7.6.</span><span style="line-height: 1.7;">&nbsp;Can you explain this for me please£¿</span></div><div><br></div><div>Thanks£¬</div><div>Xin</div><br><br><br><div style="position:relative;zoom:1"></div><div id="divNeteaseMailCard"></div><br><pre><br>At 2016-02-17 14:30:21, "Anuradha Talur" &lt;atalur@redhat.com&gt; wrote:
&gt;
&gt;
&gt;----- Original Message -----
&gt;&gt; From: "songxin" &lt;songxin_1980@126.com&gt;
&gt;&gt; To: "Atin Mukherjee" &lt;amukherj@redhat.com&gt;
&gt;&gt; Cc: "Anuradha Talur" &lt;atalur@redhat.com&gt;, gluster-users@gluster.org
&gt;&gt; Sent: Wednesday, February 17, 2016 11:44:14 AM
&gt;&gt; Subject: Re:Re: [Gluster-users] question about sync replicate volume after rebooting one node
&gt;&gt; 
&gt;&gt; Hi£¬
&gt;&gt; The version of glusterfs on  A node and B node are both 3.7.6.
&gt;&gt; The time on B node is same after rebooting because B node hasn't RTC. Does it
&gt;&gt; cause the problem?
&gt;&gt; 
&gt;&gt; 
&gt;&gt; If I run " gluster volume start gv0 force " the glusterfsd can be started but
&gt;&gt; "gluster volume start gv0" don't work.
&gt;&gt; 
&gt;Yes, there is a difference between volume start and volume start force.
&gt;When a volume is in "Started" state already, gluster volume start gv0 won't do
&gt;anything (meaning it doesn't bring up the dead bricks). When you say start force,
&gt;status of glusterfsd's is checked and the glusterfsd's not running are spawned.
&gt;Which is the case here in the setup you have.
&gt;&gt; 
&gt;&gt; The file  /var/lib/glusterd/vols/gv0/info on B node as below.
&gt;&gt; ...
&gt;&gt; type=2
&gt;&gt; count=2
&gt;&gt; status=1
&gt;&gt; sub_count=2
&gt;&gt; stripe_count=1
&gt;&gt; replica_count=2
&gt;&gt; disperse_count=0
&gt;&gt; redundancy_count=0
&gt;&gt; version=2
&gt;&gt; transport-type=0
&gt;&gt; volume-id=c4197371-6d01-4477-8cb2-384cda569c27
&gt;&gt; username=62e009ea-47c4-46b4-8e74-47cd9c199d94
&gt;&gt; password=ef600dcd-42c5-48fc-8004-d13a3102616b
&gt;&gt; op-version=3
&gt;&gt; client-op-version=3
&gt;&gt; quota-version=0
&gt;&gt; parent_volname=N/A
&gt;&gt; restored_from_snap=00000000-0000-0000-0000-000000000000
&gt;&gt; snap-max-hard-limit=256
&gt;&gt; performance.readdir-ahead=on
&gt;&gt; brick-0=128.224.162.255:-data-brick-gv0
&gt;&gt; brick-1=128.224.162.163:-home-wrsadmin-work-tmp-data-brick-gv0
&gt;&gt; 
&gt;&gt; 
&gt;&gt; The file  /var/lib/glusterd/vols/gv0/info on A node as below.
&gt;&gt; 
&gt;&gt; 
&gt;&gt; wrsadmin@pek-song1-d1:~/work/tmp$ sudo cat /var/lib/glusterd/vols/gv0/info
&gt;&gt; type=2
&gt;&gt; count=2
&gt;&gt; status=1
&gt;&gt; sub_count=2
&gt;&gt; stripe_count=1
&gt;&gt; replica_count=2
&gt;&gt; disperse_count=0
&gt;&gt; redundancy_count=0
&gt;&gt; version=2
&gt;&gt; transport-type=0
&gt;&gt; volume-id=c4197371-6d01-4477-8cb2-384cda569c27
&gt;&gt; username=62e009ea-47c4-46b4-8e74-47cd9c199d94
&gt;&gt; password=ef600dcd-42c5-48fc-8004-d13a3102616b
&gt;&gt; op-version=3
&gt;&gt; client-op-version=3
&gt;&gt; quota-version=0
&gt;&gt; parent_volname=N/A
&gt;&gt; restored_from_snap=00000000-0000-0000-0000-000000000000
&gt;&gt; snap-max-hard-limit=256
&gt;&gt; performance.readdir-ahead=on
&gt;&gt; brick-0=128.224.162.255:-data-brick-gv0
&gt;&gt; brick-1=128.224.162.163:-home-wrsadmin-work-tmp-data-brick-gv0
&gt;&gt; 
&gt;&gt; 
&gt;&gt; Thanks,
&gt;&gt; Xin
&gt;&gt; 
&gt;&gt; At 2016-02-17 12:01:37, "Atin Mukherjee" &lt;amukherj@redhat.com&gt; wrote:
&gt;&gt; &gt;
&gt;&gt; &gt;
&gt;&gt; &gt;On 02/17/2016 08:23 AM, songxin wrote:
&gt;&gt; &gt;&gt; Hi,
&gt;&gt; &gt;&gt; Thank you for your immediate and detailed reply.And I have a few more
&gt;&gt; &gt;&gt; question about glusterfs.
&gt;&gt; &gt;&gt; A node IP is 128.224.162.163.
&gt;&gt; &gt;&gt; B node IP is 128.224.162.250.
&gt;&gt; &gt;&gt; 1.After reboot B node and start the glusterd service the glusterd log is
&gt;&gt; &gt;&gt; as blow.
&gt;&gt; &gt;&gt; ...
&gt;&gt; &gt;&gt; [2015-12-07 07:54:55.743966] I [MSGID: 101190]
&gt;&gt; &gt;&gt; [event-epoll.c:632:event_dispatch_epoll_worker] 0-epoll: Started thread
&gt;&gt; &gt;&gt; with index 2
&gt;&gt; &gt;&gt; [2015-12-07 07:54:55.744026] I [MSGID: 101190]
&gt;&gt; &gt;&gt; [event-epoll.c:632:event_dispatch_epoll_worker] 0-epoll: Started thread
&gt;&gt; &gt;&gt; with index 1
&gt;&gt; &gt;&gt; [2015-12-07 07:54:55.744280] I [MSGID: 106163]
&gt;&gt; &gt;&gt; [glusterd-handshake.c:1193:__glusterd_mgmt_hndsk_versions_ack]
&gt;&gt; &gt;&gt; 0-management: using the op-version 30706
&gt;&gt; &gt;&gt; [2015-12-07 07:54:55.773606] I [MSGID: 106490]
&gt;&gt; &gt;&gt; [glusterd-handler.c:2539:__glusterd_handle_incoming_friend_req]
&gt;&gt; &gt;&gt; 0-glusterd: Received probe from uuid: b6efd8fc-5eab-49d4-a537-2750de644a44
&gt;&gt; &gt;&gt; [2015-12-07 07:54:55.777994] E [MSGID: 101076]
&gt;&gt; &gt;&gt; [common-utils.c:2954:gf_get_hostname_from_ip] 0-common-utils: Could not
&gt;&gt; &gt;&gt; lookup hostname of 128.224.162.163 : Temporary failure in name resolution
&gt;&gt; &gt;&gt; [2015-12-07 07:54:55.778290] E [MSGID: 106010]
&gt;&gt; &gt;&gt; [glusterd-utils.c:2717:glusterd_compare_friend_volume] 0-management:
&gt;&gt; &gt;&gt; Version of Cksums gv0 differ. local cksum = 2492237955, remote cksum =
&gt;&gt; &gt;&gt; 4087388312 on peer 128.224.162.163
&gt;&gt; &gt;The above log entry is the reason of the rejection of the peer, most
&gt;&gt; &gt;probably its due to the compatibility issue. I believe the gluster
&gt;&gt; &gt;versions are different (share gluster versions from both the nodes) in
&gt;&gt; &gt;two nodes and you might have hit a bug.
&gt;&gt; &gt;
&gt;&gt; &gt;Can you share the delta of /var/lib/glusterd/vols/gv0/info file from
&gt;&gt; &gt;both the nodes?
&gt;&gt; &gt;
&gt;&gt; &gt;
&gt;&gt; &gt;~Atin
&gt;&gt; &gt;&gt; [2015-12-07 07:54:55.778384] I [MSGID: 106493]
&gt;&gt; &gt;&gt; [glusterd-handler.c:3780:glusterd_xfer_friend_add_resp] 0-glusterd:
&gt;&gt; &gt;&gt; Responded to 128.224.162.163 (0), ret: 0
&gt;&gt; &gt;&gt; [2015-12-07 07:54:55.928774] I [MSGID: 106493]
&gt;&gt; &gt;&gt; [glusterd-rpc-ops.c:480:__glusterd_friend_add_cbk] 0-glusterd: Received
&gt;&gt; &gt;&gt; RJT from uuid: b6efd8fc-5eab-49d4-a537-2750de644a44, host:
&gt;&gt; &gt;&gt; 128.224.162.163, port: 0
&gt;&gt; &gt;&gt; ...
&gt;&gt; &gt;&gt; When I run gluster peer status on B node it show as below.
&gt;&gt; &gt;&gt; Number of Peers: 1
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; Hostname: 128.224.162.163
&gt;&gt; &gt;&gt; Uuid: b6efd8fc-5eab-49d4-a537-2750de644a44
&gt;&gt; &gt;&gt; State: Peer Rejected (Connected)
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; When I run "gluster volume status" on A node  it show as below.
&gt;&gt; &gt;&gt;  
&gt;&gt; &gt;&gt; Status of volume: gv0
&gt;&gt; &gt;&gt; Gluster process                             TCP Port  RDMA Port  Online
&gt;&gt; &gt;&gt; Pid
&gt;&gt; &gt;&gt; ------------------------------------------------------------------------------
&gt;&gt; &gt;&gt; Brick 128.224.162.163:/home/wrsadmin/work/t
&gt;&gt; &gt;&gt; mp/data/brick/gv0                           49152     0          Y
&gt;&gt; &gt;&gt; 13019
&gt;&gt; &gt;&gt; NFS Server on localhost                     N/A       N/A        N
&gt;&gt; &gt;&gt; N/A
&gt;&gt; &gt;&gt; Self-heal Daemon on localhost               N/A       N/A        Y
&gt;&gt; &gt;&gt; 13045
&gt;&gt; &gt;&gt;  
&gt;&gt; &gt;&gt; Task Status of Volume gv0
&gt;&gt; &gt;&gt; ------------------------------------------------------------------------------
&gt;&gt; &gt;&gt; There are no active volume tasks
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; It looks like the glusterfsd service is ok on A node.
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; If because the peer state is Rejected so gluterd didn't start the
&gt;&gt; &gt;&gt; glusterfsd?What causes this problem£¿
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; 2. Is glustershd(self-heal-daemon) the process as below?
&gt;&gt; &gt;&gt; root       497  0.8  0.0 432520 18104 ?        Ssl  08:07   0:00
&gt;&gt; &gt;&gt; /usr/sbin/glusterfs -s localhost --volfile-id gluster/glustershd -p
&gt;&gt; &gt;&gt; /var/lib/glusterd/glustershd/run/gluster ..
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; If it is£¬ I want to know if the glustershd is also the bin glusterfsd£¬
&gt;&gt; &gt;&gt; just like glusterd and glusterfs.
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; Thanks,
&gt;&gt; &gt;&gt; Xin
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; At 2016-02-16 18:53:03, "Anuradha Talur" &lt;atalur@redhat.com&gt; wrote:
&gt;&gt; &gt;&gt;&gt;
&gt;&gt; &gt;&gt;&gt;
&gt;&gt; &gt;&gt;&gt;----- Original Message -----
&gt;&gt; &gt;&gt;&gt;&gt; From: "songxin" &lt;songxin_1980@126.com&gt;
&gt;&gt; &gt;&gt;&gt;&gt; To: gluster-users@gluster.org
&gt;&gt; &gt;&gt;&gt;&gt; Sent: Tuesday, February 16, 2016 3:59:50 PM
&gt;&gt; &gt;&gt;&gt;&gt; Subject: [Gluster-users] question about sync replicate volume after
&gt;&gt; &gt;&gt;&gt;&gt;         rebooting one node
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; Hi,
&gt;&gt; &gt;&gt;&gt;&gt; I have a question about how to sync volume between two bricks after one
&gt;&gt; &gt;&gt;&gt;&gt; node
&gt;&gt; &gt;&gt;&gt;&gt; is reboot.
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; There are two node, A node and B node.A node ip is 128.124.10.1 and B
&gt;&gt; &gt;&gt;&gt;&gt; node ip
&gt;&gt; &gt;&gt;&gt;&gt; is 128.124.10.2.
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; operation steps on A node as below
&gt;&gt; &gt;&gt;&gt;&gt; 1. gluster peer probe 128.124.10.2
&gt;&gt; &gt;&gt;&gt;&gt; 2. mkdir -p /data/brick/gv0
&gt;&gt; &gt;&gt;&gt;&gt; 3.gluster volume create gv0 replica 2 128.124.10.1 :/data/brick/gv0
&gt;&gt; &gt;&gt;&gt;&gt; 128.124.10.2 :/data/brick/gv1 force
&gt;&gt; &gt;&gt;&gt;&gt; 4. gluster volume start gv0
&gt;&gt; &gt;&gt;&gt;&gt; 5.mount -t glusterfs 128.124.10.1 :/gv0 gluster
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; operation steps on B node as below
&gt;&gt; &gt;&gt;&gt;&gt; 1 . mkdir -p /data/brick/gv0
&gt;&gt; &gt;&gt;&gt;&gt; 2.mount -t glusterfs 128.124.10.1 :/gv0 gluster
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; After all steps above , there a some gluster service process, including
&gt;&gt; &gt;&gt;&gt;&gt; glusterd, glusterfs and glusterfsd, running on both A and B node.
&gt;&gt; &gt;&gt;&gt;&gt; I can see these servic by command ps aux | grep gluster and command
&gt;&gt; &gt;&gt;&gt;&gt; gluster
&gt;&gt; &gt;&gt;&gt;&gt; volume status.
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; Now reboot the B node.After B reboot , there are no gluster service
&gt;&gt; &gt;&gt;&gt;&gt; running
&gt;&gt; &gt;&gt;&gt;&gt; on B node.
&gt;&gt; &gt;&gt;&gt;&gt; After I systemctl start glusterd , there is just glusterd service but
&gt;&gt; &gt;&gt;&gt;&gt; not
&gt;&gt; &gt;&gt;&gt;&gt; glusterfs and glusterfsd on B node.
&gt;&gt; &gt;&gt;&gt;&gt; Because glusterfs and glusterfsd are not running so I can't gluster
&gt;&gt; &gt;&gt;&gt;&gt; volume
&gt;&gt; &gt;&gt;&gt;&gt; heal gv0 full.
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; I want to know why glusterd don't start glusterfs and glusterfsd.
&gt;&gt; &gt;&gt;&gt;
&gt;&gt; &gt;&gt;&gt;On starting glusterd, glusterfsd should have started by itself.
&gt;&gt; &gt;&gt;&gt;Could you share glusterd and brick log (on node B) so that we know why
&gt;&gt; &gt;&gt;&gt;glusterfsd
&gt;&gt; &gt;&gt;&gt;didn't start?
&gt;&gt; &gt;&gt;&gt;
&gt;&gt; &gt;&gt;&gt;Do you still see glusterfsd service running on node A? You can try running
&gt;&gt; &gt;&gt;&gt;"gluster v start &lt;VOLNAME&gt; force"
&gt;&gt; &gt;&gt;&gt;on one of the nodes and check if all the brick processes started.
&gt;&gt; &gt;&gt;&gt;
&gt;&gt; &gt;&gt;&gt;gluster volume status &lt;VOLNAME&gt; should be able to provide you with gluster
&gt;&gt; &gt;&gt;&gt;process status.
&gt;&gt; &gt;&gt;&gt;
&gt;&gt; &gt;&gt;&gt;On restarting the node, glusterfs process for mount won't start by itself.
&gt;&gt; &gt;&gt;&gt;You will have to run
&gt;&gt; &gt;&gt;&gt;step 2 on node B again for it.
&gt;&gt; &gt;&gt;&gt;
&gt;&gt; &gt;&gt;&gt;&gt; How do I restart these services on B node?
&gt;&gt; &gt;&gt;&gt;&gt; How do I sync the replicate volume after one node reboot?
&gt;&gt; &gt;&gt;&gt;
&gt;&gt; &gt;&gt;&gt;Once the glusterfsd process starts on node B too, glustershd --
&gt;&gt; &gt;&gt;&gt;self-heal-daemon -- for replicate volume
&gt;&gt; &gt;&gt;&gt;should start healing/syncing files that need to be synced. This deamon
&gt;&gt; &gt;&gt;&gt;does periodic syncing of files.
&gt;&gt; &gt;&gt;&gt;
&gt;&gt; &gt;&gt;&gt;If you want to trigger a heal explicitly, you can run gluster volume heal
&gt;&gt; &gt;&gt;&gt;&lt;VOLNAME&gt; on one of the servers.
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; Thanks,
&gt;&gt; &gt;&gt;&gt;&gt; Xin
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; 
&gt;&gt; &gt;&gt;&gt;&gt; _______________________________________________
&gt;&gt; &gt;&gt;&gt;&gt; Gluster-users mailing list
&gt;&gt; &gt;&gt;&gt;&gt; Gluster-users@gluster.org
&gt;&gt; &gt;&gt;&gt;&gt; http://www.gluster.org/mailman/listinfo/gluster-users
&gt;&gt; &gt;&gt;&gt;
&gt;&gt; &gt;&gt;&gt;--
&gt;&gt; &gt;&gt;&gt;Thanks,
&gt;&gt; &gt;&gt;&gt;Anuradha.
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt;  
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; 
&gt;&gt; &gt;&gt; _______________________________________________
&gt;&gt; &gt;&gt; Gluster-users mailing list
&gt;&gt; &gt;&gt; Gluster-users@gluster.org
&gt;&gt; &gt;&gt; http://www.gluster.org/mailman/listinfo/gluster-users
&gt;&gt; &gt;&gt; 
&gt;&gt; 
&gt;
&gt;-- 
&gt;Thanks,
&gt;Anuradha.
</pre></div><br><br><span title="neteasefooter"><p>&nbsp;</p></span>