<p dir="ltr"></p>
<p dir="ltr">-Atin<br>
Sent from one plus one<br>
On Aug 10, 2015 10:34 PM, &quot;Kingsley&quot; &lt;<a href="mailto:gluster@gluster.dogwind.com">gluster@gluster.dogwind.com</a>&gt; wrote:<br>
&gt;<br>
&gt; On Mon, 2015-08-10 at 22:22 +0530, Atin Mukherjee wrote:<br>
&gt; [snip]<br>
&gt;<br>
&gt;&gt; strace output claims the command exited successfully. Are you sure ls got hung?<br>
&gt;<br>
&gt;<br>
&gt; Not sure, but this one definitely hung. &#39;mkdir(&quot;test&quot;, 0777&#39; was the last output, and it&#39;s been stuck here for about 7 minutes now:<br>
&gt;<br>
&gt; [root@voicemail1b-1 14391.broken]# strace mkdir test<br>
&gt; execve(&quot;/usr/bin/mkdir&quot;, [&quot;mkdir&quot;, &quot;test&quot;], [/* 27 vars */]) = 0<br>
&gt; brk(0)                                  = 0x8db000<br>
&gt; mmap(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0x7f3468a89000<br>
&gt;<br>
&gt; access(&quot;/etc/ld.so.preload&quot;, R_OK)      = -1 ENOENT (No such file or directory)<br>
&gt; open(&quot;/etc/ld.so.cache&quot;, O_RDONLY|O_CLOEXEC) = 3<br>
&gt; fstat(3, {st_mode=S_IFREG|0644, st_size=31874, ...}) = 0<br>
&gt; mmap(NULL, 31874, PROT_READ, MAP_PRIVATE, 3, 0) = 0x7f3468a81000<br>
&gt;<br>
&gt; close(3)                                = 0<br>
&gt; open(&quot;/lib64/libselinux.so.1&quot;, O_RDONLY|O_CLOEXEC) = 3<br>
&gt; read(3, &quot;\177ELF\2\1\1\0\0\0\0\0\0\0\0\0\3\0&gt;\0\1\0\0\0\240d\0\0\0\0\0\0&quot;..., 832) = 832<br>
&gt; fstat(3, {st_mode=S_IFREG|0755, st_size=147120, ...}) = 0<br>
&gt; mmap(NULL, 2246784, PROT_READ|PROT_EXEC, MAP_PRIVATE|MAP_DENYWRITE, 3, 0) = 0x7f3468644000<br>
&gt; mprotect(0x7f3468665000, 2097152, PROT_NONE) = 0<br>
&gt; mmap(0x7f3468865000, 8192, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED|MAP_DENYWRITE, 3, 0x21000) = 0x7f3468865000<br>
&gt; mmap(0x7f3468867000, 6272, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED|MAP_ANONYMOUS, -1, 0) = 0x7f3468867000<br>
&gt;<br>
&gt; close(3)                                = 0<br>
&gt; open(&quot;/lib64/libc.so.6&quot;, O_RDONLY|O_CLOEXEC) = 3<br>
&gt; read(3, &quot;\177ELF\2\1\1\3\0\0\0\0\0\0\0\0\3\0&gt;\0\1\0\0\0\0\34\2\0\0\0\0\0&quot;..., 832) = 832<br>
&gt; fstat(3, {st_mode=S_IFREG|0755, st_size=2107760, ...}) = 0<br>
&gt; mmap(NULL, 3932736, PROT_READ|PROT_EXEC, MAP_PRIVATE|MAP_DENYWRITE, 3, 0) = 0x7f3468283000<br>
&gt; mprotect(0x7f3468439000, 2097152, PROT_NONE) = 0<br>
&gt; mmap(0x7f3468639000, 24576, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED|MAP_DENYWRITE, 3, 0x1b6000) = 0x7f3468639000<br>
&gt; mmap(0x7f346863f000, 16960, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED|MAP_ANONYMOUS, -1, 0) = 0x7f346863f000<br>
&gt;<br>
&gt; close(3)                                = 0<br>
&gt; open(&quot;/lib64/libpcre.so.1&quot;, O_RDONLY|O_CLOEXEC) = 3<br>
&gt; read(3, &quot;\177ELF\2\1\1\0\0\0\0\0\0\0\0\0\3\0&gt;\0\1\0\0\0\360\25\0\0\0\0\0\0&quot;..., 832) = 832<br>
&gt; fstat(3, {st_mode=S_IFREG|0755, st_size=398272, ...}) = 0<br>
&gt; mmap(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0x7f3468a80000<br>
&gt; mmap(NULL, 2490888, PROT_READ|PROT_EXEC, MAP_PRIVATE|MAP_DENYWRITE, 3, 0) = 0x7f3468022000<br>
&gt; mprotect(0x7f3468081000, 2097152, PROT_NONE) = 0<br>
&gt; mmap(0x7f3468281000, 8192, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED|MAP_DENYWRITE, 3, 0x5f000) = 0x7f3468281000<br>
&gt;<br>
&gt; close(3)                                = 0<br>
&gt; open(&quot;/lib64/liblzma.so.5&quot;, O_RDONLY|O_CLOEXEC) = 3<br>
&gt; read(3, &quot;\177ELF\2\1\1\0\0\0\0\0\0\0\0\0\3\0&gt;\0\1\0\0\0000/\0\0\0\0\0\0&quot;..., 832) = 832<br>
&gt; fstat(3, {st_mode=S_IFREG|0755, st_size=153184, ...}) = 0<br>
&gt; mmap(NULL, 2245240, PROT_READ|PROT_EXEC, MAP_PRIVATE|MAP_DENYWRITE, 3, 0) = 0x7f3467dfd000<br>
&gt; mprotect(0x7f3467e21000, 2093056, PROT_NONE) = 0<br>
&gt; mmap(0x7f3468020000, 8192, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED|MAP_DENYWRITE, 3, 0x23000) = 0x7f3468020000<br>
&gt;<br>
&gt; close(3)                                = 0<br>
&gt; open(&quot;/lib64/libdl.so.2&quot;, O_RDONLY|O_CLOEXEC) = 3<br>
&gt; read(3, &quot;\177ELF\2\1\1\0\0\0\0\0\0\0\0\0\3\0&gt;\0\1\0\0\0\320\16\0\0\0\0\0\0&quot;..., 832) = 832<br>
&gt; fstat(3, {st_mode=S_IFREG|0755, st_size=19512, ...}) = 0<br>
&gt; mmap(NULL, 2109744, PROT_READ|PROT_EXEC, MAP_PRIVATE|MAP_DENYWRITE, 3, 0) = 0x7f3467bf9000<br>
&gt; mprotect(0x7f3467bfc000, 2093056, PROT_NONE) = 0<br>
&gt; mmap(0x7f3467dfb000, 8192, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED|MAP_DENYWRITE, 3, 0x2000) = 0x7f3467dfb000<br>
&gt;<br>
&gt; close(3)                                = 0<br>
&gt; open(&quot;/lib64/libpthread.so.0&quot;, O_RDONLY|O_CLOEXEC) = 3<br>
&gt; read(3, &quot;\177ELF\2\1\1\0\0\0\0\0\0\0\0\0\3\0&gt;\0\1\0\0\0\240l\0\0\0\0\0\0&quot;..., 832) = 832<br>
&gt; fstat(3, {st_mode=S_IFREG|0755, st_size=141616, ...}) = 0<br>
&gt; mmap(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0x7f3468a7f000<br>
&gt; mmap(NULL, 2208864, PROT_READ|PROT_EXEC, MAP_PRIVATE|MAP_DENYWRITE, 3, 0) = 0x7f34679dd000<br>
&gt; mprotect(0x7f34679f3000, 2097152, PROT_NONE) = 0<br>
&gt; mmap(0x7f3467bf3000, 8192, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED|MAP_DENYWRITE, 3, 0x16000) = 0x7f3467bf3000<br>
&gt; mmap(0x7f3467bf5000, 13408, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED|MAP_ANONYMOUS, -1, 0) = 0x7f3467bf5000<br>
&gt; close(3)                                = 0<br>
&gt; mmap(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0x7f3468a7e000<br>
&gt; mmap(NULL, 8192, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0x7f3468a7c000<br>
&gt; arch_prctl(ARCH_SET_FS, 0x7f3468a7c800) = 0<br>
&gt; mprotect(0x7f3468639000, 16384, PROT_READ) = 0<br>
&gt; mprotect(0x7f3467bf3000, 4096, PROT_READ) = 0<br>
&gt; mprotect(0x7f3467dfb000, 4096, PROT_READ) = 0<br>
&gt; mprotect(0x7f3468020000, 4096, PROT_READ) = 0<br>
&gt; mprotect(0x7f3468281000, 4096, PROT_READ) = 0<br>
&gt; mprotect(0x7f3468865000, 4096, PROT_READ) = 0<br>
&gt; mprotect(0x611000, 4096, PROT_READ)     = 0<br>
&gt; mprotect(0x7f3468a8a000, 4096, PROT_READ) = 0<br>
&gt; munmap(0x7f3468a81000, 31874)           = 0<br>
&gt; set_tid_address(0x7f3468a7cad0)         = 24942<br>
&gt; set_robust_list(0x7f3468a7cae0, 24)     = 0<br>
&gt; rt_sigaction(SIGRTMIN, {0x7f34679e3780, [], SA_RESTORER|SA_SIGINFO, 0x7f34679ec130}, NULL, 8) = 0<br>
&gt; rt_sigaction(SIGRT_1, {0x7f34679e3810, [], SA_RESTORER|SA_RESTART|SA_SIGINFO, 0x7f34679ec130}, NULL, 8) = 0<br>
&gt;<br>
&gt; rt_sigprocmask(SIG_UNBLOCK, [RTMIN RT_1], NULL, 8) = 0<br>
&gt; getrlimit(RLIMIT_STACK, {rlim_cur=8192*1024, rlim_max=RLIM64_INFINITY}) = 0<br>
&gt; statfs(&quot;/sys/fs/selinux&quot;, {f_type=0xf97cff8c, f_bsize=4096, f_blocks=0, f_bfree=0, f_bavail=0, f_files=0, f_ffree=0, f_fsid={0, 0}, f_namelen=255, f_frsize=4096}) = 0<br>
&gt; statfs(&quot;/sys/fs/selinux&quot;, {f_type=0xf97cff8c, f_bsize=4096, f_blocks=0, f_bfree=0, f_bavail=0, f_files=0, f_ffree=0, f_fsid={0, 0}, f_namelen=255, f_frsize=4096}) = 0<br>
&gt; stat(&quot;/sys/fs/selinux&quot;, {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0<br>
&gt; brk(0)                                  = 0x8db000<br>
&gt; brk(0x8fc000)                           = 0x8fc000<br>
&gt; mkdir(&quot;test&quot;, 0777<br>
Can you also collect the statedump of all the brick processes when the command is hung?<br>
  <br>
+ Ravi, could you check this?<br>
&gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; Then ... do I need to run something on one of the bricks while strace is<br>
&gt;&gt; &gt;&gt; &gt; running?<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; Cheers,<br>
&gt;&gt; &gt;&gt; &gt; Kingsley.<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; [root@gluster1b-1 ~]# gluster volume heal callrec info<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; Brick gluster1a-1.dns99.co.uk:/data/brick/callrec/<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &lt;gfid:164f888f-2049-49e6-ad26-c758ee091863&gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; /recordings/834723/14391 - Possibly undergoing heal<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &lt;gfid:e280b40c-d8b7-43c5-9da7-4737054d7a7f&gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &lt;gfid:b1fbda4a-732f-4f5d-b5a1-8355d786073e&gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &lt;gfid:edb74524-b4b7-4190-85e7-4aad002f6e7c&gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &lt;gfid:9b8b8446-1e27-4113-93c2-6727b1f457eb&gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &lt;gfid:650efeca-b45c-413b-acc3-f0a5853ccebd&gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; Number of entries: 7<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; Brick gluster1b-1.dns99.co.uk:/data/brick/callrec/<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; Number of entries: 0<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; Brick gluster2a-1.dns99.co.uk:/data/brick/callrec/<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &lt;gfid:e280b40c-d8b7-43c5-9da7-4737054d7a7f&gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &lt;gfid:164f888f-2049-49e6-ad26-c758ee091863&gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &lt;gfid:650efeca-b45c-413b-acc3-f0a5853ccebd&gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &lt;gfid:b1fbda4a-732f-4f5d-b5a1-8355d786073e&gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; /recordings/834723/14391 - Possibly undergoing heal<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &lt;gfid:edb74524-b4b7-4190-85e7-4aad002f6e7c&gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &lt;gfid:9b8b8446-1e27-4113-93c2-6727b1f457eb&gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; Number of entries: 7<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; Brick gluster2b-1.dns99.co.uk:/data/brick/callrec/<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; Number of entries: 0<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; If I query each brick directly for the number of files/directories<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; within that, I get 1731 on gluster1a-1 and gluster2a-1, but 1737 on<br>
&gt;&gt; &gt;&gt; &gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; other two, using this command:<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; # find /data/brick/callrec/recordings/834723/14391 -print | wc -l<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; Cheers,<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; Kingsley.<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; On Mon, 2015-08-10 at 11:05 +0100, Kingsley wrote:<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; Sorry for the blind panic - restarting the volume seems to have<br>
&gt;&gt; &gt;&gt; &gt; &gt; fixed<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; it.<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; But then my next question - why is this necessary? Surely it<br>
&gt;&gt; &gt;&gt; &gt; &gt; undermines<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; the whole point of a high availability system?<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; Cheers,<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; Kingsley.<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; On Mon, 2015-08-10 at 10:53 +0100, Kingsley wrote:<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Hi,<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; We have a 4 way replicated volume using gluster 3.6.3 on CentOS<br>
&gt;&gt; &gt;&gt; &gt; &gt; 7.<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Over the weekend I did a yum update on each of the bricks in<br>
&gt;&gt; &gt;&gt; &gt; &gt; turn, but<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; now when clients (using fuse mounts) try to access the volume,<br>
&gt;&gt; &gt;&gt; &gt; &gt; it hangs.<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Gluster itself wasn&#39;t updated (we&#39;ve disabled that repo so that<br>
&gt;&gt; &gt;&gt; &gt; &gt; we keep<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; to 3.6.3 for now).<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; This was what I did:<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;       * on first brick, &quot;yum update&quot;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;       * reboot brick<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;       * watch &quot;gluster volume status&quot; on another brick and wait<br>
&gt;&gt; &gt;&gt; &gt; &gt; for it<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;         to say all 4 bricks are online before proceeding to<br>
&gt;&gt; &gt;&gt; &gt; &gt; update the<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;         next brick<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; I was expecting the clients might pause 30 seconds while they<br>
&gt;&gt; &gt;&gt; &gt; &gt; notice a<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; brick is offline, but then recover.<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; I&#39;ve tried re-mounting clients, but that hasn&#39;t helped.<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; I can&#39;t see much data in any of the log files.<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; I&#39;ve tried &quot;gluster volume heal callrec&quot; but it doesn&#39;t seem to<br>
&gt;&gt; &gt;&gt; &gt; &gt; have<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; helped.<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; What shall I do next?<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; I&#39;ve pasted some stuff below in case any of it helps.<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Cheers,<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Kingsley.<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; [root@gluster1b-1 ~]# gluster volume info callrec<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Volume Name: callrec<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Type: Replicate<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Volume ID: a39830b7-eddb-4061-b381-39411274131a<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Status: Started<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Number of Bricks: 1 x 4 = 4<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Transport-type: tcp<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Bricks:<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Brick1: gluster1a-1:/data/brick/callrec<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Brick2: gluster1b-1:/data/brick/callrec<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Brick3: gluster2a-1:/data/brick/callrec<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Brick4: gluster2b-1:/data/brick/callrec<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Options Reconfigured:<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; performance.flush-behind: off<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; [root@gluster1b-1 ~]#<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; [root@gluster1b-1 ~]# gluster volume status callrec<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Status of volume: callrec<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Gluster process                                         Port<br>
&gt;&gt; &gt;&gt; &gt; &gt; Online  Pid<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; ------------------------------------------------------------------------------<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Brick gluster1a-1:/data/brick/callrec                   49153<br>
&gt;&gt; &gt;&gt; &gt; &gt;  Y       6803<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Brick gluster1b-1:/data/brick/callrec                   49153<br>
&gt;&gt; &gt;&gt; &gt; &gt;  Y       2614<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Brick gluster2a-1:/data/brick/callrec                   49153<br>
&gt;&gt; &gt;&gt; &gt; &gt;  Y       2645<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Brick gluster2b-1:/data/brick/callrec                   49153<br>
&gt;&gt; &gt;&gt; &gt; &gt;  Y       4325<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; NFS Server on localhost                                 2049<br>
&gt;&gt; &gt;&gt; &gt; &gt; Y       2769<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Self-heal Daemon on localhost                           N/A<br>
&gt;&gt; &gt;&gt; &gt; &gt;  Y       2789<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; NFS Server on gluster2a-1                               2049<br>
&gt;&gt; &gt;&gt; &gt; &gt; Y       2857<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Self-heal Daemon on gluster2a-1                         N/A<br>
&gt;&gt; &gt;&gt; &gt; &gt;  Y       2814<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; NFS Server on 88.151.41.100                             2049<br>
&gt;&gt; &gt;&gt; &gt; &gt; Y       6833<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Self-heal Daemon on 88.151.41.100                       N/A<br>
&gt;&gt; &gt;&gt; &gt; &gt;  Y       6824<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; NFS Server on gluster2b-1                               2049<br>
&gt;&gt; &gt;&gt; &gt; &gt; Y       4428<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Self-heal Daemon on gluster2b-1                         N/A<br>
&gt;&gt; &gt;&gt; &gt; &gt;  Y       4387<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Task Status of Volume callrec<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; ------------------------------------------------------------------------------<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; There are no active volume tasks<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; [root@gluster1b-1 ~]#<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; [root@gluster1b-1 ~]# gluster volume heal callrec info<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Brick gluster1a-1.dns99.co.uk:/data/brick/callrec/<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; /to_process - Possibly undergoing heal<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Number of entries: 1<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Brick gluster1b-1.dns99.co.uk:/data/brick/callrec/<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Number of entries: 0<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Brick gluster2a-1.dns99.co.uk:/data/brick/callrec/<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; /to_process - Possibly undergoing heal<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Number of entries: 1<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Brick gluster2b-1.dns99.co.uk:/data/brick/callrec/<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Number of entries: 0<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; [root@gluster1b-1 ~]#<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; _______________________________________________<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; Gluster-users mailing list<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; _______________________________________________<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; Gluster-users mailing list<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; _______________________________________________<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; Gluster-users mailing list<br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; &gt;&gt; &gt; &gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt; &gt;&gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Gluster-users mailing list<br>
&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</p>