<p dir="ltr"><br>
On 19 May 2015 17:10, &quot;Varadharajan S&quot; &lt;<a href="mailto:rajanvaradhu@gmail.com">rajanvaradhu@gmail.com</a>&gt; wrote:<br>
&gt;<br>
&gt; Hi,<br>
&gt;<br>
&gt; We are using Ubuntu 14.04 server and for storage purpose we configured gluster 3.5 as distributed volume and find the below details,<br>
&gt;<br>
&gt; 1).4 Servers - 14.04 Ubuntu Server and each server disks free spaces are  configured as ZFS raiddz2 volume<br>
&gt;<br>
&gt; 2). Each server has /pool/gluster zfs volume and capacity as - 5 TB,8 TB,6 TB and 10 TB<br>
&gt;<br>
&gt; 3). Bricks are - rep1,rep2,rep3 and st1 and all the bricks are connected as Distributed Volume and mounted on each system as,<br>
&gt;  <br>
&gt;   For E.x in rep1 -&gt; mount -t glusterfs  rep1:/glustervol  /data.<br>
&gt;                   rep2  -&gt; mount  -t glusterfs  rep2:/glustervol  /data<br>
&gt;                   rep3  -&gt; mount  -t glusterfs  rep3:/glustervol  /data<br>
&gt;                   st1    -&gt;  mount  -t glusterfs  st1:/glustervol  /data<br>
&gt;<br>
&gt; So we get /data is having  around 29 TB and all our applications data&#39;s are stored in /data mount point.<br>
&gt;<br>
&gt; Details about volume:<br>
&gt;<br>
&gt; volume glustervol-client-0<br>
&gt;     type protocol/client<br>
&gt;     option send-gids true<br>
&gt;     option password b217da9d1d8b-bb55<br>
&gt;     option username 9d76-4553-8c75<br>
&gt;     option transport-type tcp<br>
&gt;     option remote-subvolume /pool/gluster<br>
&gt;     option remote-host rep1<br>
&gt;     option ping-timeout 42<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-client-1<br>
&gt;     type protocol/client<br>
&gt;     option send-gids true<br>
&gt;     option password b217da9d1d8b-bb55<br>
&gt;     option username jkd76-4553-5347<br>
&gt;     option transport-type tcp<br>
&gt;     option remote-subvolume /pool/gluster<br>
&gt;     option remote-host rep2<br>
&gt;     option ping-timeout 42<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-client-2<br>
&gt;     type protocol/client<br>
&gt;     option send-gids true<br>
&gt;     option password b217da9d1d8b-bb55<br>
&gt;     option username 19d7-5a190c2<br>
&gt;     option transport-type tcp<br>
&gt;     option remote-subvolume /pool/gluster<br>
&gt;     option remote-host rep3<br>
&gt;     option ping-timeout 42<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-client-3<br>
&gt;     type protocol/client<br>
&gt;     option send-gids true<br>
&gt;     option password b217da9d1d8b-bb55<br>
&gt;     option username c75-5436b5a168347<br>
&gt;     option transport-type tcp<br>
&gt;     option remote-subvolume /pool/gluster<br>
&gt;     option remote-host st1<br>
&gt;<br>
&gt;     option ping-timeout 42<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-dht<br>
&gt;     type cluster/distribute<br>
&gt;     subvolumes glustervol-client-0 glustervol-client-1 glustervol-client-2 glustervol-client-3<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-write-behind<br>
&gt;     type performance/write-behind<br>
&gt;     subvolumes glustervol-dht<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-read-ahead<br>
&gt;     type performance/read-ahead<br>
&gt;     subvolumes glustervol-write-behind<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-io-cache<br>
&gt;     type performance/io-cache<br>
&gt;     subvolumes glustervol-read-ahead<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-quick-read<br>
&gt;     type performance/quick-read<br>
&gt;     subvolumes glustervol-io-cache<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-open-behind<br>
&gt;     type performance/open-behind<br>
&gt;     subvolumes glustervol-quick-read<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-md-cache<br>
&gt;     type performance/md-cache<br>
&gt;     subvolumes glustervol-open-behind<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol<br>
&gt;     type debug/io-stats<br>
&gt;     option count-fop-hits off<br>
&gt;     option latency-measurement off<br>
&gt;     subvolumes glustervol-md-cache<br>
&gt; end-volume<br>
&gt;<br>
&gt;<br>
&gt; ap@rep3:~$ sudo gluster volume info<br>
&gt;  <br>
&gt; Volume Name: glustervol<br>
&gt; Type: Distribute<br>
&gt; Volume ID: 165b-XXXXX<br>
&gt; Status: Started<br>
&gt; Number of Bricks: 4<br>
&gt; Transport-type: tcp<br>
&gt; Bricks:<br>
&gt; Brick1: rep1:/pool/gluster<br>
&gt; Brick2: rep2:/pool/gluster<br>
&gt; Brick3: rep3:/pool/gluster<br>
&gt; Brick4: st1:/pool/gluster<br>
&gt;<br>
&gt; Problem:<br>
&gt;<br>
&gt; If we shutdown any of the bricks , the volume size is reduced (this is ok) but from the other servers , i can see my mount point /data but it&#39;s only listing contents and i can&#39;t write or edit any single files/folders. <br>
&gt;<br>
&gt; Solution Required:<br>
&gt;<br>
&gt; If anyone brick is not available, From other servers should allow for Write and edit functions<br>
This is expected since you are using distributed volume. You wouldn&#39;t be able to write/edit files belonging to the brick which is down. Solution would be to migrate to distributed replicate volume.<br>
&gt;<br>
&gt; Please let us know, what can i try further ?<br>
&gt;<br>
&gt; Regards,<br>
&gt; Varad<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</p>