<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Jul 20, 2015 at 1:41 PM, Varadharajan S <span dir="ltr">&lt;<a href="mailto:rajanvaradhu@gmail.com" target="_blank">rajanvaradhu@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi,<br><br>We are using Ubuntu 14.04 server and for storage purpose we configured gluster 3.5 as distributed volume and find the below details,<br><br>1).4 Servers - 14.04 Ubuntu Server and each server disks free spaces are  configured as ZFS raiddz2 volume<br><br>2). Each server has /pool/gluster zfs volume and capacity as - 5 TB,8 TB,6 TB and 10 TB<br><br>3). Bricks are - rep1,rep2,rep3 and st1 and all the bricks are connected as Distributed Volume and mounted on each system as,<br> <br>  For E.x in rep1 -&gt; mount -t glusterfs  rep1:/glustervol  /data.<br>                  rep2  -&gt; mount  -t glusterfs  rep2:/glustervol  /data<br>                  rep3  -&gt; mount  -t glusterfs  rep3:/glustervol  /data<br>                  st1    -&gt;  mount  -t glusterfs  st1:/glustervol  /data<br><br>So we get /data is having  around 29 TB and all our applications data&#39;s are stored in /data mount point.<br><br>Details about volume:<br><br>volume glustervol-client-0<br>    type protocol/client<br>    option send-gids true<br>    option password b217da9d1d8b-bb55<br>    option username 9d76-4553-8c75<br>    option transport-type tcp<br>    option remote-subvolume /pool/gluster<br>    option remote-host rep1<br>    option ping-timeout 42<br>end-volume<br><br>volume glustervol-client-1<br>    type protocol/client<br>    option send-gids true<br>    option password b217da9d1d8b-bb55<br>    option username jkd76-4553-5347<br>    option transport-type tcp<br>    option remote-subvolume /pool/gluster<br>    option remote-host rep2<br>    option ping-timeout 42<br>end-volume<br><br>volume glustervol-client-2<br>    type protocol/client<br>    option send-gids true<br>    option password b217da9d1d8b-bb55<br>    option username 19d7-5a190c2<br>    option transport-type tcp<br>    option remote-subvolume /pool/gluster<br>    option remote-host rep3<br>    option ping-timeout 42<br>end-volume<br><br>volume glustervol-client-3<br>    type protocol/client<br>    option send-gids true<br>    option password b217da9d1d8b-bb55<br>    option username c75-5436b5a168347<br>    option transport-type tcp<br>    option remote-subvolume /pool/gluster<br>    option remote-host st1<br><br>    option ping-timeout 42<br>end-volume<br><br>volume glustervol-dht<br>    type cluster/distribute<br>    subvolumes glustervol-client-0 glustervol-client-1 glustervol-client-2 glustervol-client-3<br>end-volume<br><br>volume glustervol-write-behind<br>    type performance/write-behind<br>    subvolumes glustervol-dht<br>end-volume<br><br>volume glustervol-read-ahead<br>    type performance/read-ahead<br>    subvolumes glustervol-write-behind<br>end-volume<br><br>volume glustervol-io-cache<br>    type performance/io-cache<br>    subvolumes glustervol-read-ahead<br>end-volume<br><br>volume glustervol-quick-read<br>    type performance/quick-read<br>    subvolumes glustervol-io-cache<br>end-volume<br><br>volume glustervol-open-behind<br>    type performance/open-behind<br>    subvolumes glustervol-quick-read<br>end-volume<br><br>volume glustervol-md-cache<br>    type performance/md-cache<br>    subvolumes glustervol-open-behind<br>end-volume<br><br>volume glustervol<br>    type debug/io-stats<br>    option count-fop-hits off<br>    option latency-measurement off<br>    subvolumes glustervol-md-cache<br>end-volume<br><br><br>ap@rep3:~$ sudo gluster volume info<br> <br>Volume Name: glustervol<br>Type: Distribute<br>Volume ID: 165b-XXXXX<br>Status: Started<br>Number of Bricks: 4<br>Transport-type: tcp<br>Bricks:<br>Brick1: rep1:/pool/gluster<br>Brick2: rep2:/pool/gluster<br>Brick3: rep3:/pool/gluster<br>Brick4: st1:/pool/gluster<br><br>We have standalone server(bak-server), which is sitting outside glusterfs for backup our data.At present our /data is having around 4 TB and initiated rsync data size around 1.2 TB from server rep1 (one of the gluster server) to backup server. After some 2 hour, it throws &quot;Transport end point connect error&quot; and the copy is canceled. But if i checked the volume status and all is working fine.<br><br>What could be the reason and is there any tuning parameter needs to be set, for these type of activity ? <br></div></blockquote><div><br></div><div>Please attach the mount logs from rep1 to determine why &quot;Transport end point not connected error was shown&quot;</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br>Regards,<br>Varad<br><br></div>
<br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr"><font color="#666666"><b>Raghavendra Talur </b></font><div><br></div></div></div>
</div></div>