<div dir="ltr">Hi Gluster List,<div><br></div><div><div>I&#39;m trying to configure a 2 node GlusterFS replicated volume with CTDB managing SMB failover and I&#39;m wondering if the behaviour I am seeing is normal...</div><div>If I am playing back a large video file from a client (both Windows and Linux) mounting the SMB share and issue `ctdb moveip` away from the server the client is currently reading from, the client&#39;s player reports an I/O error.</div><div>This also occurs if I&#39;m in the middle of copying a file to/from the client/server.</div><div>After this failure I am still able to interact with the network share and resume normal operations.</div><div><br></div><div>I have tested with the native client from a Linux host and the failover works with after an approximately 60 second freeze.</div><div><br></div><div>This may well be something I need to post to the CTDB/Samba list, but I was wondering if there is anything obvious to try.</div><div><br></div><div>My configuration is as follows:</div><div>(ctdb is my ctdb distributed lock volume, online is the storage volume)</div><div><br></div><div><div>[root@stor01 ctdb]# ctdb status</div><div>Number of nodes:2</div><div>pnn:0 192.168.10.161   OK (THIS NODE)</div><div>pnn:1 192.168.10.162   OK</div><div>Generation:120988770</div><div>Size:2</div><div>hash:0 lmaster:0</div><div>hash:1 lmaster:1</div><div>Recovery mode:NORMAL (0)</div><div>Recovery master:0</div></div><div><br></div><div><div>[root@stor01 ctdb]# ctdb ip</div><div>Public IPs on node 0</div><div>192.168.10.171 0</div><div>192.168.10.172 1</div><div>192.168.10.181 0</div><div>192.168.10.182 1</div></div><div><br></div><div><div>[root@stor01 ctdb]# gluster volume info</div><div> </div><div>Volume Name: ctdb</div><div>Type: Replicate</div><div>Volume ID: 95d1676f-0027-4f22-93fa-97b569a8e8cb</div><div>Status: Started</div><div>Number of Bricks: 1 x 2 = 2</div><div>Transport-type: tcp</div><div>Bricks:</div><div>Brick1: stor01:/data/brick1/ctdb/b1</div><div>Brick2: stor02:/data/brick1/ctdb/b2</div><div>Options Reconfigured:</div><div>nfs.export-volumes: on</div><div>nfs.addr-namelookup: off</div><div>performance.readdir-ahead: on</div><div> </div><div>Volume Name: online</div><div>Type: Replicate</div><div>Volume ID: fd345d88-881e-4b1a-834e-9635cbe6eea2</div><div>Status: Started</div><div>Number of Bricks: 1 x 2 = 2</div><div>Transport-type: tcp</div><div>Bricks:</div><div>Brick1: stor01:/data/brick1/online</div><div>Brick2: stor02:/data/brick1/online</div><div>Options Reconfigured:</div><div>nfs.rpc-auth-allow: 192.168.0.*,192.168.10.*</div><div>nfs.export-volumes: on</div><div>nfs.addr-namelookup: off</div><div>nfs.disable: off</div><div>auth.allow: 192.168.0.*,192.168.10.*</div><div>performance.readdir-ahead: on</div><div>performance.stat-prefetch: off</div><div>server.allow-insecure: on</div><div>storage.batch-fsync-delay-usec: 0</div></div><div><br></div><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr"><div></div>Stewart Webb<br></div></div>
</div></div>