<div dir="ltr">Hi Xavier,<div><br></div><div>When can we expect the 3.7.2 release for fixing the I/O error which we discussed on this mail thread?.</div><div><br></div><div>Thanks </div><div>Backer</div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, May 27, 2015 at 8:02 PM, Xavier Hernandez <span dir="ltr">&lt;<a href="mailto:xhernandez@datalab.es" target="_blank">xhernandez@datalab.es</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi again,<br>
<br>
in today&#39;s gluster meeting [1] it has been decided that 3.7.1 will be released urgently to solve a bug in glusterd. All fixes planned for 3.7.1 will be moved to 3.7.2 which will be released soon after.<br>
<br>
Xavi<br>
<br>
[1] <a href="http://meetbot.fedoraproject.org/gluster-meeting/2015-05-27/gluster-meeting.2015-05-27-12.01.html" rel="noreferrer" target="_blank">http://meetbot.fedoraproject.org/gluster-meeting/2015-05-27/gluster-meeting.2015-05-27-12.01.html</a><div><div class="h5"><br>
<br>
On 05/27/2015 12:01 PM, Xavier Hernandez wrote:<br>
</div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="h5">
On 05/27/2015 11:26 AM, Mohamed Pakkeer wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi Xavier,<br>
<br>
Thanks for your reply. When can we expect the 3.7.1 release?<br>
</blockquote>
<br>
AFAIK a beta of 3.7.1 will be released very soon.<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
cheers<br>
Backer<br>
<br>
On Wed, May 27, 2015 at 1:22 PM, Xavier Hernandez &lt;<a href="mailto:xhernandez@datalab.es" target="_blank">xhernandez@datalab.es</a><br>
&lt;mailto:<a href="mailto:xhernandez@datalab.es" target="_blank">xhernandez@datalab.es</a>&gt;&gt; wrote:<br>
<br>
    Hi,<br>
<br>
    some Input/Output error issues have been identified and fixed. These<br>
    fixes will be available on 3.7.1.<br>
<br>
    Xavi<br>
<br>
<br>
    On 05/26/2015 10:15 AM, Mohamed Pakkeer wrote:<br>
<br>
        Hi Glusterfs Experts,<br>
<br>
        We are testing glusterfs 3.7.0 tarball on our 10 Node glusterfs<br>
        cluster.<br>
        Each node has 36 dirves and please find the volume info below<br>
<br>
        Volume Name: vaulttest5<br>
        Type: Distributed-Disperse<br>
        Volume ID: 68e082a6-9819-4885-856c-1510cd201bd9<br>
        Status: Started<br>
        Number of Bricks: 36 x (8 + 2) = 360<br>
        Transport-type: tcp<br>
        Bricks:<br>
        Brick1: 10.1.2.1:/media/disk1<br>
        Brick2: 10.1.2.2:/media/disk1<br>
        Brick3: 10.1.2.3:/media/disk1<br>
        Brick4: 10.1.2.4:/media/disk1<br>
        Brick5: 10.1.2.5:/media/disk1<br>
        Brick6: 10.1.2.6:/media/disk1<br>
        Brick7: 10.1.2.7:/media/disk1<br>
        Brick8: 10.1.2.8:/media/disk1<br>
        Brick9: 10.1.2.9:/media/disk1<br>
        Brick10: 10.1.2.10:/media/disk1<br>
        Brick11: 10.1.2.1:/media/disk2<br>
        Brick12: 10.1.2.2:/media/disk2<br>
        Brick13: 10.1.2.3:/media/disk2<br>
        Brick14: 10.1.2.4:/media/disk2<br>
        Brick15: 10.1.2.5:/media/disk2<br>
        Brick16: 10.1.2.6:/media/disk2<br>
        Brick17: 10.1.2.7:/media/disk2<br>
        Brick18: 10.1.2.8:/media/disk2<br>
        Brick19: 10.1.2.9:/media/disk2<br>
        Brick20: 10.1.2.10:/media/disk2<br>
        ...<br>
        ....<br>
        Brick351: 10.1.2.1:/media/disk36<br>
        Brick352: 10.1.2.2:/media/disk36<br>
        Brick353: 10.1.2.3:/media/disk36<br>
        Brick354: 10.1.2.4:/media/disk36<br>
        Brick355: 10.1.2.5:/media/disk36<br>
        Brick356: 10.1.2.6:/media/disk36<br>
        Brick357: 10.1.2.7:/media/disk36<br>
        Brick358: 10.1.2.8:/media/disk36<br>
        Brick359: 10.1.2.9:/media/disk36<br>
        Brick360: 10.1.2.10:/media/disk36<br>
        Options Reconfigured:<br>
        performance.readdir-ahead: on<br>
<br>
        We did some performance testing and simulated the proactive self<br>
        healing<br>
        for Erasure coding. Disperse volume has been created across<br>
nodes.<br>
<br>
        _*Description of problem*_<br>
<br>
        I disconnected the *network of two nodes* and tried to write<br>
        some video<br>
        files and *glusterfs* *wrote the video files on balance 8 nodes<br>
        perfectly*. I tried to download the uploaded file and it was<br>
        downloaded<br>
        perfectly. Then i enabled the network of two nodes, the pro<br>
        active self<br>
        healing mechanism worked perfectly and wrote the unavailable<br>
junk of<br>
        data to the recently enabled node from the other 8 nodes. But<br>
when i<br>
        tried to download the same file node, it showed Input/Output<br>
        error. I<br>
        couldn&#39;t download the file. I think there is an issue in pro<br>
        active self<br>
        healing.<br>
<br>
        Also we tried the simulation with one node network failure. We<br>
faced<br>
        same I/O error issue while downloading the file<br>
<br>
<br>
        _Error while downloading file _<br>
        _<br>
        _<br>
<br>
        root@master02:/home/admin# rsync -r --progress<br>
        /mnt/gluster/file13_AN<br>
        ./1/file13_AN-2<br>
<br>
        sending incremental file list<br>
<br>
        file13_AN<br>
<br>
            3,342,355,597 100% 4.87MB/s    0:10:54 (xfr#1, to-chk=0/1)<br>
<br>
        rsync: read errors mapping &quot;/mnt/gluster/file13_AN&quot;:<br>
        Input/output error (5)<br>
<br>
        WARNING: file13_AN failed verification -- update discarded (will<br>
        try again).<br>
<br>
           root@master02:/home/admin# cp /mnt/gluster/file13_AN<br>
        ./1/file13_AN-3<br>
<br>
        cp: error reading ‘/mnt/gluster/file13_AN’: Input/output error<br>
<br>
        cp: failed to extend ‘./1/file13_AN-3’: Input/output error_<br>
        _<br>
<br>
<br>
        We can&#39;t conclude the issue with glusterfs 3.7.0 or our glusterfs<br>
        configuration.<br>
<br>
        Any help would be greatly appreciated<br>
<br>
        --<br>
        Cheers<br>
        Backer<br>
<br>
<br>
<br>
        _______________________________________________<br>
        Gluster-users mailing list<br>
        <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a> &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt;<br>
        <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
<br>
<br>
<br>
<br>
<br>
<br>
</blockquote>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
</div></div><a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote>
</blockquote></div><br><br clear="all"><div><br></div><div class="gmail_signature"><br></div>
</div></div>