<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Wed, Mar 2, 2016 at 7:48 PM, <a href="mailto:paf1@email.cz">paf1@email.cz</a> <span dir="ltr">&lt;<a href="mailto:paf1@email.cz" target="_blank">paf1@email.cz</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
  
    
  
  <div text="#000066" bgcolor="#FFFFFF">
    UPDATE:<br>
    <br>
    all &quot;ids&quot;  file have permittion fixed to 660 now<br>
    <br>
    #  find /STORAGES -name ids -exec ls -l {} \;<br>
    -rw-rw---- 2 vdsm kvm 0 24. úno 07.41
    /STORAGES/g1r5p1/GFS/553d9b92-e4a0-4042-a579-4cabeb55ded4/dom_md/ids<br>
    -rw-rw---- 2 vdsm kvm 0 24. úno 07.43
    /STORAGES/g1r5p2/GFS/88adbd49-62d6-45b1-9992-b04464a04112/dom_md/ids<br>
    -rw-rw---- 2 vdsm kvm 0 24. úno 07.43
    /STORAGES/g1r5p3/GFS/3c34ad63-6c66-4e23-ab46-084f3d70b147/dom_md/ids<br>
    -rw-rw---- 2 vdsm kvm 0 24. úno 07.44
    /STORAGES/g1r5p4/GFS/7f52b697-c199-4f58-89aa-102d44327124/dom_md/ids<br>
    -rw-rw---- 2 vdsm kvm 1048576 24. úno 13.03
    /STORAGES/g1r5p5/GFS/3b24d023-fd35-4666-af2f-f5e1d19531ad/dom_md/ids<br>
    -rw-rw---- 2 vdsm kvm 1048576  2. bře 17.47
    /STORAGES/g2r5p1/GFS/0fcad888-d573-47be-bef3-0bc0b7a99fb7/dom_md/ids<br>
    <br>
    SPM is and  was  running continually .......<br></div></blockquote><div><br></div><div>You must stop vdsm on all hosts, please follow the instructions in the previous mail.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div text="#000066" bgcolor="#FFFFFF">
    <br>
    I tried to update &quot;ids&quot; file - ONLINE  ( offline not possible yet )<br>
    # sanlock direct init -s
3c34ad63-6c66-4e23-ab46-084f3d70b147:0:/STORAGES/g1r5p3/GFS/3c34ad63-6c66-4e23-ab46-084f3d70b147/dom_md/ids:0<br>
    <br>
    #  find /STORAGES -name ids -exec ls -l {} \; | grep p3<br>
    -rw-rw---- 1 vdsm kvm 1048576  2. bře 18.32
    /STORAGES/g1r5p3/GFS/3c34ad63-6c66-4e23-ab46-084f3d70b147/dom_md/ids<br>
    <br>
    The storage ids file has correct permittions, size, owners , but is
    not checking by sanlock = the same access time <br>
    What&#39;s wrong ??</div></blockquote><div><br></div><div>sanlock will access the files when vdsm when vdsm will start the domain monitors </div><div>when connecting to the pool.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div text="#000066" bgcolor="#FFFFFF">
    regs.<br>
    Pa.<br>
    PS:  # find /STORAGES -samefile
    /STORAGES/g1r5p3/GFS/3c34ad63-6c66-4e23-ab46-084f3d70b147/dom_md/ids
    -print<br>
    /STORAGES/g1r5p3/GFS/3c34ad63-6c66-4e23-ab46-084f3d70b147/dom_md/ids<br>
    = missing &quot;shadowfile&quot; in &quot; .gluster &quot; dir.<br>
    How can I fix it ?? - online !</div></blockquote><div><br></div><div>Ravi?</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div text="#000066" bgcolor="#FFFFFF"><span class=""><br>
    <br>
    <br>
    <br>
    <div>On 2.3.2016 08:16, Ravishankar N wrote:<br>
    </div>
    </span><div><div class="h5"><blockquote type="cite">
      
      <div>On 03/02/2016 12:02 PM, Sahina Bose
        wrote:<br>
      </div>
      <blockquote type="cite">
        
        <br>
        <br>
        <div>On 03/02/2016 03:45 AM, Nir Soffer
          wrote:<br>
        </div>
        <blockquote type="cite">
          <div dir="ltr">On Tue, Mar 1, 2016 at 10:51 PM, <a href="mailto:paf1@email.cz" target="_blank">paf1@email.cz</a> &lt;<a href="mailto:paf1@email.cz" target="_blank">paf1@email.cz</a>&gt; wrote:<br>
            &gt;<br>
            &gt; HI,<br>
            &gt; requested output:<br>
            &gt;<br>
            &gt; # ls -lh
            /rhev/data-center/mnt/glusterSD/localhost:*/*/dom_md<br>
            &gt;  <br>
            &gt;
/rhev/data-center/mnt/glusterSD/localhost:_1KVM12-BCK/0fcad888-d573-47be-bef3-0bc0b7a99fb7/dom_md:<br>
            &gt; total 2,1M<br>
            &gt; -rw-rw---- 1 vdsm kvm 1,0M  1. bře 21.28 ids      
             &lt;-- good<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M  7. lis 22.16 inbox<br>
            &gt; -rw-rw---- 1 vdsm kvm 2,0M  7. lis 22.17 leases<br>
            &gt; -rw-r--r-- 1 vdsm kvm  335  7. lis 22.17 metadata<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M  7. lis 22.16 outbox<br>
            &gt;<br>
            &gt;
/rhev/data-center/mnt/glusterSD/localhost:_1KVM12-P1/553d9b92-e4a0-4042-a579-4cabeb55ded4/dom_md:<br>
            &gt; total 1,1M<br>
            &gt; -rw-r--r-- 1 vdsm kvm    0 24. úno 07.41 ids      
             &lt;-- bad (sanlock cannot write, other can read)<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M  7. lis 00.14 inbox<br>
            &gt; -rw-rw---- 1 vdsm kvm 2,0M  7. lis 03.56 leases<br>
            &gt; -rw-r--r-- 1 vdsm kvm  333  7. lis 03.56 metadata<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M  7. lis 00.14 outbox<br>
            &gt;<br>
            &gt;
/rhev/data-center/mnt/glusterSD/localhost:_1KVM12-P2/88adbd49-62d6-45b1-9992-b04464a04112/dom_md:<br>
            &gt; total 1,1M<br>
            &gt; -rw-r--r-- 1 vdsm kvm    0 24. úno 07.43 ids      
             &lt;-- bad (sanlock cannot write, other can read)<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M  7. lis 00.15 inbox<br>
            &gt; -rw-rw---- 1 vdsm kvm 2,0M  7. lis 22.14 leases<br>
            &gt; -rw-r--r-- 1 vdsm kvm  333  7. lis 22.14 metadata<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M  7. lis 00.15 outbox<br>
            &gt;<br>
            &gt;
/rhev/data-center/mnt/glusterSD/localhost:_1KVM12-P3/3c34ad63-6c66-4e23-ab46-084f3d70b147/dom_md:<br>
            &gt; total 1,1M<br>
            &gt; -rw-r--r-- 1 vdsm kvm    0 24. úno 07.43 ids      
             &lt;-- bad (sanlock cannot write, other can read)<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M 23. úno 22.51 inbox<br>
            &gt; -rw-rw---- 1 vdsm kvm 2,0M 23. úno 23.12 leases<br>
            &gt; -rw-r--r-- 1 vdsm kvm  998 25. úno 00.35 metadata<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M  7. lis 00.16 outbox<br>
            &gt;<br>
            &gt;
/rhev/data-center/mnt/glusterSD/localhost:_1KVM12-P4/7f52b697-c199-4f58-89aa-102d44327124/dom_md:<br>
            &gt; total 1,1M<br>
            &gt; -rw-r--r-- 1 vdsm kvm    0 24. úno 07.44 ids      
             &lt;-- bad (sanlock cannot write, other can read)<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M  7. lis 00.17 inbox<br>
            &gt; -rw-rw---- 1 vdsm kvm 2,0M  7. lis 00.18 leases<br>
            &gt; -rw-r--r-- 1 vdsm kvm  333  7. lis 00.18 metadata<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M  7. lis 00.17 outbox<br>
            &gt;<br>
            &gt;
/rhev/data-center/mnt/glusterSD/localhost:_2KVM12-P1/42d710a9-b844-43dc-be41-77002d1cd553/dom_md:<br>
            &gt; total 1,1M<br>
            &gt; -rw-rw-r-- 1 vdsm kvm    0 24. úno 07.32 ids      
             &lt;-- bad (other can read)<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M  7. lis 22.18 inbox<br>
            &gt; -rw-rw---- 1 vdsm kvm 2,0M  7. lis 22.18 leases<br>
            &gt; -rw-r--r-- 1 vdsm kvm  333  7. lis 22.18 metadata<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M  7. lis 22.18 outbox<br>
            &gt;<br>
            &gt;
/rhev/data-center/mnt/glusterSD/localhost:_2KVM12-P2/ff71b47b-0f72-4528-9bfe-c3da888e47f0/dom_md:<br>
            &gt; total 3,0M<br>
            &gt; -rw-rw-r-- 1 vdsm kvm 1,0M  1. bře 21.28 ids      
             &lt;-- bad (other can read)<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M 25. úno 00.42 inbox <br>
            &gt; -rw-rw---- 1 vdsm kvm 2,0M 25. úno 00.44 leases<br>
            &gt; -rw-r--r-- 1 vdsm kvm  997 24. úno 02.46 metadata<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M 25. úno 00.44 outbox<br>
            &gt;<br>
            &gt;
/rhev/data-center/mnt/glusterSD/localhost:_2KVM12-P3/ef010d08-aed1-41c4-ba9a-e6d9bdecb4b4/dom_md:<br>
            &gt; total 2,1M<br>
            &gt; -rw-r--r-- 1 vdsm kvm    0 24. úno 07.34 ids      
             &lt;-- bad (sanlock cannot write, other can read)<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M 23. úno 22.35 inbox<br>
            &gt; -rw-rw---- 1 vdsm kvm 2,0M 23. úno 22.38 leases<br>
            &gt; -rw-r--r-- 1 vdsm kvm 1,1K 24. úno 19.07 metadata<br>
            &gt; -rw-rw---- 1 vdsm kvm  16M 23. úno 22.27 outbox<br>
            &gt;<br>
            &gt;
/rhev/data-center/mnt/glusterSD/localhost:_2KVM12__P4/300e9ac8-3c2f-4703-9bb1-1df2130c7c97/dom_md:<br>
            &gt; total 3,0M<br>
            &gt; -rw-rw-r-- 1 vdsm kvm 1,0M  1. bře 21.28 ids      
             &lt;-- bad (other can read)<br>
            &gt; -rw-rw-r-- 1 vdsm kvm  16M  6. lis 23.50 inbox      
             &lt;-- bad (other can read)
            <div>&gt; -rw-rw-r-- 1 vdsm kvm 2,0M  6. lis 23.51 leases  
                   &lt;-- bad (other can read)<br>
              &gt; -rw-rw-r-- 1 vdsm kvm  734  7. lis 02.13 metadata    
                 &lt;-- bad (group can write, other can read)<br>
              &gt; -rw-rw-r-- 1 vdsm kvm  16M  6. lis 16.55 outbox      
               &lt;-- bad (other can read)<br>
              &gt;<br>
              &gt;
/rhev/data-center/mnt/glusterSD/localhost:_2KVM12-P5/1ca56b45-701e-4c22-9f59-3aebea4d8477/dom_md:<br>
              &gt; total 1,1M<br>
              &gt; -rw-rw-r-- 1 vdsm kvm    0 24. úno 07.35 ids      
               &lt;-- bad (other can read)<br>
              &gt; -rw-rw-r-- 1 vdsm kvm  16M 24. úno 01.06 inbox<br>
              &gt; -rw-rw-r-- 1 vdsm kvm 2,0M 24. úno 02.44 leases<br>
              &gt; -rw-r--r-- 1 vdsm kvm  998 24. úno 19.07 metadata<br>
              &gt; -rw-rw-r-- 1 vdsm kvm  16M  7. lis 22.20 outbox<br>
              <br>
              <br>
              It should look like this:<br>
              <br>
              -rw-rw----. 1 vdsm kvm 1.0M Mar  1 23:36 ids<br>
              -rw-rw----. 1 vdsm kvm 2.0M Mar  1 23:35 leases<br>
              -rw-r--r--. 1 vdsm kvm  353 Mar  1 23:35 metadata<br>
              -rw-rw----. 1 vdsm kvm  16M Mar  1 23:34 outbox<br>
              -rw-rw----. 1 vdsm kvm  16M Mar  1 23:34 inbox<br>
              <br>
              This explains the EACCES error.<br>
              <br>
              You can start by fixing the permissions manually, you can
              do this online.<br>
               <br>
              &gt;  The ids files was generated by &quot;touch&quot; command after
              deleting them due &quot;sanlock locking hang&quot;  gluster crash
              &amp; reboot<br>
              &gt; I expected that they will be filled automaticaly
              after gluster reboot ( the  shadow copy from   &quot;.gluster &quot;
                directory  was deleted &amp; created empty  too )<br>
              <br>
              I don&#39;t know about gluster shadow copy, I would not play
              with gluster internals.</div>
            <div>Adding Sahina for advice.<br>
            </div>
          </div>
        </blockquote>
        <br>
        Did you generate the ids file on the mount point.<br>
        <br>
        Ravi, can you help here?<br>
        <br>
      </blockquote>
      <br>
      Okay, so what I understand from the output above is you have
      different gluster volumes mounted and some of them have incorrect
      permissions for the &#39;ids&#39; file. The way to fix it is to do it from
      the mount like Nir said.<br>
      Why did you delete the file from the .glusterfs in the brick(s)? 
      Was there a gfid split brain? <br>
      <br>
      -Ravi<br>
      <br>
      <blockquote type="cite">
        <blockquote type="cite">
          <div dir="ltr">
            <div><br>
              &gt; OK, it looks that sanlock  can&#39;t work with empty file
              or rewrite them .<br>
              &gt; Am I right ??<br>
              <br>
              Yes, the files must be initialized before sanlock can use
              them.<br>
              <br>
              You can initialize the file like this:<br>
              <br>
              sanlock direct init -s
              &lt;sd_uuid&gt;:0:repair/&lt;sd_uuid&gt;/dom_md/ids:0<br>
              <br>
              Taken from <a href="http://lists.ovirt.org/pipermail/users/2016-February/038046.html" target="_blank">http://lists.ovirt.org/pipermail/users/2016-February/038046.html</a><br>
              <br>
              &gt; The last point - about &quot;ids&quot; workaround - this is
              offline version = VMs have to be moved out from for
              continual running with maintenance volume mode<br>
              &gt; But this is not acceptable in current situation, so
              the question again,  is it safe to do it online ??  ( YES
              / NO )</div>
            <div><br>
            </div>
            <div>The ids file is accessed only by sanlock. I guess that
              you don&#39;t have a running</div>
            <div>SPM on this DC, since sanlock fails to acquire a host
              id, so you are pretty safe</div>
            <div>to fix the permissions and initialize the ids files.</div>
            <div><br>
            </div>
            <div>I would do this:</div>
            <div><br>
            </div>
            <div>1. Stop engine,  so it will not try to start vdsm</div>
            <div>2. Stop vdsm on all hosts, so they do not try to
              acquire a host id with sanlock</div>
            <div>    This does not affect running vms</div>
            <div>3. Fix the permissions on the ids file, via glusterfs
              mount</div>
            <div>4. Initialize the ids files from one of the hosts, via
              the glusterfs mount</div>
            <div>    This should fix the ids files on all replicas</div>
            <div>5. Start vdsm on all hosts</div>
            <div>6. Start engine</div>
            <div><br>
            </div>
            <div>Engine will connect to all hosts, hosts will connect to
              storage and try to acquire a host id.</div>
            <div>Then Engine will start the SPM on one of the hosts, and
              your DC should become up.</div>
            <div><br>
            </div>
            <div>David, Sahina, can you confirm that this procedure is
              safe?</div>
          </div>
        </blockquote>
        <br>
        Yes, correcting from the mount point should fix it on all
        replicas<br>
        <br>
        <br>
        <blockquote type="cite">
          <div dir="ltr">
            <div><br>
            </div>
            <div>Nir</div>
            <div><br>
            </div>
            <div>&gt;<br>
              &gt; regs.<br>
              &gt; Pavel<br>
              &gt;<br>
              &gt;<br>
              &gt;<br>
              &gt; On 1.3.2016 18:38, Nir Soffer wrote:<br>
              &gt;<br>
              &gt; On Tue, Mar 1, 2016 at 5:07 PM, <a href="mailto:paf1@email.cz" target="_blank">paf1@email.cz</a> &lt;<a href="mailto:paf1@email.cz" target="_blank">paf1@email.cz</a>&gt; wrote:<br>
              &gt;&gt;<br>
              &gt;&gt; Hello,  can anybody  explain this error no.13 (
              open file ) in sanlock.log .<br>
              &gt;<br>
              &gt;<br>
              &gt; This is EACCES<br>
              &gt;<br>
              &gt; Can you share the outoput of:<br>
              &gt;<br>
              &gt;     ls -lh
/rhev/data-center/mnt/&lt;server&gt;:&lt;_path&gt;/&lt;sd_uuid&gt;/dom_md<br>
              &gt;  <br>
              &gt;&gt;<br>
              &gt;&gt;<br>
              &gt;&gt; The size of  &quot;ids&quot; file is zero (0)<br>
              &gt;<br>
              &gt;<br>
              &gt; This is how we create the ids file when initializing
              it.<br>
              &gt;<br>
              &gt; But then we use sanlock to initialize the ids file,
              and it should be 1MiB after that.<br>
              &gt;<br>
              &gt; Is this ids files created by vdsm, or one you created
              yourself?<br>
              &gt;  <br>
              &gt;&gt;<br>
              &gt;&gt; 2016-02-28 03:25:46+0100 269626 [1951]: open
              error -13
/rhev/data-center/mnt/glusterSD/localhost:_1KVM12-P4/7f52b697-c199-4f58-89aa-102d44327124/dom_md/ids<br>
              &gt;&gt; 2016-02-28 03:25:46+0100 269626 [1951]: s187985
              open_disk
              /rhev/data-center/mnt/glusterSD/localhost:_1KVM12-P4/7f52b697-c199-4f58-89aa-102d44327124/dom_md/ids


              error -13<br>
              &gt;&gt; 2016-02-28 03:25:56+0100 269636 [11304]: s187992
              lockspace
7f52b697-c199-4f58-89aa-102d44327124:1:/rhev/data-center/mnt/glusterSD/localhost:_1KVM12-P4/7f52b697-c199-4f58-89aa-102d44327124/dom_md/ids:0<br>
              &gt;&gt;<br>
              &gt;&gt; If the main problem is about zero file size, can
              I regenerate  this file online securely , with no VM
              dependence  ????<br>
              &gt;<br>
              &gt;<br>
              &gt; Yes, I think I already referred to the instructions
              how to do that in a previous mail.<br>
              &gt;<br>
              &gt;&gt;<br>
              &gt;&gt;<br>
              &gt;&gt; dist = RHEL - 7 - 2.1511<br>
              &gt;&gt; kernel = 3.10.0 - 327.10.1.el7.x86_64<br>
              &gt;&gt; KVM = 2.3.0 - 29.1.el7<br>
              &gt;&gt; libvirt = libvirt-1.2.17-13.el7_2.3<br>
              &gt;&gt; vdsm = vdsm-4.16.30-0.el7<br>
              &gt;&gt; GlusterFS = glusterfs-3.7.8-1.el7<br>
              &gt;&gt;<br>
              &gt;&gt;<br>
              &gt;&gt; regs.<br>
              &gt;&gt; Pavel<br>
              &gt;&gt;<br>
              &gt;&gt; _______________________________________________<br>
              &gt;&gt; Users mailing list<br>
              &gt;&gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
              &gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
              &gt;&gt;<br>
              &gt;<br>
              &gt;<br>
            </div>
          </div>
        </blockquote>
        <br>
        <br>
        <fieldset></fieldset>
        <br>
        <pre>_______________________________________________
Gluster-users mailing list
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a></pre>
      </blockquote>
      <br>
      <br>
    </blockquote>
    <br>
  </div></div></div>

</blockquote></div><br></div></div>