<html>
  <head>
    <meta content="text/html; charset=utf-8" http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <br>
    On 06/13/2015 04:50 PM, Atin Mukherjee wrote:<br>
    <span style="white-space: pre;">&gt; <br>
      &gt; Sent from Samsung Galaxy S4 On 13 Jun 2015 14:42, "Anand
      Nekkunti"<br>
      &gt; &lt;<a class="moz-txt-link-abbreviated" href="mailto:anekkunt@redhat.com">anekkunt@redhat.com</a>
      <a class="moz-txt-link-rfc2396E" href="mailto:anekkunt@redhat.com">&lt;mailto:anekkunt@redhat.com&gt;</a>&gt; wrote:<br>
      &gt;&gt; <br>
      &gt;&gt; <br>
      &gt;&gt; On 06/13/2015 02:27 PM, Atin Mukherjee wrote:<br>
      &gt;&gt;&gt; <br>
      &gt;&gt;&gt; Sent from Samsung Galaxy S4 On 13 Jun 2015 13:15,
      "Raghavendra<br>
      &gt;&gt;&gt; Talur" &lt;<a class="moz-txt-link-abbreviated" href="mailto:raghavendra.talur@gmail.com">raghavendra.talur@gmail.com</a><br>
      &gt;&gt;&gt; <a class="moz-txt-link-rfc2396E" href="mailto:raghavendra.talur@gmail.com">&lt;mailto:raghavendra.talur@gmail.com&gt;</a>&gt; wrote:<br>
      &gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt; On Sat, Jun 13, 2015 at 1:00 PM, Atin Mukherjee<br>
      &gt;&gt;&gt;&gt; &lt;<a class="moz-txt-link-abbreviated" href="mailto:atin.mukherjee83@gmail.com">atin.mukherjee83@gmail.com</a><br>
      &gt;&gt;&gt;&gt; <a class="moz-txt-link-rfc2396E" href="mailto:atin.mukherjee83@gmail.com">&lt;mailto:atin.mukherjee83@gmail.com&gt;</a>&gt;
      wrote:<br>
      &gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt; Sent from Samsung Galaxy S4 On 13 Jun 2015
      12:58, "Anand<br>
      &gt;&gt;&gt;&gt;&gt; Nekkunti" &lt;<a class="moz-txt-link-abbreviated" href="mailto:anekkunt@redhat.com">anekkunt@redhat.com</a>
      <a class="moz-txt-link-rfc2396E" href="mailto:anekkunt@redhat.com">&lt;mailto:anekkunt@redhat.com&gt;</a>&gt;<br>
      &gt;&gt;&gt;&gt;&gt; wrote:<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; Hi All Rebalance is not working in single
      node cluster<br>
      &gt;&gt;&gt;&gt;&gt;&gt; environment ( current test frame work ). 
      I am getting<br>
      &gt;&gt;&gt;&gt;&gt;&gt; error in below test , it seems re-balance
      is not migrated<br>
      &gt;&gt;&gt;&gt;&gt;&gt; to  current cluster test framework.<br>
      &gt;&gt;&gt;&gt;&gt; Could you pin point which test case fails and
      what log do you<br>
      &gt;&gt;&gt;&gt;&gt; see?<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; cleanup; TEST launch_cluster 2; TEST
      $CLI_1 peer probe<br>
      &gt;&gt;&gt;&gt;&gt;&gt; $H2;<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; EXPECT_WITHIN $PROBE_TIMEOUT 1
      check_peers<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; $CLI_1 volume create $V0 $H1:$B1/$V0 
      $H2:$B2/$V0 EXPECT<br>
      &gt;&gt;&gt;&gt;&gt;&gt; 'Created' volinfo_field $V0 'Status';<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; $CLI_1 volume start $V0 EXPECT 'Started'
      volinfo_field $V0<br>
      &gt;&gt;&gt;&gt;&gt;&gt; 'Status';<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; #Mount FUSE TEST glusterfs -s $H1
      --volfile-id=$V0 $M0;<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; TEST mkdir $M0/dir{1..4}; TEST touch<br>
      &gt;&gt;&gt;&gt;&gt;&gt; $M0/dir{1..4}/files{1..4};<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; TEST $CLI_1 volume add-brick $V0
      $H1:$B1/${V0}1<br>
      &gt;&gt;&gt;&gt;&gt;&gt; $H2:$B2/${V0}1<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; TEST $CLI_1 volume rebalance $V0  start<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; EXPECT_WITHIN 60 "completed"
      CLI_1_rebalance_status_field<br>
      &gt;&gt;&gt;&gt;&gt;&gt; $V0<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; $CLI_2 volume status $V0 EXPECT 'Started'
      volinfo_field $V0<br>
      &gt;&gt;&gt;&gt;&gt;&gt; 'Status';<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; cleanup;<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; Regards Anand.N<br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;&gt;
      _______________________________________________ <br>
      &gt;&gt;&gt;&gt;&gt;&gt; Gluster-devel mailing list
      <a class="moz-txt-link-abbreviated" href="mailto:Gluster-devel@gluster.org">Gluster-devel@gluster.org</a><br>
      &gt;&gt;&gt;&gt;&gt;&gt; <a class="moz-txt-link-rfc2396E" href="mailto:Gluster-devel@gluster.org">&lt;mailto:Gluster-devel@gluster.org&gt;</a>
      <br>
      &gt;&gt;&gt;&gt;&gt;&gt;
      <a class="moz-txt-link-freetext" href="http://www.gluster.org/mailman/listinfo/gluster-devel">http://www.gluster.org/mailman/listinfo/gluster-devel</a><br>
      &gt;&gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt;&gt;
      _______________________________________________ Gluster-devel<br>
      &gt;&gt;&gt;&gt;&gt; mailing list <a class="moz-txt-link-abbreviated" href="mailto:Gluster-devel@gluster.org">Gluster-devel@gluster.org</a><br>
      &gt;&gt;&gt;&gt;&gt; <a class="moz-txt-link-rfc2396E" href="mailto:Gluster-devel@gluster.org">&lt;mailto:Gluster-devel@gluster.org&gt;</a> <br>
      &gt;&gt;&gt;&gt;&gt;
      <a class="moz-txt-link-freetext" href="http://www.gluster.org/mailman/listinfo/gluster-devel">http://www.gluster.org/mailman/listinfo/gluster-devel</a><br>
      &gt;&gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt; If it is a crash of glusterd when you do
      rebalance start, it is<br>
      &gt;&gt;&gt;&gt; because of FORTIFY_FAIL in libc. Here is the
      patch that Susant<br>
      &gt;&gt;&gt;&gt; has already sent:
      <a class="moz-txt-link-freetext" href="http://review.gluster.org/#/c/11090/">http://review.gluster.org/#/c/11090/</a><br>
      &gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt; You can verify that it is the same crash by
      checking the core<br>
      &gt;&gt;&gt;&gt; in gdb; a SIGABRT would be raised after strncpy.<br>
      &gt;&gt; <br>
      &gt;&gt; <br>
      &gt;&gt; glusterd  is not crashing, but I am getting rebalance
      status as<br>
      &gt;&gt; fail  in my test case. It is happening in test frame work
      ( any<br>
      &gt;&gt; simulated cluster environment in same node ) only. RCA:
      1. we are<br>
      &gt;&gt; passing always "localhost" as volfile server for
      rebalance xlator<br>
      &gt;&gt; . 2.Rebalance processes are  overwriting  unix socket and
      log files<br>
      &gt;&gt; each other (All rebalance processes are creating socket
      with same<br>
      &gt;&gt; name) .<br>
      &gt;&gt; <br>
      &gt;&gt; I will send patch for this<br>
      &gt; I thought we were already in an agreement for this yesterday.
      IIRC,<br>
      &gt; the same is true for all other daemons. As of now we dont
      have any<br>
      &gt; tests which invoke daemons using cluster.rc<br>
      &gt; </span><br>
         ya .. yesterday we found that volfile server is the  problem ,
    I modified volfile server but still i was getting rebalance  status
    fail . Initially I thought some problem in rebalance process, later
    I found that rebalance not able send respond to to glusterd after
    completing rebalance due to unix socket file corruption  and  all
    rebalance  daemons are writing log into same log file .<br>
     I think there is no issue with other daemons  which are are using
    SVC framwork work.<br>
    <br>
    patch: <a class="moz-txt-link-freetext" href="http://review.gluster.org/#/c/11210/">http://review.gluster.org/#/c/11210/</a>  - this patch enable the
    writing test cases  for rebalance in cluster environment. <br>
    <br>
    <br>
    <span style="white-space: pre;">&gt;&gt; <br>
      &gt;&gt; Regards Anand.N<br>
      &gt;&gt;&gt; <br>
      &gt;&gt;&gt;&gt; <br>
      &gt;&gt;&gt; AFAIR Anand tried it in mainline and that fix was
      already in<br>
      &gt;&gt;&gt; place.  I think this is something different.<br>
      &gt;&gt;&gt;&gt; -- Raghavendra Talur<br>
      &gt;&gt;&gt;&gt; <br>
      &gt;&gt; <br>
      &gt;&gt; <br>
      &gt; </span><br>
    <br>
    <br>
  </body>
</html>