<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">The FLS switches do something weird
      with packets. I've noticed they somehow interfere with changing
      the MSS window size dynamically, resulting in destinations further
      away having very poor speed results compared to destinations close
      by. <br>
      <br>
      We got rid of those a while ago.<br>
      <br>
      <br>
      On 12/02/15 17:37, <a class="moz-txt-link-abbreviated" href="mailto:nethub@gmail.com">nethub@gmail.com</a> wrote:<br>
    </div>
    <blockquote cite="mid:041101d046ea$97b1ae00$c7150a00$@gmail.com"
      type="cite">
      <meta http-equiv="Content-Type" content="text/html;
        charset=windows-1252">
      <meta name="Generator" content="Microsoft Word 14 (filtered
        medium)">
      <style><!--
/* Font Definitions */
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri","sans-serif";}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:purple;
        text-decoration:underline;}
span.EmailStyle17
        {mso-style-type:personal-compose;
        font-family:"Calibri","sans-serif";
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri","sans-serif";}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]-->
      <div class="WordSection1">
        <p class="MsoNormal">We are having a strange issue on our MLX
          running code 5.6.00c.  We are encountering some throughput
          issues that seem to be randomly impacting specific networks.<o:p></o:p></p>
        <p class="MsoNormal"><o:p> </o:p></p>
        <p class="MsoNormal">We use the MLX to handle both external BGP
          and internal VLAN routing.  Each FLS648 is used for Layer 2
          VLANs only.<o:p></o:p></p>
        <p class="MsoNormal"><o:p> </o:p></p>
        <p class="MsoNormal">From a server connected by 1 Gbps uplink to
          a Foundry FLS648 switch, which is then connected to the MLX on
          a 10 Gbps port, running a speed test to an external network is
          getting 20MB/s.<o:p></o:p></p>
        <p class="MsoNormal"><o:p> </o:p></p>
        <p class="MsoNormal">Connecting the same server directly to the
          MLX is getting 70MB/s.<o:p></o:p></p>
        <p class="MsoNormal"><o:p> </o:p></p>
        <p class="MsoNormal">Connecting the same server to one of my
          customer's Juniper EX3200 (which BGP peers with the MLX) also
          gets 70MB/s.<o:p></o:p></p>
        <p class="MsoNormal"><o:p> </o:p></p>
        <p class="MsoNormal">Testing to another external network, all
          three scenarios get 110MB/s.<o:p></o:p></p>
        <p class="MsoNormal"><o:p> </o:p></p>
        <p class="MsoNormal">The path to both test network locations
          goes through the same IP transit provider.<o:p></o:p></p>
        <p class="MsoNormal"><o:p> </o:p></p>
        <p class="MsoNormal">We are running NI-MLX-MR with 2GB RAM,
          NI-MLX-10Gx4 connect to the Foundry FLS648 by XFP-10G-LR,
          NI-MLX-1Gx20-GC was used for directly connecting the server. 
          A separate NI-MLX-10Gx4 connects to our upstream BGP
          providers.  Customer’s Juniper EX3200 connects to the same
          NI-MLX-10Gx4 as the FLS648.  We take default routes plus full
          tables from three providers by BGP, but filter out most of the
          routes.<o:p></o:p></p>
        <p class="MsoNormal"><o:p> </o:p></p>
        <p class="MsoNormal">The fiber and optics on everything look
          fine.  CPU usage is less than 10% on the MLX and all line
          cards and CPU usage at 1% on the FLS648.  ARP table on the MLX
          is about 12K, and BGP table is about 308K routes.<o:p></o:p></p>
        <p class="MsoNormal"><o:p> </o:p></p>
        <p class="MsoNormal">Any assistance would be appreciated.  I
          suspect there is a setting that we’re missing on the MLX that
          is causing this issue.<o:p></o:p></p>
      </div>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
foundry-nsp mailing list
<a class="moz-txt-link-abbreviated" href="mailto:foundry-nsp@puck.nether.net">foundry-nsp@puck.nether.net</a>
<a class="moz-txt-link-freetext" href="http://puck.nether.net/mailman/listinfo/foundry-nsp">http://puck.nether.net/mailman/listinfo/foundry-nsp</a></pre>
    </blockquote>
    <br>
    <br>
    <pre class="moz-signature" cols="72">-- 

Jeroen Wunnink
IP NOC Manager - Hibernia Networks
Main numbers (Ext: 1011): USA +1.908.516.4200 | UK +44.1704.322.300 
Netherlands +31.208.200.622 | 24/7 IP NOC Phone: +31.20.82.00.623
<a class="moz-txt-link-abbreviated" href="mailto:jeroen.wunnink@hibernianetworks.com">jeroen.wunnink@hibernianetworks.com</a>
<a class="moz-txt-link-abbreviated" href="http://www.hibernianetworks.com">www.hibernianetworks.com</a>
</pre>
  </body>
</html>