<html><head><meta http-equiv="Content-Type" content="text/html charset=us-ascii"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">+1 :)<div class=""><br class=""></div><div class=""><br class=""><div><div class="">On 19 Apr 2017, at 4:40 PM, Iain Robertson <<a href="mailto:iain.robertson@gmail.com" class="">iain.robertson@gmail.com</a>> wrote:</div><br class="Apple-interchange-newline"><div class=""><div dir="ltr" class="">Are all unused interfaces in the disabled state?<div class=""><br class=""></div><div class="">I've seen a circumstance where, with some optics, an enabled interface with no remote device connected to it results in high LP CPU on the affected line cards.  Workaround in that case was to ensure that all disused/disconnected interfaces are disabled.</div><div class=""><br class=""></div><div class=""><br class=""></div></div><div class="gmail_extra"><br class=""><div class="gmail_quote">On 19 April 2017 at 14:40, Joe Lao <span dir="ltr" class=""><<a href="mailto:Joelao8392@mail.com" target="_blank" class="">Joelao8392@mail.com</a>></span> wrote:<br class=""><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class=""><div style="font-family:Verdana;font-size:12.0px" class=""><div class="">
<div class="">Boot     : Version 5.6.0T165 Copyright</div>

<div class=""> </div>

<div class="">(config)#sh conf | inc icmp<br class="">
no ip icmp redirects</div>

<div class=""> </div>

<div class="">on both</div>

<div class=""> </div>

<div class=""> </div>

<div class=""> 
<div name="quote" style="margin:10px 5px 5px 10px;padding:10px 0 10px 10px;border-left:2px solid #c3d9e5;word-wrap:break-word" class="">
<div style="margin:0 0 10px 0" class=""><b class="">Sent:</b> Wednesday, April 19, 2017 at 8:57 AM<br class="">
<b class="">From:</b> "Eldon Koyle" <<a href="mailto:ekoyle%2Bpuck.nether.net@gmail.com" target="_blank" class="">ekoyle+puck.nether.net@gmail.<wbr class="">com</a>><br class="">
<b class="">To:</b> "Joe Lao" <<a href="mailto:Joelao8392@mail.com" target="_blank" class="">Joelao8392@mail.com</a>><br class="">
<b class="">Cc:</b> foundry-nsp <<a href="mailto:foundry-nsp@puck.nether.net" target="_blank" class="">foundry-nsp@puck.nether.net</a>><br class="">
<b class="">Subject:</b> Re: [f-nsp] High CPU MLX-4</div><div class=""><div class="h5">

<div name="quoted-content" class="">
<div class="">Have you disabled icmp redirects?  That is a common cause of unexplained high cpu utilization.  I think the command is: no ip redirect (either interface or global).
<div class=""> </div>

<div class="">Also, which code version are you running?</div>

<div class="">
<div class=""> </div>

<div class="">-- </div>

<div class="">Eldon</div>
</div>
</div>

<div class="gmail_extra"> 
<div class="gmail_quote">On Apr 18, 2017 7:14 PM, "Joe Lao" <<a href="mailto:Joelao8392@mail.com" target="_blank" class="">Joelao8392@mail.com</a>> wrote:

<blockquote class="gmail_quote" style="margin:0 0 0 0.8ex;border-left:1.0px rgb(204,204,204) solid;padding-left:1.0ex">
<div class="">
<div style="font-family:Verdana;font-size:12.0px" class="">
<div class="">Hello List</div>

<div class=""> </div>

<div class="">My colleague posted on this list last month about a LP CPU issue experienced on MLX routers with GRE tunnels</div>

<div class=""> </div>

<div class="">The issue did not resolve itself instead we asked our customers to not send outbound traffic through us</div>

<div class=""> </div>

<div class="">However a new issue has arised</div>

<div class=""> </div>

<div class=""> </div>

<div class="">Our topography is as follows</div>

<div class=""> </div>

<div class="">CARRIER A -----> MLX-4-1 ---- MLX-4-2 ----> CARRIER B .. Carrier B connection is specifically designed to tank attacks, carrier A backhauls clean/protected traffic</div>

<div class=""> </div>

<div class="">MLX-4-2 holds our GRE tunnels</div>

<div class=""> </div>

<div class=""> </div>

<div class="">Now we are seeing 95% LP CPU on MLX-4-1 and a packet capture shows only GRE packets from MLX-4-2 destined for the customers GRE endpoint</div>

<div class=""> </div>

<div class=""><br class="">
SLOT  #:               LP CPU UTILIZATION in  %:<br class="">
             in 1 second:  in 5 seconds:  in 60 seconds: in 300 seconds:<br class="">
     1:        94            94             94              94</div>

<div class=""> </div>

<div class=""> </div>

<div class="">LP-1#show tasks<br class="">
  Task Name       Pri  State  PC        Stack       Size  CPU Usage(%)  task vid<br class="">
  --------------  ---  -----  --------  --------  ------  ------------  --------<br class="">
  con              27  wait   0005c710  040c5dc8   32768             0  0<br class="">
  mon              31  wait   0005c710  041b7f10    8192             0  0<br class="">
  flash            20  wait   0005c710  041c6f40    8192             0  0<br class="">
  dbg              30  wait   0005c710  041beec0   16384             0  0<br class="">
  main              3  wait   0005c710  23cc6f40  262144             1  101<br class="">
  LP-I2C            3  wait   0005c710  27d70ee0    4096             0  101<br class="">
  LP-Assist         3  wait   0005c710  29bbef00   32768             0  101<br class="">
  LP-FCopy          3  wait   0005c710  29bc3f00   16384             0  101<br class="">
  LP-VPLS-Offld     3  wait   0005c710  29bc8f00   16384             0  101<br class="">
  LP-OF-Offld       3  wait   0005c710  29bcdf00   16384             0  101<br class="">
  LP-TM-Offld       3  wait   0005c710  29bd2f00   16384             0  101<br class="">
  LP-Stats          3  wait   0005c710  29bd7f60   16384             0  101<br class="">
  LP-IPC            3  wait   0005c710  29c18f00  262144             0  101<br class="">
  LP-TX-Pak         3  wait   0005c710  29c21f00   32768             0  101<br class="">
  LP-RX-Pak         3  wait   0005c710  29c42f38  <a href="tel:13%2010%2072" value="+61131072" target="_blank" class="">131072</a>            97  101<br class="">
  LP-SYS-Mon        3  wait   0005c710  29c47f28   16384             0  101<br class="">
  LP-RTD-Mon        3  wait   0005c710  29c4cf08   16384             0  101<br class="">
  LP-Console        3  ready  20b636c0  29c6df78  <a href="tel:13%2010%2072" value="+61131072" target="_blank" class="">131072</a>             0  101<br class="">
  LP-CPU-Mon        3  wait   0005c710  29c96f40  163840             0  101</div>

<div class=""> </div>

<div class=""> </div>

<div class="">MLX-4-2       Client GRE endpoint</div>

<div class="">xxxxxxxx -> xxxxx [Protocol:47]<br class="">
******************************<wbr class="">******************************<wbr class="">**********<br class="">
[ppcr_rx_packet]: Packet received<br class="">
Time stamp : 00 day(s) 00h 14m 33s:,<br class="">
TM Header: [ 8026 2000 0000 ]<br class="">
Type: Fabric Unicast(0x00000008) Size: 152 Parity: 2 Src IF: 0<br class="">
Src Fap: 0 Dest Port: 0  Src Type: 0 Class: 0x00000000<br class="">
******************************<wbr class="">******************************<wbr class="">**********<br class="">
Packet size: 146, XPP reason code: 0x00004747</div>

<div class=""> </div>

<div class="">Traffic levels are very low , the connection to carrier A shows approximately 40Mbps</div>

<div class=""> </div>

<div class="">LP CPU on MLX-4-2 is</div>

<div class=""> </div>

<div class="">SLOT  #:               LP CPU UTILIZATION in  %:<br class="">
             in 1 second:  in 5 seconds:  in 60 seconds: in 300 seconds:<br class="">
     1:        1             1              1               1 </div>

<div class=""> </div>

<div class=""> </div>

<div class="">As a test I shut the port between MLX-4-1 and MLX-4-2  immediately CPU usage dropped to 1% on MLX-4-1</div>

<div class=""> </div>

<div class=""> </div>

<div class="">No protocols over GRE tunnel we announce /24 and such and route throught the tunnel using static route</div>

<div class=""> </div>

<div class=""> </div>

<div class=""> </div>

<div class="">Show port on MLX-4-1 to MLX-4-2</div>

<div class=""> </div>

<div class="">  Port is not enabled to receive all vlan packets for pbr<br class="">
  MTU 1548 bytes, encapsulation ethernet<br class="">
  Openflow: Disabled, Openflow Index 1<br class="">
  Cluster L2 protocol forwarding enabled<br class="">
  300 second input rate: 64599535 bits/sec, 61494 packets/sec, 0.74% utilization<br class="">
  300 second output rate: 2468 bits/sec, 4 packets/sec, 0.00% utilization<br class="">
  82862765 packets input, 10844340289 bytes, 0 no buffer<br class="">
  Received 25656 broadcasts, 27667 multicasts, 82809442 unicasts<br class="">
  0 input errors, 0 CRC, 0 frame, 0 ignored                       <br class="">
  0 runts, 0 giants<br class="">
  NP received 82871502 packets, Sent to TM 82860777 packets<br class="">
  NP Ingress dropped 10729 packets<br class="">
  9484 packets output, 726421 bytes, 0 underruns<br class="">
  Transmitted 127 broadcasts, 553 multicasts, 8804 unicasts<br class="">
  0 output errors, 0 collisions<br class="">
  NP transmitted 9485 packets, Received from TM 48717 packets</div>

<div class=""> </div>

<div class="">Show port on MLX-4-2 to MLX-4-1</div>

<div class=""> </div>

<div class="">Port is not enabled to receive all vlan packets for pbr<br class="">
  MTU 1548 bytes, encapsulation ethernet<br class="">
  Openflow: Disabled, Openflow Index 1<br class="">
  Cluster L2 protocol forwarding enabled<br class="">
  300 second input rate: 2416 bits/sec, 3 packets/sec, 0.00% utilization<br class="">
  300 second output rate: 64189791 bits/sec, 61109 packets/sec, 0.74% utilization<br class="">
  <a class="">5105571056</a> packets input, 760042160157 bytes, 0 no buffer<br class="">
  Received 1874232 broadcasts, 5287030 multicasts, <a class="">5098409794</a> unicasts<br class="">
  0 input errors, 0 CRC, 0 frame, 0 ignored                       <br class="">
  0 runts, 0 giants<br class="">
  NP received <a class="">5105571056</a> packets, Sent to TM <a class="">5105113719</a> packets<br class="">
  NP Ingress dropped 457337 packets<br class="">
  590086066756 packets output, 81697023432476 bytes, 0 underruns<br class="">
  Transmitted 129784095 broadcasts, 208762136 multicasts, 589747520525 unicasts<br class="">
  0 output errors, 0 collisions<br class="">
  NP transmitted 590086072891 packets, Received from TM 590091974310 packets</div>

<div class=""> </div>

<div class=""> </div>

<div class="">Cheers</div>

<div class=""> </div>
</div>
</div>
<br class="">
______________________________<wbr class="">_________________<br class="">
foundry-nsp mailing list<br class="">
<a href="mailto:foundry-nsp@puck.nether.net" target="_blank" class="">foundry-nsp@puck.nether.net</a><br class="">
<a href="http://puck.nether.net/mailman/listinfo/foundry-nsp" target="_blank" class="">http://puck.nether.net/<wbr class="">mailman/listinfo/foundry-nsp</a></blockquote>
</div>
</div>
</div>
</div></div></div>
</div>
</div></div></div>
<br class="">______________________________<wbr class="">_________________<br class="">
foundry-nsp mailing list<br class="">
<a href="mailto:foundry-nsp@puck.nether.net" class="">foundry-nsp@puck.nether.net</a><br class="">
<a href="http://puck.nether.net/mailman/listinfo/foundry-nsp" rel="noreferrer" target="_blank" class="">http://puck.nether.net/<wbr class="">mailman/listinfo/foundry-nsp</a><br class=""></blockquote></div><br class=""></div>
_______________________________________________<br class="">foundry-nsp mailing list<br class=""><a href="mailto:foundry-nsp@puck.nether.net" class="">foundry-nsp@puck.nether.net</a><br class="">http://puck.nether.net/mailman/listinfo/foundry-nsp</div></div><br class=""></div></body></html>