<div dir="ltr"><div>I'll second Dennis.  Disabling icmp redirects is extremely important if you have multiple addresses on a single interface.</div><div><br></div><div>If you have a lot of routes, you may need to change your system-max values.  Run 'show default values' and look for ip-route and ip-cache values (and ipv6- equivalents).  The defaults are usually quite low (290k routes on our CER2024F's, this needs to fit your entire FIB).  Change with 'system-max <parameter> <value>', write mem, then reload.  On the MLX, you also have to worry about cam partitioning profiles.  The CER2024F may be able to handle 1.5M routes in the BGP RIB, but it has a HW max of 524288 in the FIB.<br></div><div><br></div><div>I have also seen a lot of lp-cpu usage caused by multicast traffic, especially with older code.</div><div><br></div><div>If you see high lp cpu again in the future, you can run 'dm pstat' a few times to try to get an idea of what kind of traffic you are receiving.  The first run is typically a throwaway, as it shows counts since the last run.  It gives per-PP stats, but I think the CERs only have one PP anyway.  If you are feeling brave, you can use 'rconsole' to connect to the LP and play with 'debug packet capture' (captures/displays packets that are hitting the lp cpu), but beware... I have had devices unexpectedly reboot playing with that.  Always specify a limit.<br></div><div><br></div><div>-- <br></div><div>Eldon<br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jun 22, 2018 at 10:06 AM, Dennis op de Weegh <span dir="ltr"><<a href="mailto:info@bitency.nl" target="_blank">info@bitency.nl</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Can you post your confg?<br>
<br>
LP load looks high.<br>
Try to disable icmp redirect in config:<br>
<br>
no ip icmp redirect<br>
<br>
It's a Brocade thing...<br>
<br>
<br>
<br>
Kind regards/Met vriendelijke groet,<br>
<br>
Dennis op de Weegh<br>
<br>
 <br>
<br>
Bitency<br>
Willem van Oranjestraat 9<br>
4931NJ Geertruidenberg<br>
 <br>
Kvk nummer: 20144338<br>
BTW nummer: NL213538519B01<br>
 <br>
W: <a href="http://www.bitency.nl" rel="noreferrer" target="_blank">www.bitency.nl</a><br>
E: <a href="mailto:info@bitency.nl">info@bitency.nl</a><br>
T: +31 (0)162 714066<br>
<br>
<br>
-----Oorspronkelijk bericht-----<br>
Van: foundry-nsp <<a href="mailto:foundry-nsp-bounces@puck.nether.net">foundry-nsp-bounces@puck.<wbr>nether.net</a>> Namens Frank Menzel<br>
Verzonden: vrijdag 22 juni 2018 17:57<br>
Aan: <a href="mailto:foundry-nsp@puck.nether.net">foundry-nsp@puck.nether.net</a><br>
Onderwerp: [f-nsp] OSPF and BGP flapping when enabling a certain amount of BGP neighbors<br>
<div class="HOEnZb"><div class="h5"><br>
Hi,<br>
<br>
  one of our CER2024F routers started to behave weird without noticeable reason, we didn't apply any changes before:<br>
<br>
A while ago the device showed up in out monitoring with flapping OSPF sessions caused by malformed packets and BGP sessions with expired hold-timers. This made the device to become unresponsive, so we disabled<br>
  most BGP sessions except the one to our transit partner and 4 iBPG sessions. This brought the device to an operational state again.<br>
<br>
In exchange we received a new identical device from our vendor and applied a configuration backup of the former device, but it behaves just like the old one when we took all sessions in service.<br>
<br>
To get an idea how many sessions are needed to cause issues we carefully took sessions of small networks in service one by one while observing cpu, memory usage and the number of routes installed. No issues occured, so we took two big sessions in service (DECIX route servers), again, nothing remarkable happened.<br>
Encouraged by that we simultaneously took 10 sessions in service and the ospf flapping started, so we disabled them and the device was able to cope with its workload again.<br>
To make sure we don't exceed the capabilities of the device we took those sessions in service one by one with a delay of 10 seconds, this did *not* cause OSPF flaps or BGP connections to restart, so we decided to take the last 10 remaining sessions in service at once again, which almost immediately caused OSPF flaps and BGP sessions to restart.<br>
Therefore we stopped all sessions we took in service before, except the transit partner and 4 iBGP sessions, but the flapping continued, the only way to get the CER to an operational state again was reloading it with most of the BGP sessions disabled by default.<br>
<br>
However, we were able to drag some information from the device during the last flapping, we didn't see a significant change in memory usage, but the load increased dramatically:<br>
<br>
SSH@CER(config-bgp)#sho cpu-utilization<br>
<br>
00:09:57 GMT+01 Fri Jun 22 2018<br>
<br>
... Usage average for all tasks in the last 1 seconds  ...<br>
==============================<wbr>============================<br>
Name                    us/sec          %<br>
<br>
idle                    0               0<br>
con                     35              0<br>
mon                     190             0<br>
flash                   44              0<br>
dbg                     39              0<br>
boot                    70              0<br>
main                    0               0<br>
itc                     0               0<br>
tmr                     4358            0<br>
ip_rx                   26720           2<br>
scp                     54              0<br>
lpagent                 357             0<br>
console                 324             0<br>
vlan                    0               0<br>
mac_mgr                 199             0<br>
mrp                     241             0<br>
vsrp                    0               0<br>
erp                     239             0<br>
mxrp                    127             0<br>
snms                    0               0<br>
rtm                     638             0<br>
rtm6                    301             0<br>
ip_tx                   11100           1<br>
rip                     0               0<br>
l2vpn                   0               0<br>
mpls                    0               0<br>
nht                     0               0<br>
mpls_glue               0               0<br>
pcep                    0               0<br>
bgp                     212773          21<br>
bgp_io                  240             0<br>
ospf                    1005            0<br>
ospf_r_calc             1193            0<br>
isis                    260             0<br>
isis_spf                0               0<br>
mcast                   460             0<br>
msdp                    23              0<br>
vrrp                    0               0<br>
ripng                   0               0<br>
ospf6                   667             0<br>
ospf6_rt                0               0<br>
mcast6                  557             0<br>
vrrp6                   0               0<br>
bfd                     20              0<br>
ipsec                   57              0<br>
l4                      0               0<br>
stp                     0               0<br>
gvrp_mgr                0               0<br>
snmp                    458             0<br>
rmon                    25              0<br>
web                     1573            0<br>
lacp                    4199            0<br>
dot1x                   0               0<br>
dot1ag                  177             0<br>
loop_detect             127             0<br>
ccp                     12              0<br>
cluster_mgr             131             0<br>
hw_access               0               0<br>
ntp                     22              0<br>
openflow_ofm            15              0<br>
openflow_opm            30              0<br>
dhcp6                   0               0<br>
sysmon                  0               0<br>
ospf_msg_task           0               0<br>
ssl                     0               0<br>
http_client             0               0<br>
lp                      723566          76<br>
LP-I2C                  35              0<br>
ssh_0                   84              0<br>
ssh_1                   2140            0<br>
ssh_2                   5072            0<br>
ssh_3                   43              0<br>
<br>
The documentation states the device is able to handle 1.5 Mio routes and we didn't get above this limit:<br>
<br>
SSH@CER(config-bgp)#show ip bgp route sum<br>
   Total number of BGP routes (NLRIs) Installed     : 1210135<br>
   Distinct BGP destination networks                : 697652<br>
   Filtered bgp routes for soft reconfig            : 394895<br>
   Routes originated by this router                 : 4<br>
   Routes selected as BEST routes                   : 410535<br>
   BEST routes not installed in IP forwarding table : 0<br>
   Unreachable routes (no IGP route for NEXTHOP)    : 0<br>
   IBGP routes selected as best routes              : 79640<br>
   EBGP routes selected as best routes              : 330891<br>
<br>
<br>
SSH@CER(config-bgp)#show ip route sum<br>
IP Routing Table - 410845 entries<br>
   8 connected, 11 static, 0 RIP, 294 OSPF, 410532 BGP, 0 ISIS<br>
   Number of prefixes:<br>
   /0: 1 /4: 1 /8: 16 /9: 11 /10: 36 /11: 99 /12: 291 /13: 565 /14: 1099<br>
/15: 1924 /16: 13355 /17: 7910 /18: 13673 /19: 24926 /20: 38033 /21: <br>
44870 /22: 86917 /23: 70274 /24: 106572 /25: 12 /26: 11 /27: 25 /28: 21<br>
/29: 21 /30: 67 /32: 115<br>
Nexthop Table Entry - 682 entries<br>
<br>
Can anybody give me some hint what could cause the behaviour described above or what to investigate to tackle that issue?<br>
<br>
<br>
  --<br>
  Frank Menzel - <a href="mailto:menzel@sipgate.de">menzel@sipgate.de</a><br>
<br>
  sipgate GmbH - Gladbacher Str. 74 - 40219 Düsseldorf<br>
  HRB Düsseldorf 39841 - Geschäftsführer: Thilo Salmon, Tim Mois<br>
  Steuernummer: 106/5724/7147, Umsatzsteuer-ID: DE219349391<br>
<br>
<a href="http://www.sipgate.de" rel="noreferrer" target="_blank">http://www.sipgate.de</a> - <a href="http://www.sipgate.co.uk" rel="noreferrer" target="_blank">http://www.sipgate.co.uk</a><br>
______________________________<wbr>_________________<br>
foundry-nsp mailing list<br>
<a href="mailto:foundry-nsp@puck.nether.net">foundry-nsp@puck.nether.net</a><br>
<a href="http://puck.nether.net/mailman/listinfo/foundry-nsp" rel="noreferrer" target="_blank">http://puck.nether.net/<wbr>mailman/listinfo/foundry-nsp</a><br>
______________________________<wbr>_________________<br>
foundry-nsp mailing list<br>
<a href="mailto:foundry-nsp@puck.nether.net">foundry-nsp@puck.nether.net</a><br>
<a href="http://puck.nether.net/mailman/listinfo/foundry-nsp" rel="noreferrer" target="_blank">http://puck.nether.net/<wbr>mailman/listinfo/foundry-nsp</a><br>
</div></div></blockquote></div><br></div>