<p dir="ltr">I remember having a lot of trouble with multicast.  I don't have the docs handy, but I think there are some multicast cpu-protection commands you could try.</p>
<p dir="ltr">-- <br>
Eldon Koyle</p>
<div class="gmail_quote">On Mar 29, 2016 9:21 PM, "Eldon Koyle" <<a href="mailto:ekoyle@gmail.com">ekoyle@gmail.com</a>> wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr">I remember having a lot of trouble with multicast.  I don't have the docs handy, but I think there are some multicast cpu-protection commands you could try.</p>
<p dir="ltr">-- <br>
Eldon Koyle<br>
</p>
<div class="gmail_quote">On Mar 29, 2016 6:20 AM, "Alexander Shikoff" <<a href="mailto:minotaur@crete.org.ua" target="_blank">minotaur@crete.org.ua</a>> wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello!<br>
<br>
I have some VLANs configured between certain ports on MLXe box (MLXe-16, 5.7.0e).<br>
All ports are in 'no route-only' mode. For example:<br>
<br>
<a href="mailto:telnet@lsr1-gdr.ki" target="_blank">telnet@lsr1-gdr.ki</a>(config)#show vlan 720<br>
<br>
PORT-VLAN 720, Name V720, Priority Level 0, Priority Force 0, Creation Type STATIC<br>
Topo HW idx    : 65535    Topo SW idx: 257    Topo next vlan: 0<br>
L2 protocols   : NONE<br>
Statically tagged Ports    : ethe 7/1 ethe 9/5 ethe 10/6 ethe 11/6 ethe 13/3<br>
Associated Virtual Interface Id: NONE<br>
----------------------------------------------------------<br>
Port  Type      Tag-Mode  Protocol  State<br>
7/1   TRUNK     TAGGED    NONE      FORWARDING<br>
9/5   TRUNK     TAGGED    NONE      FORWARDING<br>
10/6  TRUNK     TAGGED    NONE      FORWARDING<br>
11/6  TRUNK     TAGGED    NONE      FORWARDING<br>
13/3  PHYSICAL  TAGGED    NONE      FORWARDING<br>
Arp Inspection: 0<br>
DHCP Snooping: 0<br>
IPv4 Multicast Snooping: Enabled - Passive<br>
IPv6 Multicast Snooping: Disabled<br>
<br>
No Virtual Interfaces configured for this vlan<br>
<br>
<br>
<br>
As you may notice, passive multicast snooping is enabled on that VLAN.<br>
The problem is that multicast traffic is being switched by LP CPU,<br>
causing high CPU utilization and packet loss.<br>
<br>
It is clearly seen on rconsole:<br>
<br>
LP-11#debug packet capture rx include src-port me/6 vlan-id 720 dst-address 233.191.133.96<br>
[...]<br>
**********************************************************************<br>
[ppcr_tx_packet] ACTION: Forward packet using fid 0xa06d<br>
[ppcr_rx_packet]: Packet received<br>
Time stamp : 56 day(s) 20h 48m 05s:,<br>
TM Header: [ 0564 0aa3 0080 ]<br>
Type: Fabric Unicast(0x00000000) Size: 1380 Class: 0 Src sys port: 2723<br>
Dest Port: 0  Drop Prec: 2 Ing Q Sig: 0 Out mirr dis: 0x0 Excl src: 0 Sys mc: 0<br>
**********************************************************************<br>
Packet size: 1374, XPP reason code: 0x000095cc<br>
00: 05f0 0003 5c50 02d0-7941 fffe 8000 0000  FID     = 0x05f0<br>
10: 0100 5e3f 85b0 e4d3-f17d a7c5 0800 4516  Offset  = 0x10<br>
20: 0540 0000 4000 7e11-f89f b060 df26 e9bf  VLAN    = 720(0x02d0)<br>
30: 85b0 04d2 04d2 052c-0000 4701 3717 8134  CAM     = 0x0ffff(R)<br>
40: 01d0 92de c56f 18f6-dc4f 8d00 1273 cdb3  SFLOW   = 0<br>
50: c3ff 3da8 2600 5a37-cfbe 993f dbfd c927  DBL TAG = 0<br>
60: 8000 8290 ef9b 7638-9089 9a50 5000 8611<br>
70: 2026 0079 8de2 a404-1013 dffd 04e0 1404<br>
Pri CPU MON SRC   PType US BRD DAV SAV DPV SV ER TXA SAS Tag MVID<br>
0   0   0   11/6  3     0  1   0   1   1   1  0  0   0   1   0<br>
<br>
176.96.223.38 -> 233.191.133.176 UDP [1234 -> 1234]<br>
**********************************************************************<br>
<br>
As far as I understand documentation that should not happen.<br>
The situation remains the same if I disable IGMP snooping.<br>
<br>
Any ideas/suggestions is kindly appreciated!<br>
<br>
Thanks in advance.<br>
<br>
--<br>
MINO-RIPE<br>
_______________________________________________<br>
foundry-nsp mailing list<br>
<a href="mailto:foundry-nsp@puck.nether.net" target="_blank">foundry-nsp@puck.nether.net</a><br>
<a href="http://puck.nether.net/mailman/listinfo/foundry-nsp" rel="noreferrer" target="_blank">http://puck.nether.net/mailman/listinfo/foundry-nsp</a><br>
</blockquote></div>
</blockquote></div>