Ah, good point, but... the MX80 will support RE redundancy via a Virtual Chassis technology with another MX80, so not only RE redundancy, bu chassis redundancy as well, which ios not something you can get with a single MLX.<br>
<br><div class="gmail_quote">On Fri, May 7, 2010 at 2:51 PM, David Ball <span dir="ltr"><<a href="mailto:davidtball@gmail.com">davidtball@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
    ...except that the MX80 won't have redundant REs (mgmnt modules)<br>
or switch fabrics like the MLX does.<br>
<font color="#888888"><br>
D<br>
</font><div><div></div><div class="h5"><br>
<br>
On 7 May 2010 14:38, David Kotlerewsky <<a href="mailto:webnetwiz@gmail.com">webnetwiz@gmail.com</a>> wrote:<br>
> I'd say wait for MX80 to come out, and then compare the two. The MX80 will<br>
> have a much more attractive price point than the MX240. Then you can have a<br>
> decent comparison between say an MLX-4 and an MX80.<br>
><br>
> Sincerely,<br>
><br>
> David Kotlerewsky<br>
> Sr. Systems Engineer<br>
> InterVision Systems Technologies, Inc.<br>
> <a href="http://www.intervision.com" target="_blank">www.intervision.com</a><br>
><br>
> On Fri, May 7, 2010 at 12:56 PM, Debbie Fligor <<a href="mailto:fligor@illinois.edu">fligor@illinois.edu</a>> wrote:<br>
>><br>
>> On May 7, 2010, at 6:21, Scott T. Cameron wrote:<br>
>><br>
>> ><br>
>> > On the MLX side of things.  With a rather large Foundry switching<br>
>> > environment, I and my team are very comfortable on that platform.  The<br>
>> > switches just work, and the strangest problem I have seen interop problems<br>
>> > with a Cisco -- and I blame Cisco for that.  We have had some struggles<br>
>> > using the Foundry ServerIron due to a few bugs here and there.  I do,<br>
>> > however, expect that a full layer3 stack is significantly less complicated<br>
>> > of code than what the ServerIron is able to do, so should have less bugs.<br>
>> ><br>
>><br>
>><br>
>> Our backbone (core and distribution layers) are MLX routers (I'm at the<br>
>> Urbana campus). Our regional network that connects the three campuses are<br>
>> also MLX routers. I would not suggest you assume fewer bugs than you've seen<br>
>> in the ServerIrons.<br>
>><br>
>> We see much fewer headaches with their L2 devices typically than with<br>
>> their L3 devices, but we've moved to HP over the years for price/performance<br>
>> for most of our L2 access ports.  Our experience with BGP and OSPF is that<br>
>> those protocols are pretty solid.  ACLs are buggy, at least if you use them<br>
>> on a ve instead of a physical port, and PIM/MSDP is one of those things you<br>
>> keep your fingers crossed about with every single software upgrade, hoping<br>
>> that they fix more things than they break and that they will move forward in<br>
>> being fully standards compliant. mBGP (for multicast) is hit and miss, at<br>
>> least on our MPLS based regional network.  Some of that is config choices we<br>
>> made, some is their (apparent) lack of QA for anything multicast.<br>
>><br>
>> they are fast hardware switching, and they reboot fast though and they're<br>
>> usually pretty good about fixing problems once you finally nail down what<br>
>> the problem is. I'll echo what someone else said, if your needs are simple,<br>
>> they'll probably work fine.  I can't honestly recommend them if you run PIM<br>
>> or MSDP however, that has been (and still is) a nightmare to keep working<br>
>> correctly.<br>
>><br>
>> I can't compare to the Juniper MX, we've not got any of those.<br>
>><br>
>> -----<br>
>> -debbie<br>
>> Debbie Fligor, n9dn       Network Engineer, CITES, Univ. of Il<br>
>> email: <a href="mailto:fligor@illinois.edu">fligor@illinois.edu</a>          <<a href="http://www.uiuc.edu/ph/www/fligor" target="_blank">http://www.uiuc.edu/ph/www/fligor</a>><br>
>><br>
>><br>
>><br>
>><br>
>><br>
>><br>
>> _______________________________________________<br>
>> foundry-nsp mailing list<br>
>> <a href="mailto:foundry-nsp@puck.nether.net">foundry-nsp@puck.nether.net</a><br>
>> <a href="http://puck.nether.net/mailman/listinfo/foundry-nsp" target="_blank">http://puck.nether.net/mailman/listinfo/foundry-nsp</a><br>
><br>
><br>
> _______________________________________________<br>
> foundry-nsp mailing list<br>
> <a href="mailto:foundry-nsp@puck.nether.net">foundry-nsp@puck.nether.net</a><br>
> <a href="http://puck.nether.net/mailman/listinfo/foundry-nsp" target="_blank">http://puck.nether.net/mailman/listinfo/foundry-nsp</a><br>
><br>
</div></div></blockquote></div><br>