Samit,<br><br>List price in MX80 will be 40K for the model with fixed 48x RJ45 ports + 4x 10GbE XFP ports. A similarly built MLX-4 config will run at $79,730 (base chassis with 1 mgmt module, 2 fabric modules, 1 AC power+fan is $19,245. Then you need to add 1 4x10GbE XFP module at $27,495 and 2x MLX 20-port 1GbE RJ45 modules at $16,495 each). Now you may get a very nice discount from Brocade, but Juniper will be game as well in trying to market the MX80, so you may see some really nice discounts. Also, the MX80 is only 2U of space, and the MLX-4 is 4U.<br>
<br>Sincerely,<br><br>David.<br><br><div class="gmail_quote">On Mon, May 10, 2010 at 2:21 AM, Samit <span dir="ltr"><<a href="mailto:janasamit@wlink.com.np">janasamit@wlink.com.np</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
Hi,<br>
<br>
Do you think MX80 can match the price of MLX-4?  I seriously doubt.<br>
<br>
Regards,<br>
<font color="#888888">Samit<br>
</font><div><div></div><div class="h5"><br>
David Kotlerewsky wrote:<br>
> I'd say wait for MX80 to come out, and then compare the two. The MX80 will<br>
> have a much more attractive price point than the MX240. Then you can have a<br>
> decent comparison between say an MLX-4 and an MX80.<br>
><br>
> Sincerely,<br>
><br>
> David Kotlerewsky<br>
> Sr. Systems Engineer<br>
> InterVision Systems Technologies, Inc.<br>
> <a href="http://www.intervision.com" target="_blank">www.intervision.com</a><br>
><br>
> On Fri, May 7, 2010 at 12:56 PM, Debbie Fligor <<a href="mailto:fligor@illinois.edu">fligor@illinois.edu</a>> wrote:<br>
><br>
>> On May 7, 2010, at 6:21, Scott T. Cameron wrote:<br>
>><br>
>>> On the MLX side of things.  With a rather large Foundry switching<br>
>> environment, I and my team are very comfortable on that platform.  The<br>
>> switches just work, and the strangest problem I have seen interop problems<br>
>> with a Cisco -- and I blame Cisco for that.  We have had some struggles<br>
>> using the Foundry ServerIron due to a few bugs here and there.  I do,<br>
>> however, expect that a full layer3 stack is significantly less complicated<br>
>> of code than what the ServerIron is able to do, so should have less bugs.<br>
>><br>
>> Our backbone (core and distribution layers) are MLX routers (I'm at the<br>
>> Urbana campus). Our regional network that connects the three campuses are<br>
>> also MLX routers. I would not suggest you assume fewer bugs than you've seen<br>
>> in the ServerIrons.<br>
>><br>
>> We see much fewer headaches with their L2 devices typically than with their<br>
>> L3 devices, but we've moved to HP over the years for price/performance for<br>
>> most of our L2 access ports.  Our experience with BGP and OSPF is that those<br>
>> protocols are pretty solid.  ACLs are buggy, at least if you use them on a<br>
>> ve instead of a physical port, and PIM/MSDP is one of those things you keep<br>
>> your fingers crossed about with every single software upgrade, hoping that<br>
>> they fix more things than they break and that they will move forward in<br>
>> being fully standards compliant. mBGP (for multicast) is hit and miss, at<br>
>> least on our MPLS based regional network.  Some of that is config choices we<br>
>> made, some is their (apparent) lack of QA for anything multicast.<br>
>><br>
>> they are fast hardware switching, and they reboot fast though and they're<br>
>> usually pretty good about fixing problems once you finally nail down what<br>
>> the problem is. I'll echo what someone else said, if your needs are simple,<br>
>> they'll probably work fine.  I can't honestly recommend them if you run PIM<br>
>> or MSDP however, that has been (and still is) a nightmare to keep working<br>
>> correctly.<br>
>><br>
>> I can't compare to the Juniper MX, we've not got any of those.<br>
>><br>
>> -----<br>
>> -debbie<br>
>> Debbie Fligor, n9dn       Network Engineer, CITES, Univ. of Il<br>
>> email: <a href="mailto:fligor@illinois.edu">fligor@illinois.edu</a>          <<a href="http://www.uiuc.edu/ph/www/fligor" target="_blank">http://www.uiuc.edu/ph/www/fligor</a>><br>
>><br>
>><br>
>><br>
>><br>
>><br>
>><br>
>> _______________________________________________<br>
>> foundry-nsp mailing list<br>
>> <a href="mailto:foundry-nsp@puck.nether.net">foundry-nsp@puck.nether.net</a><br>
>> <a href="http://puck.nether.net/mailman/listinfo/foundry-nsp" target="_blank">http://puck.nether.net/mailman/listinfo/foundry-nsp</a><br>
>><br>
><br>
><br>
</div></div>> ------------------------------------------------------------------------<br>
<div><div></div><div class="h5">><br>
> _______________________________________________<br>
> foundry-nsp mailing list<br>
> <a href="mailto:foundry-nsp@puck.nether.net">foundry-nsp@puck.nether.net</a><br>
> <a href="http://puck.nether.net/mailman/listinfo/foundry-nsp" target="_blank">http://puck.nether.net/mailman/listinfo/foundry-nsp</a><br>
</div></div></blockquote></div><br>