<div>Dear Niels</div>
<div> </div>
<div>Sorry for the late reply,</div>
<div> </div>
<div>Actually i have BigIron 15000 with JetCore Gig Copper Module and JetCore Copper E Module (48 Port FastEthernet).</div>
<div> </div>
<div>Initailly i go for Aggregated (trunk) interfaces, but it wont work for me. it is poosible that im missing something in it. This is my scenario,</div>
<div> </div>
<div>UpStream --- Juniper M5 === BigIron 15000 ------ Connected to Other PoPs/Clients/Servers on Fiber and Ethernet</div>
<div> </div>
<div>Now the Downward traffic from upstream to my PoPs and Client is arround 90Mbps and will gonna incerase.... i want to terminate bigIron 2 FastEthernet (as M5 has 4 port FE PIC) to M5 and want to do Etherchannel or Trunk between M5 and BigIron to do proper loadbalancing.......
</div>
<div> </div>
<div>Now what happen....aggregate link has been successfully established but when the traffic is through over it.....it goes like this......</div>
<div> </div>
<div>Juniper-M5-FE1-input = 2Mbps , Juniper-M5-FE1-output = 0 </div>
<div>Juniper-M5-FE2-input = 0         , Juniper-M5-FE2-output = 2Mbps</div>
<div> </div>
<div>same on Foundry ethernet interfaces.....it is possible that it is due to the algo used but it will be surely based on Dest/Src IP address or Dest/Src MAC address.</div>
<div> </div>
<div>But this is not loadbalancing......!</div>
<div> </div>
<div>Kindly if you ever try it......kindly send me the sample config...so i can verify it with mine...... </div>
<div> </div>
<div>Thanks </div>
<div> </div>
<div>Fahad </div>
<div><br><br> </div>
<div><span class="gmail_quote">On 10/6/06, <b class="gmail_sendername">Niels Bakker</b> <niels=<a href="mailto:foundry-nsp@bakker.net">foundry-nsp@bakker.net</a>> wrote:</span>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid">* <a href="mailto:fahad.alikhan@gmail.com">fahad.alikhan@gmail.com</a> (FAHAD ALI KHAN) [Fri 06 Oct 2006, 05:50 CEST]:
<br>>We have installed BigIron 15000 in our network. My question is does it<br>>support per packet load balancing as Cisco does or it has per packet<br>>load balancing as Juniper.<br>><br>>As im seeing, it is doing network based load balanced by default which
<br>>is a per flow actually. Does any one help me in this regard.<br><br>You fail to mention some useful information, such as whether you have<br>IronCore or JetCore, whether you're using 10GE or not, if you're trying<br>
to build aggregated links or do equal-cost multipathing.<br><br>Per-packet load-balancing can lead to packet reordering, which is<br>generally considered a bad thing.<br><br>Juniper doesn't do per-packet, what is called per-packet is actually
<br>per-flow on IPII and up (and you are in trouble if you still try to do<br>something useful with an IP 1).<br><br>JetCore supports switch and server trunks (aggregated links,<br>Port-channel in Cisco talk).  The algorithm for the former looks at the
<br>destination MAC address of each frame and puts it on a member port in<br>the trunk based on a hash of it; a server trunk hashes source and<br>destination MAC addresses, and depending on software release also on<br>source and destination IP address and TCP/UDP port numbers. (Multicast
<br>is always sent down the primary port.)<br><br>I can't think of a case where a switch trunk is preferable over a server<br>trunk.<br><br>I understand that for the RX platform the frame is XORed and then sent<br>down the appropriate modulo port; thus you can have a good distribution
<br>over aggregated links with an amount of member ports that is not a power<br>of two.<br><br><br>       -- Niels.<br><br>--<br>_______________________________________________<br>foundry-nsp mailing list<br><a href="mailto:foundry-nsp@puck.nether.net">
foundry-nsp@puck.nether.net</a><br><a href="http://puck.nether.net/mailman/listinfo/foundry-nsp">http://puck.nether.net/mailman/listinfo/foundry-nsp</a><br></blockquote></div><br>