<div>Dear Niels</div>
<div> </div>
<div>BigIron 15000 and M5 connected back to back as a L3 link, and we have Router Flash code in BigIron.</div>
<div> </div>
<div>Lacp trunking protocol is used to dynamically create the aggregate link between M5 and BigIron</div>
<div> </div>
<div>Regarding bandwidth mention 2Mbps and 90 Mbps is that, 90Mbps is a real traffic which is in my operational Network, what i have done do the same replication in my test lab and simulate the required scenario, so the traffic flowing throughing that time is arround 2Mbps.
</div>
<div> </div>
<div>The configuration done on my end is like that</div>
<div> </div>
<div>BigIron 15000</div>
<div> </div>
<div>BigIron (config)# interface ethernet 4/1</div>
<div>BigIron (config-if-e100-4/1)# link-aggregate configure key 10000</div>
<div>BigIron (config-if-e100-4/1)# link-aggregate active</div>
<div>
<div>BigIron (config)# interface ethernet 4/1</div>
<div>BigIron (config-if-e100-4/2)# link-aggregate configure key 10000</div>
<div>BigIron (config-if-e100-4/2)# link-aggregate active</div>
<div>BigIron (config)# vlan 10 name aggregate-link</div>
<div>BigIron (config-vlan-10)#untag eth 4/1 to eth 4/2</div>
<div>BigIron (config-vlan-10)#router-interface ve 10</div>
<div>BigIron (config)#interface ve 10</div>
<div>BigIron (config-vif-14)#ip address <a href="http://192.168.0.1">192.168.0.1</a> <a href="http://255.255.255.252">255.255.255.252</a></div>
<div> </div>
<div>M5</div>
<div> </div>
<div>chassis<br>aggregated-devices {<br>    ethernet {<br>        device-count 2;<br>    }<br>}<br> </div>
<div><pre class="Example2">[edit interfaces]
fe-0/0/0 {
  fastether-options {
      802.3ad ae0;
 }
}</pre><pre class="Example2">fe-0/0/1{<br>  fastether-options {<br>      802.3ad ae0;<br> }<br>}<br>
ae0 {
   aggregated-ether-options {
       lacp {
           active;          // also check with passive state at Juniper end (results same)
       }
   }
    unit 0 {
     family inet {
       address <a href="http://192.168.0.2/30">192.168.0.2/30</a> {
      }
  }
}
</pre><pre class="Example2">routing-options {<br>    autonomous-system <i>abcde</i>;<br>    forwarding-table {<br>        export [ load-balance ];<br>    }<br>}<br>policy-options {<br>    policy-statement load-balance {<br>
        then {<br>            load-balance per-packet;<br>        }<br>    }<br>}<br>forwarding-options {<br>    hash-key {<br>        family inet {<br>            layer-3;<br>            layer-4;<br>        }<br>    }<br>
}<br>hash-key {<br>    family inet {<br>        layer-3 {<br>            destination-address;<br>            protocol;<br>            source-address;<br>        }<br>        layer-4 {<br>            destination-port;<br>            source-port;
<br>            type-of-service;<br>        }<br>    }<br>}<br></pre><pre class="Example2">Aggregated link become active and traffic flow through them, but i face the issue tell earlier that there is no load balancing.....if i missing some thing than kindly let me know. 
</pre><pre class="Example2">Regards</pre><pre class="Example2">Fahad </pre></div>
<div>  </div>
<div> </div>
<div><br> </div></div>
<div><span class="gmail_quote">On 10/12/06, <b class="gmail_sendername">Niels Bakker</b> <niels=<a href="mailto:foundry-nsp@bakker.net">foundry-nsp@bakker.net</a>> wrote:</span>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid">* <a href="mailto:fahad.alikhan@gmail.com">fahad.alikhan@gmail.com</a> (FAHAD ALI KHAN) [Thu 12 Oct 2006, 06:09 CEST]:
<br>>Actually i have BigIron 15000 with JetCore Gig Copper Module and JetCore<br>>Copper E Module (48 Port FastEthernet).<br>><br>>Initailly i go for Aggregated (trunk) interfaces, but it wont work for me.<br>
>it is poosible that im missing something in it. This is my scenario,<br>><br>>UpStream --- Juniper M5 === BigIron 15000 ------ Connected to Other<br>>PoPs/Clients/Servers on Fiber and Ethernet<br>><br>>Now the Downward traffic from upstream to my PoPs and Client is arround
<br>>90Mbps and will gonna incerase.... i want to terminate bigIron 2<br>>FastEthernet (as M5 has 4 port FE PIC) to M5 and want to do Etherchannel<br>>or Trunk between M5 and BigIron to do proper loadbalancing.......
<br>><br>>Now what happen....aggregate link has been successfully established but<br>>when the traffic is through over it.....it goes like this......<br>><br>>Juniper-M5-FE1-input = 2Mbps , Juniper-M5-FE1-output = 0
<br>>Juniper-M5-FE2-input = 0         , Juniper-M5-FE2-output = 2Mbps<br>><br>>same on Foundry ethernet interfaces.....it is possible that it is due to<br>>the algo used but it will be surely based on Dest/Src IP address or
<br>>Dest/Src MAC address.<br>><br>>But this is not loadbalancing......!<br>><br>>Kindly if you ever try it......kindly send me the sample config...so i<br>>can verify it with mine......<br><br>You've still not explained whether you are routing or switching on that
<br>BigIron.  And you state 2 Mbps in your drawing but claim 90 Mbps in your<br>text.<br><br>It may well be that you misconfigured the aggregated link to<br>load-balance only on destination MAC address.  What did you configure?
<br>I explained the difference in my earlier mail (switch vs server trunk).<br><br>"trunk server e 4/1 to 4/2" would do it on the BigIron JetCore side<br>(assuming those ports connect to the M5, and assuming you're switching
<br>not routing).<br><br>The 48-port 10/100 blade places no limits on port placement within a<br>trunk and it should load-balance fine for server trunks.<br><br><br>       -- Niels.<br><br>--<br>_______________________________________________
<br>foundry-nsp mailing list<br><a href="mailto:foundry-nsp@puck.nether.net">foundry-nsp@puck.nether.net</a><br><a href="http://puck.nether.net/mailman/listinfo/foundry-nsp">http://puck.nether.net/mailman/listinfo/foundry-nsp
</a><br></blockquote></div><br>