My měli při 300M lince (a na strop si to sahalo dost často) běžný desktop intel board (myslím PEARL) a v tom Core2Duo okolo 2.4GHz. A rozhodně to nelossilo. Byl v tom čistý linux (verzi už nevím, okolo 2.6.20, ale distribučně jsem založený na Archlinuxu), NATka a shapper (HTB+SFQ) tenkrát pro nějakých jestli si dobře pamatuju 1200 až 1300 lidí.
Ale je fakt, že na trochu větší místa (což jsou všechny, kam nelze dát RB) už mi nesmí nic jiného, než opravdu serverová věc. Byť třeba entry-level AspenHill, Gross Point atp. Byl to spíš subjektivní dojem, než něco exaktně změřeného, ale chová se to prostě lépe i když to papírově vypadá úplně stejně. Je to poznat i na obyčejné práci v příkazové řádce. Desktopy jako kdyby měly občas problém s latencí na sběrnicích, či co.
Byť kdybych musel šetřit, tak se do těch 200-300Mbit desktopu nijak zvlášť nebojím (ale ne atom). Na podřadných routerech ovšem neNATkuju, ani neQOSuju. Ale conntrack používám. Firewally stavím na IPSETech, což srazí CPU na nulu ... Podobný případ je i shapper. Pokud se použije markování paketů, byť v optimalizovaném "stromečku", tak je to procesorově náročné (u nás tenkrát cca 40-60%). Ve chvíli, kdy jsem to přepsal na CLASSIFY target, vytížení skoro nebylo v htopu poznat (pozor, musí se sledovat i kernel časy).
Bohužel všechno souvisí tak nějak se vším. Pochybuju, že se dá udělat nějaký univerzální závěr. Ale také by mě zajímal.